Проекти Web3 з концепцією ШІ стали привабливими цілями для залучення капіталу на первинному та вторинному ринках.
Можливості Web3 в індустрії ШІ проявляються у: використанні розподілених стимулів для координації потенційних постачальників у довгому хвості — через дані, зберігання та обчислення; одночасно, створенням відкритих моделей та децентралізованого ринку AI Agent.
Основна сфера застосування ШІ в індустрії Web3 - це фінанси на блокчейні (криптоплатежі, торгівля, аналіз даних) та допоміжна розробка.
Корисність AI+Web3 полягає в їхній взаємодоповнювальності: Web3 має потенціал протистояти централізації AI, а AI має потенціал допомогти Web3 вийти за межі.
Останні два роки розвиток штучного інтелекту наче натиснули на кнопку прискорення, цей метеликовий ефект, спровокований Chatgpt, не лише відкрив новий світ генеративного штучного інтелекту, але й викликав хвилю в Web3 на іншій стороні.
Під впливом концепції штучного інтелекту, помітно підвищилося фінансування в уповільненому криптовалютному ринку. Згідно зі статистикою ЗМІ, лише в першій половині 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на базі штучного інтелекту Zyber365 досягла максимальної суми фінансування в 100 мільйонів доларів на раунді A.
Ринок другого рівня став більш процвітаючим, дані з криптоагрегаторів показують, що за короткий рік загальна ринкова капіталізація сектора ШІ досягла 48,5 мільярдів доларів, а обсяг торгів за 24 години наблизився до 8,6 мільярда доларів; очевидні переваги, що виникають завдяки прогресу в основних технологіях ШІ, після випуску моделі OpenAI Sora, яка перетворює текст на відео, середня ціна в сегменті ШІ зросла на 151%; ефект ШІ також поширився на одну з підгалузей криптовалют, яка залучає капітал Meme: перша концепція AI Agent MemeCoin — GOAT швидко здобула популярність і отримала оцінку в 1,4 мільярда доларів, успішно започаткувавши бум AI Meme.
Дослідження та теми, пов'язані з AI+Web3, також набирають популярності: від AI+Depin до AI Memecoin, а тепер до AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, перспективами та фантазією майбутнього, неминуче сприймається як шлюб, влаштований капіталом, і нам, здається, важко розрізнити під цим розкішним вбранням, чи це справжнє поле для спекулянтів, чи переддень вибуху нового світанку?
Щоб відповісти на це питання, важливе роздуми, що є ключовими для обох сторін: чи стане краще з присутністю однієї сторони? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми також намагаємось поглянути на цю картину, стоячи на плечах попередників: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і яку нову життєздатність AI може принести Web3?
Частина 1 Які можливості є у Web3 під стеком AI?
Перед тим, як розширити цю тему, нам потрібно зрозуміти технологічний стек великих моделей штучного інтелекту:
Використовуючи більш просту мову, щоб описати весь процес: «велика модель» подібна до людського мозку. На ранніх стадіях цей мозок належить немовляті, яке щойно з'явилося на світ, і йому потрібно спостерігати та споживати величезну кількість інформації з оточення, щоб зрозуміти цей світ. Це і є етап «збирання» даних; оскільки комп'ютер не має таких сенсорів, як зір або слух, на етапі навчання великі обсяги не маркованої інформації ззовні потрібно перетворити через «попередню обробку» в формат інформації, зрозумілий та придатний для використання комп'ютером.
Після введення даних AI за допомогою «навчання» створює модель, яка має здатність розуміти та прогнозувати, що можна розглядати як процес, у якому дитина поступово розуміє та вчиться взаємодії з навколишнім світом. Параметри моделі схожі на мовні здібності дитини, які постійно коригуються в процесі навчання. Коли зміст навчання починає спеціалізуватися або отримує зворотний зв'язок від спілкування з людьми і коригується, це переходить до етапу «доладжування» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть розуміти сенс у нових розмовах і виражати свої почуття та думки. Цей етап подібний до «інференції» у великих моделях AI, де модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різні проблеми, що також подібно до того, як великі моделі AI, завершивши навчання і почавши використовуватися, застосовуються на етапі інференції для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі — здатної самостійно виконувати завдання та переслідувати складні цілі, яка не лише має мислення, а й здатна до пам'яті, планування і взаємодії з світом за допомогою інструментів.
Наразі, у відповідь на проблеми AI в різних стекових рішеннях, Web3 наразі починає формувати багаторівневу, взаємопов'язану екосистему, що охоплює всі етапи процесу моделей AI.
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
▎Обчислювальна потужність
Наразі одна з найбільших витрат у сфері ШІ - це обчислювальна потужність і енергія, необхідні для навчання моделей та інференції.
Прикладом є те, що LLAMA3 від Meta потребує 16000 H100GPU, вироблених NVIDIA (це провідний графічний процесор, спеціально розроблений для штучного інтелекту та робочих навантажень з високою продуктивністю). Для завершення навчання потрібно 30 днів. Ціна на 80GB версію варіюється від 30,000 до 40,000 доларів, що потребує інвестицій в обчислювальне обладнання (GPU + мережеві чіпи) в межах 4-7 мільярдів доларів, одночасно щомісячне навчання споживає 1.6 мільярда кіловат-годин, а витрати на енергію складають майже 20 мільйонів доларів на місяць.
Розвантаження AI обчислювальної потужності є однією з перших областей перетворення Web3 з AI — DePin (децентралізовані фізичні інфраструктурні мережі). На даний момент сайт даних DePin Ninja вже представив понад 1400 проектів, серед яких проекти, що представляють обмін GPU потужностями, включають io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або суб'єктам, які мають вільні GPU-ресурси, вносити свій обчислювальний потенціал у децентралізований спосіб без необхідності отримання дозволу. Це підвищує використання ненадійних GPU-ресурсів через онлайн-ринок покупців і продавців, схожий на Uber або Airbnb, що також дозволяє кінцевим користувачам отримувати більш дешеві та ефективні обчислювальні ресурси. У той же час механізм стейкингу забезпечує відповідні покарання для постачальників ресурсів у випадку порушення механізму контролю якості або переривання мережі.
Його особливості полягають у:
Збір вільних ресурсів GPU: постачальниками в основному є незалежні середні та маломасштабні дата-центри, оператори надлишкових обчислювальних ресурсів крипто-майнінгу тощо, а також апаратура для майнінгу з механізмом консенсусу PoS, така як майнери для FileCoin та ETH. Наразі є також проекти, які прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує MacBook, iPhone, iPad та інші локальні пристрої для створення обчислювальної мережі для інференції великих моделей.
Перед обличчям довгого хвоста ринку обчислювальних потужностей AI:
a. "З технічної точки зору" децентралізований ринок обчислювальних потужностей більше підходить для етапів висновків. Навчання значно більше залежить від обробної здатності даних, що забезпечується гігантськими кластерами GPU, тоді як для висновків ефективність обчислень GPU відносно нижча, як, наприклад, Aethir, який зосереджується на рендерингу з низькою затримкою та застосуваннях AI для висновків.
b. «З точки зору попиту» малі та середні замовники обчислювальної потужності не будуть самостійно тренувати свої великі моделі, а лише виберуть оптимізацію та доопрацювання навколо небагатьох провідних великих моделей, і ці сценарії природним чином підходять для розподілених неактивних обчислювальних ресурсів.
Децентралізована власність: Технологічне значення блокчейну полягає в тому, що власники ресурсів завжди зберігають контроль над своїми ресурсами, гнучко коригуючи їх відповідно до потреб, одночасно отримуючи прибуток.
▎Дані
Дані є основою штучного інтелекту. Якщо немає даних, обчислення стають безглуздими, як водяна рослина, а зв'язок між даними та моделлю нагадує приказку "Сміття на вході, сміття на виході". Кількість даних і якість введення визначають кінцеву якість виходу моделі. Для навчання сучасних AI-моделей дані визначають мовні здібності моделі, розуміння, навіть цінності та гуманізм. Наразі проблеми з потребами в даних для AI зосереджені на чотирьох основних аспектах:
Голод даних: навчання AI-моделей потребує великої кількості даних. Відкриті дані показують, що OpenAI навчила GPT-4 з кількістю параметрів на рівні трильйонів.
Якість даних: з поєднанням ШІ та різних галузей, своєчасність даних, різноманітність даних, спеціалізація галузевих даних, а також нові джерела даних, такі як емоції з соціальних медіа, висувають нові вимоги до їхньої якості.
Проблеми конфіденційності та відповідності: наразі різні країни та компанії поступово усвідомлюють важливість якісних наборів даних і вводять обмеження на збори даних.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Згідно з опублікованими даними, більш ніж 30% витрат на дослідження і розробки в AI компаніях йде на базове збори та обробку даних.
Наразі рішення web3 проявляються в чотирьох основних аспектах:
Збір даних: Безкоштовно доступні зібрані дані з реального світу швидко вичерпуються, а витрати AI-компаній на дані зростають з кожним роком. Але водночас ці витрати не повертаються до справжніх постачальників даних, платформи повністю насолоджуються створенням вартості, яку приносять дані, як Reddit, підписавши угоди на ліцензування даних із AI-компаніями, отримала в загальному 203 мільйони доларів.
Дати можливість справжнім користувачам також брати участь у створенні цінності, що виникає з даних, а також отримувати більш приватні та цінні дані від користувачів за низькою вартістю за допомогою розподіленої мережі та механізмів стимулювання – ось бачення Web3.
Grass є децентралізованим рівнем даних та мережею, користувачі можуть запускати вузли Grass, вносячи вклад у вільну пропускну здатність та ретрансляцію трафіку для збору в реальному часі даних з Інтернету та отримувати токенні винагороди;
Vana впровадила унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (такі як записи покупок, звички перегляду, активність у соціальних мережах тощо) у певний DLP та гнучко обирати, чи надавати ці дані на використання певним третім особам;
У PublicAI користувачі можуть використовувати #AI 或#Web3 як категорійний тег на X та @PublicAI для збору даних.
Передобробка даних: під час обробки даних AI, оскільки зібрані дані зазвичай є шумними та містять помилки, їх необхідно очистити та перетворити у придатний формат перед навчанням моделі, що включає стандартизацію, фільтрацію та обробку пропущених значень, що повторюються. Ця стадія є однією з небагатьох ручних етапів у галузі AI, вже виникла професія маркерів даних, і з підвищенням вимог моделі до якості даних, поріг входу для маркерів даних також підвищується, а це завдання природно підходить для децентралізованих механізмів стимулювання Web3.
Наразі Grass та OpenLayer обидва розглядають можливість додавання цього ключового етапу - маркування даних.
Synesis представив концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороду за надання помічених даних, коментарів або інших форм внеску.
Проект позначення даних Sapien перетворює завдання з маркування на гру та дозволяє користувачам ставити бали для заробітку більшої кількості балів.
Конфіденційність та безпека даних: слід уточнити, що конфіденційність та безпека даних є двома різними поняттями. Конфіденційність даних стосується обробки чутливих даних, тоді як безпека даних захищає інформацію від несанкціонованого доступу, знищення та крадіжки. Отже, переваги технологій конфіденційності Web3 та потенційні сфери їх застосування проявляються в двох аспектах: (1) навчання на чутливих даних; (2) співпраця з даними: кілька власників даних можуть спільно брати участь у навчанні ШІ, не ділячись своїми початковими даними.
Серед поширених технологій конфіденційності Web3 в даний час є:
Достовірне виконуване середовище ( TEE ), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад, BasedAI, Fhenix.io або Inco Network;
Технології нульового знання (zk), такі як Reclaim Protocol, використовують технологію zkTLS для генерації нульових доказів HTTPS-трафіку, що дозволяє користувачам безпечно імпортувати активність, репутацію та дані про особу з зовнішніх веб-сайтів, не розкриваючи чутливу інформацію.
Проте, наразі ця сфера все ще на ранній стадії, більшість проектів все ще в процесі дослідження, теперішня проблема полягає в надто високих витратах на обчислення, деякі приклади:
zkML фрейм E
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
19 лайків
Нагородити
19
5
Поділіться
Прокоментувати
0/400
Ser_Liquidated
· 08-07 07:13
Про що йдеться? Це все історії для Арбітражу.
Переглянути оригіналвідповісти на0
NotFinancialAdviser
· 08-07 07:12
ai заробив, кому це цікаво, web3 помер.
Переглянути оригіналвідповісти на0
RetiredMiner
· 08-07 07:06
також заробив трохи скамкойнів
Переглянути оригіналвідповісти на0
SmartContractPhobia
· 08-07 07:01
Децентралізація忽悠对吧
Переглянути оригіналвідповісти на0
AirdropChaser
· 08-07 07:00
обдурювати людей, як лохів прийшло і пішло, а люди в криптосвіт залишилися ті ж.
Перетворення AI та Web3: нові можливості та взаємне підсилення
AI+Web3: Вежі та площі
Коротко кажучи
Проекти Web3 з концепцією ШІ стали привабливими цілями для залучення капіталу на первинному та вторинному ринках.
Можливості Web3 в індустрії ШІ проявляються у: використанні розподілених стимулів для координації потенційних постачальників у довгому хвості — через дані, зберігання та обчислення; одночасно, створенням відкритих моделей та децентралізованого ринку AI Agent.
Основна сфера застосування ШІ в індустрії Web3 - це фінанси на блокчейні (криптоплатежі, торгівля, аналіз даних) та допоміжна розробка.
Корисність AI+Web3 полягає в їхній взаємодоповнювальності: Web3 має потенціал протистояти централізації AI, а AI має потенціал допомогти Web3 вийти за межі.
! AI+Web3: Вежі та Плази
Вступ
Останні два роки розвиток штучного інтелекту наче натиснули на кнопку прискорення, цей метеликовий ефект, спровокований Chatgpt, не лише відкрив новий світ генеративного штучного інтелекту, але й викликав хвилю в Web3 на іншій стороні.
Під впливом концепції штучного інтелекту, помітно підвищилося фінансування в уповільненому криптовалютному ринку. Згідно зі статистикою ЗМІ, лише в першій половині 2024 року 64 проекти Web3+AI завершили фінансування, а операційна система на базі штучного інтелекту Zyber365 досягла максимальної суми фінансування в 100 мільйонів доларів на раунді A.
Ринок другого рівня став більш процвітаючим, дані з криптоагрегаторів показують, що за короткий рік загальна ринкова капіталізація сектора ШІ досягла 48,5 мільярдів доларів, а обсяг торгів за 24 години наблизився до 8,6 мільярда доларів; очевидні переваги, що виникають завдяки прогресу в основних технологіях ШІ, після випуску моделі OpenAI Sora, яка перетворює текст на відео, середня ціна в сегменті ШІ зросла на 151%; ефект ШІ також поширився на одну з підгалузей криптовалют, яка залучає капітал Meme: перша концепція AI Agent MemeCoin — GOAT швидко здобула популярність і отримала оцінку в 1,4 мільярда доларів, успішно започаткувавши бум AI Meme.
Дослідження та теми, пов'язані з AI+Web3, також набирають популярності: від AI+Depin до AI Memecoin, а тепер до AI Agent та AI DAO, емоція FOMO вже не встигає за швидкістю зміни нових наративів.
AI+Web3, ця комбінація термінів, що переповнена гарячими грошима, перспективами та фантазією майбутнього, неминуче сприймається як шлюб, влаштований капіталом, і нам, здається, важко розрізнити під цим розкішним вбранням, чи це справжнє поле для спекулянтів, чи переддень вибуху нового світанку?
Щоб відповісти на це питання, важливе роздуми, що є ключовими для обох сторін: чи стане краще з присутністю однієї сторони? Чи можна отримати вигоду з моделі іншої сторони? У цій статті ми також намагаємось поглянути на цю картину, стоячи на плечах попередників: як Web3 може відігравати роль на всіх етапах технологічного стеку AI, і яку нову життєздатність AI може принести Web3?
Частина 1 Які можливості є у Web3 під стеком AI?
Перед тим, як розширити цю тему, нам потрібно зрозуміти технологічний стек великих моделей штучного інтелекту:
Використовуючи більш просту мову, щоб описати весь процес: «велика модель» подібна до людського мозку. На ранніх стадіях цей мозок належить немовляті, яке щойно з'явилося на світ, і йому потрібно спостерігати та споживати величезну кількість інформації з оточення, щоб зрозуміти цей світ. Це і є етап «збирання» даних; оскільки комп'ютер не має таких сенсорів, як зір або слух, на етапі навчання великі обсяги не маркованої інформації ззовні потрібно перетворити через «попередню обробку» в формат інформації, зрозумілий та придатний для використання комп'ютером.
Після введення даних AI за допомогою «навчання» створює модель, яка має здатність розуміти та прогнозувати, що можна розглядати як процес, у якому дитина поступово розуміє та вчиться взаємодії з навколишнім світом. Параметри моделі схожі на мовні здібності дитини, які постійно коригуються в процесі навчання. Коли зміст навчання починає спеціалізуватися або отримує зворотний зв'язок від спілкування з людьми і коригується, це переходить до етапу «доладжування» великої моделі.
Діти, поступово дорослішаючи і навчаючись говорити, можуть розуміти сенс у нових розмовах і виражати свої почуття та думки. Цей етап подібний до «інференції» у великих моделях AI, де модель може прогнозувати та аналізувати нові мовні та текстові введення. Немовлята через мовні здібності виражають почуття, описують об'єкти та вирішують різні проблеми, що також подібно до того, як великі моделі AI, завершивши навчання і почавши використовуватися, застосовуються на етапі інференції для виконання різних специфічних завдань, таких як класифікація зображень, розпізнавання мови тощо.
А AI Agent наближається до наступної форми великої моделі — здатної самостійно виконувати завдання та переслідувати складні цілі, яка не лише має мислення, а й здатна до пам'яті, планування і взаємодії з світом за допомогою інструментів.
Наразі, у відповідь на проблеми AI в різних стекових рішеннях, Web3 наразі починає формувати багаторівневу, взаємопов'язану екосистему, що охоплює всі етапи процесу моделей AI.
! AI+Web3: Вежі та Квадрати
Один. Базовий рівень: обчислювальна потужність та дані Airbnb
▎Обчислювальна потужність
Наразі одна з найбільших витрат у сфері ШІ - це обчислювальна потужність і енергія, необхідні для навчання моделей та інференції.
Прикладом є те, що LLAMA3 від Meta потребує 16000 H100GPU, вироблених NVIDIA (це провідний графічний процесор, спеціально розроблений для штучного інтелекту та робочих навантажень з високою продуктивністю). Для завершення навчання потрібно 30 днів. Ціна на 80GB версію варіюється від 30,000 до 40,000 доларів, що потребує інвестицій в обчислювальне обладнання (GPU + мережеві чіпи) в межах 4-7 мільярдів доларів, одночасно щомісячне навчання споживає 1.6 мільярда кіловат-годин, а витрати на енергію складають майже 20 мільйонів доларів на місяць.
Розвантаження AI обчислювальної потужності є однією з перших областей перетворення Web3 з AI — DePin (децентралізовані фізичні інфраструктурні мережі). На даний момент сайт даних DePin Ninja вже представив понад 1400 проектів, серед яких проекти, що представляють обмін GPU потужностями, включають io.net, Aethir, Akash, Render Network тощо.
Основна логіка полягає в тому, що платформа дозволяє особам або суб'єктам, які мають вільні GPU-ресурси, вносити свій обчислювальний потенціал у децентралізований спосіб без необхідності отримання дозволу. Це підвищує використання ненадійних GPU-ресурсів через онлайн-ринок покупців і продавців, схожий на Uber або Airbnb, що також дозволяє кінцевим користувачам отримувати більш дешеві та ефективні обчислювальні ресурси. У той же час механізм стейкингу забезпечує відповідні покарання для постачальників ресурсів у випадку порушення механізму контролю якості або переривання мережі.
Його особливості полягають у:
Збір вільних ресурсів GPU: постачальниками в основному є незалежні середні та маломасштабні дата-центри, оператори надлишкових обчислювальних ресурсів крипто-майнінгу тощо, а також апаратура для майнінгу з механізмом консенсусу PoS, така як майнери для FileCoin та ETH. Наразі є також проекти, які прагнуть запустити обладнання з нижчим порогом входу, такі як exolab, що використовує MacBook, iPhone, iPad та інші локальні пристрої для створення обчислювальної мережі для інференції великих моделей.
Перед обличчям довгого хвоста ринку обчислювальних потужностей AI:
a. "З технічної точки зору" децентралізований ринок обчислювальних потужностей більше підходить для етапів висновків. Навчання значно більше залежить від обробної здатності даних, що забезпечується гігантськими кластерами GPU, тоді як для висновків ефективність обчислень GPU відносно нижча, як, наприклад, Aethir, який зосереджується на рендерингу з низькою затримкою та застосуваннях AI для висновків.
b. «З точки зору попиту» малі та середні замовники обчислювальної потужності не будуть самостійно тренувати свої великі моделі, а лише виберуть оптимізацію та доопрацювання навколо небагатьох провідних великих моделей, і ці сценарії природним чином підходять для розподілених неактивних обчислювальних ресурсів.
▎Дані
Дані є основою штучного інтелекту. Якщо немає даних, обчислення стають безглуздими, як водяна рослина, а зв'язок між даними та моделлю нагадує приказку "Сміття на вході, сміття на виході". Кількість даних і якість введення визначають кінцеву якість виходу моделі. Для навчання сучасних AI-моделей дані визначають мовні здібності моделі, розуміння, навіть цінності та гуманізм. Наразі проблеми з потребами в даних для AI зосереджені на чотирьох основних аспектах:
Голод даних: навчання AI-моделей потребує великої кількості даних. Відкриті дані показують, що OpenAI навчила GPT-4 з кількістю параметрів на рівні трильйонів.
Якість даних: з поєднанням ШІ та різних галузей, своєчасність даних, різноманітність даних, спеціалізація галузевих даних, а також нові джерела даних, такі як емоції з соціальних медіа, висувають нові вимоги до їхньої якості.
Проблеми конфіденційності та відповідності: наразі різні країни та компанії поступово усвідомлюють важливість якісних наборів даних і вводять обмеження на збори даних.
Високі витрати на обробку даних: велика кількість даних, складний процес обробки. Згідно з опублікованими даними, більш ніж 30% витрат на дослідження і розробки в AI компаніях йде на базове збори та обробку даних.
Наразі рішення web3 проявляються в чотирьох основних аспектах:
Дати можливість справжнім користувачам також брати участь у створенні цінності, що виникає з даних, а також отримувати більш приватні та цінні дані від користувачів за низькою вартістю за допомогою розподіленої мережі та механізмів стимулювання – ось бачення Web3.
Grass є децентралізованим рівнем даних та мережею, користувачі можуть запускати вузли Grass, вносячи вклад у вільну пропускну здатність та ретрансляцію трафіку для збору в реальному часі даних з Інтернету та отримувати токенні винагороди;
Vana впровадила унікальну концепцію пулу ліквідності даних (DLP), де користувачі можуть завантажувати свої приватні дані (такі як записи покупок, звички перегляду, активність у соціальних мережах тощо) у певний DLP та гнучко обирати, чи надавати ці дані на використання певним третім особам;
У PublicAI користувачі можуть використовувати #AI 或#Web3 як категорійний тег на X та @PublicAI для збору даних.
Наразі Grass та OpenLayer обидва розглядають можливість додавання цього ключового етапу - маркування даних.
Synesis представив концепцію «Train2earn», підкреслюючи якість даних, користувачі можуть отримувати винагороду за надання помічених даних, коментарів або інших форм внеску.
Проект позначення даних Sapien перетворює завдання з маркування на гру та дозволяє користувачам ставити бали для заробітку більшої кількості балів.
Серед поширених технологій конфіденційності Web3 в даний час є:
Достовірне виконуване середовище ( TEE ), наприклад, Super Protocol;
Повна гомоморфна криптографія (FHE), наприклад, BasedAI, Fhenix.io або Inco Network;
Технології нульового знання (zk), такі як Reclaim Protocol, використовують технологію zkTLS для генерації нульових доказів HTTPS-трафіку, що дозволяє користувачам безпечно імпортувати активність, репутацію та дані про особу з зовнішніх веб-сайтів, не розкриваючи чутливу інформацію.
Проте, наразі ця сфера все ще на ранній стадії, більшість проектів все ще в процесі дослідження, теперішня проблема полягає в надто високих витратах на обчислення, деякі приклади: