Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте — между данными, хранилищем и вычислениями; одновременно создавая открытые модели и децентрализованный рынок AI-агентов.
Основное применение ИИ в индустрии Web3 — это финансовые услуги на блокчейне (криптоплатежи, сделки, анализ данных) и вспомогательная разработка.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за пределы.
За последние два года развитие ИИ похоже на нажатие кнопки ускорения. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3.
Под воздействием концепции ИИ финансирование крипторынка заметно увеличилось по сравнению с замедлением. Согласно статистике СМИ, только в первой половине 2024 года было завершено финансирование 64 проектов Web3+AI, а операционная система на основе искусственного интеллекта Zyber365 на этапе A достигла максимальной суммы финансирования в 100 миллионов долларов.
Вторичный рынок становится все более процветающим, данные с агрегаторов криптовалют показывают, что всего за немного больше года общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительные результаты, связанные с продвижением основных технологий ИИ, очевидны: после выпуска модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на одну из секций привлечения средств в криптовалюте - Meme: первая концепция MemeCoin с ИИ Agent - GOAT быстро стала популярной и достигла оценки в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся горячими. От AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены нового нарратива.
AI+Web3, эта комбинация терминов, полная горячих денег, модных трендов и фантазий о будущем, неминуемо воспринимается как брак по расчету, устроенный капиталом; нам кажется, что трудно разгадать, под этой роскошной оболочкой на самом деле является полем для спекулянтов или же преддверием яркого рассвета?
Чтобы ответить на этот вопрос, ключевое размышление для обеих сторон заключается в том, станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся посмотреть на эту структуру с плеч предшественников: как Web3 может играть роль на всех этапах технологического стека AI, и что AI может привнести в Web3?
Часть 1. Какие возможности предоставляет Web3 под стеком AI?
Перед тем как развивать эту тему, нам нужно понять технический стек больших моделей ИИ:
Переформулируем весь процесс более простым языком: «Большая модель» похожа на человеческий мозг. На ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими сенсорными возможностями, перед обучением большие объемы неразмеченной информации из внешней среды необходимо преобразовать в формат информации, который компьютер может понять и использовать, через этап «предобработки».
После ввода данных ИИ создает модель с возможностями понимания и прогнозирования через "обучение", что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает окружающий мир. Параметры модели подобны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Когда содержание обучения начинает делиться на разделы или происходит общение с людьми, получая обратную связь и корректировки, это переходит в этап "тонкой настройки" большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входы. Младенцы выражают свои чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач после завершения обучения, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится всё ближе к следующей форме большого моделирования — способности самостоятельно выполнять задачи и преследовать сложные цели, обладая не только способностью к мышлению, но и памятью, планированием, а также умением взаимодействовать с миром с помощью инструментов.
В настоящее время, отвечая на болевые точки AI на различных уровнях, Web3 на данный момент предварительно сформировала многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса AI-моделей.
Один. Базовый уровень: вычислительная мощность и данные Airbnb
▎Мощность вычислений
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимые для обучения и вывода моделей.
Один из примеров - это то, что Meta's LLAMA3 требует 16000 H100 GPU, произведенных NVIDIA (это высококачественный графический процессор, разработанный специально для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80 ГБ версию составляет от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительных мощностей ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja представлено более 1400 проектов, среди которых проекты по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и др.
Основная логика заключается в следующем: платформа позволяет отдельным лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свои вычислительные мощности в децентрализованной форме без необходимости получения разрешений. Это создает онлайн-рынок покупателей и продавцов, аналогичный Uber или Airbnb, что повышает коэффициент использования незадействованных ресурсов GPU, а конечные пользователи таким образом получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также обеспечивает соответствующие наказания для поставщиков ресурсов в случае нарушения механизма контроля качества или отключения сети.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, операторы криптодобычи и другие, обладающие избыточными вычислительными мощностями, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для выполнения инференции больших моделей.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. "С точки зрения технологии" децентрализованный рынок вычислительных мощностей больше подходит для этапов вывода. Обучение больше зависит от обработки данных, которую обеспечивает масштаб GPU в суперкомпьютерах, в то время как вывод требует относительно низкой вычислительной производительности GPU, как, например, Aethir, который фокусируется на рендеринге с низкой задержкой и AI-приложениях для вывода.
b. "С точки зрения спроса" средние и малые пользователи вычислительных мощностей не будут отдельно обучать свои собственные большие модели, а будут просто выбирать оптимизацию и тонкую настройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованное владение: техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко адаптируя их в зависимости от спроса и получая при этом прибыль.
▎Данные
Данные являются основой ИИ. Если нет данных, вычисления становятся бесполезными, как вода на поверхности, а связь между данными и моделью подобна поговорке "мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, ее способность к пониманию, а также ее ценности и гуманистические проявления. В настоящее время проблемы с потребностями ИИ в данных в основном сосредоточены на следующих четырех аспектах:
Данные голод: обучение моделей ИИ зависит от большого объема входных данных. Открытые данные показывают, что для обучения GPT-4 от OpenAI количество параметров достигло триллионов.
Качество данных: с объединением ИИ и различных отраслей, актуальность данных, разнообразие данных, специфика вертикальных данных и новые источники данных, такие как анализ эмоций в социальных сетях, также выдвигают новые требования к его качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI компаниях идет на сбор и обработку основных данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Сбор данных: возможность бесплатного предоставления реальных данных для сбора быстро иссякает, и расходы компаний ИИ на данные растут с каждым годом. Однако при этом эти расходы не возвращаются к настоящим вкладчикам данных, а платформы полностью наслаждаются созданием ценности, которое приносит данными, как, например, Reddit, который заработал в общей сложности 203 миллиона долларов благодаря соглашениям о лицензировании данных с компаниями ИИ.
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, получаемой от данных, а также получать более личные и более ценные данные от пользователей с помощью распределенной сети и механизмов стимулирования, является видением Web3.
Grass является децентрализованным уровнем данных и сетью, где пользователи могут запускать узлы Grass, вносить свой свободный пропускной способности и релейный трафик для захвата в реальном времени данных из всего Интернета и получать токен-вознаграждение;
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использовать эти данные конкретным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве метки категории на X и @PublicAI для сбора данных.
Предварительная обработка данных: в процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, их необходимо очистить и преобразовать в пригодный формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку отсутствующих значений в повторяющихся задачах. Этот этап является одним из немногих ручных процессов в индустрии AI, что привело к возникновению профессии специалистов по аннотации данных. С повышением требований моделей к качеству данных также возрастает порог вхождения для специалистов по аннотации данных, и эта задача естественным образом подходит для децентрализованной механики стимулов Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этапа аннотирования данных.
Synesis представила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить очки, чтобы зарабатывать больше очков.
Конфиденциальность данных и безопасность: необходимо уточнить, что конфиденциальность данных и безопасность – это два разных понятия. Конфиденциальность данных касается обработки чувствительной информации, в то время как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентификации с внешних сайтов, не раскрывая конфиденциальную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, текущее затруднение заключается в слишком высоких вычислительных расходах, некоторые примеры:
zkML фреймворк E
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
19 Лайков
Награда
19
5
Поделиться
комментарий
0/400
Ser_Liquidated
· 08-07 07:13
Что за спекуляции? Все это истории о Арбитраже.
Посмотреть ОригиналОтветить0
NotFinancialAdviser
· 08-07 07:12
ai зарабатывает, а кто заботится о выживании web3
Посмотреть ОригиналОтветить0
RetiredMiner
· 08-07 07:06
токен
Посмотреть ОригиналОтветить0
SmartContractPhobia
· 08-07 07:01
Децентрализация忽悠对吧
Посмотреть ОригиналОтветить0
AirdropChaser
· 08-07 07:00
разыгрывайте людей как лохов все еще те же люди из мира криптовалют
Слияние ИИ и Web3: новые возможности и взаимное усиление
AI+Web3: Башни и площади
Краткое содержание
Проекты Web3 с концепцией ИИ становятся объектами привлечения капитала на первичном и вторичном рынках.
Возможности Web3 в AI-отрасли проявляются в: использовании распределенных стимулов для координации потенциального предложения в длинном хвосте — между данными, хранилищем и вычислениями; одновременно создавая открытые модели и децентрализованный рынок AI-агентов.
Основное применение ИИ в индустрии Web3 — это финансовые услуги на блокчейне (криптоплатежи, сделки, анализ данных) и вспомогательная разработка.
Эффективность AI+Web3 проявляется в их взаимодополнении: Web3 обещает противостоять централизации AI, а AI обещает помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на нажатие кнопки ускорения. Этот эффект бабочки, вызванный Chatgpt, не только открыл новый мир генеративного искусственного интеллекта, но и вызвал мощные волны в Web3.
Под воздействием концепции ИИ финансирование крипторынка заметно увеличилось по сравнению с замедлением. Согласно статистике СМИ, только в первой половине 2024 года было завершено финансирование 64 проектов Web3+AI, а операционная система на основе искусственного интеллекта Zyber365 на этапе A достигла максимальной суммы финансирования в 100 миллионов долларов.
Вторичный рынок становится все более процветающим, данные с агрегаторов криптовалют показывают, что всего за немного больше года общая рыночная капитализация сектора ИИ достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов; положительные результаты, связанные с продвижением основных технологий ИИ, очевидны: после выпуска модели OpenAI Sora для преобразования текста в видео средняя цена в секторе ИИ выросла на 151%; эффект ИИ также распространился на одну из секций привлечения средств в криптовалюте - Meme: первая концепция MemeCoin с ИИ Agent - GOAT быстро стала популярной и достигла оценки в 1,4 миллиарда долларов, успешно запустив бум AI Meme.
Исследования и темы, связанные с AI+Web3, также становятся горячими. От AI+Depin до AI Memecoin и текущих AI Agent и AI DAO, чувство FOMO уже не успевает за скоростью смены нового нарратива.
AI+Web3, эта комбинация терминов, полная горячих денег, модных трендов и фантазий о будущем, неминуемо воспринимается как брак по расчету, устроенный капиталом; нам кажется, что трудно разгадать, под этой роскошной оболочкой на самом деле является полем для спекулянтов или же преддверием яркого рассвета?
Чтобы ответить на этот вопрос, ключевое размышление для обеих сторон заключается в том, станет ли лучше с другой стороной? Можно ли извлечь выгоду из модели другой стороны? В этой статье мы также пытаемся посмотреть на эту структуру с плеч предшественников: как Web3 может играть роль на всех этапах технологического стека AI, и что AI может привнести в Web3?
Часть 1. Какие возможности предоставляет Web3 под стеком AI?
Перед тем как развивать эту тему, нам нужно понять технический стек больших моделей ИИ:
Переформулируем весь процесс более простым языком: «Большая модель» похожа на человеческий мозг. На ранних стадиях этот мозг принадлежит только что родившемуся младенцу, который должен наблюдать и поглощать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают человеческими зрительными, слуховыми и другими сенсорными возможностями, перед обучением большие объемы неразмеченной информации из внешней среды необходимо преобразовать в формат информации, который компьютер может понять и использовать, через этап «предобработки».
После ввода данных ИИ создает модель с возможностями понимания и прогнозирования через "обучение", что можно рассматривать как процесс, в котором младенец постепенно понимает и изучает окружающий мир. Параметры модели подобны языковым навыкам, которые постоянно корректируются в процессе обучения младенца. Когда содержание обучения начинает делиться на разделы или происходит общение с людьми, получая обратную связь и корректировки, это переходит в этап "тонкой настройки" большой модели.
Дети, постепенно взрослея и научившись говорить, могут понимать смысл в новых диалогах и выражать свои чувства и мысли. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые входы. Младенцы выражают свои чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на применение больших моделей ИИ на этапе вывода для выполнения различных специфических задач после завершения обучения, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится всё ближе к следующей форме большого моделирования — способности самостоятельно выполнять задачи и преследовать сложные цели, обладая не только способностью к мышлению, но и памятью, планированием, а также умением взаимодействовать с миром с помощью инструментов.
В настоящее время, отвечая на болевые точки AI на различных уровнях, Web3 на данный момент предварительно сформировала многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса AI-моделей.
! AI+Web3: Башни и площади
Один. Базовый уровень: вычислительная мощность и данные Airbnb
▎Мощность вычислений
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимые для обучения и вывода моделей.
Один из примеров - это то, что Meta's LLAMA3 требует 16000 H100 GPU, произведенных NVIDIA (это высококачественный графический процессор, разработанный специально для работы с искусственным интеллектом и высокопроизводительными вычислительными нагрузками). Обучение занимает 30 дней. Цена на 80 ГБ версию составляет от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) от 400 до 700 миллионов долларов, при этом ежемесячное обучение требует потребления 1,6 миллиарда киловатт-часов, а расходы на энергию составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительных мощностей ИИ является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja представлено более 1400 проектов, среди которых проекты по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и др.
Основная логика заключается в следующем: платформа позволяет отдельным лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свои вычислительные мощности в децентрализованной форме без необходимости получения разрешений. Это создает онлайн-рынок покупателей и продавцов, аналогичный Uber или Airbnb, что повышает коэффициент использования незадействованных ресурсов GPU, а конечные пользователи таким образом получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также обеспечивает соответствующие наказания для поставщиков ресурсов в случае нарушения механизма контроля качества или отключения сети.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками являются в основном независимые малые и средние дата-центры, операторы криптодобычи и другие, обладающие избыточными вычислительными мощностями, а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, стремящиеся запустить оборудование с более низким порогом входа, такие как exolab, использующий MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для выполнения инференции больших моделей.
Столкновение с длинным хвостом рынка вычислительной мощности ИИ:
a. "С точки зрения технологии" децентрализованный рынок вычислительных мощностей больше подходит для этапов вывода. Обучение больше зависит от обработки данных, которую обеспечивает масштаб GPU в суперкомпьютерах, в то время как вывод требует относительно низкой вычислительной производительности GPU, как, например, Aethir, который фокусируется на рендеринге с низкой задержкой и AI-приложениях для вывода.
b. "С точки зрения спроса" средние и малые пользователи вычислительных мощностей не будут отдельно обучать свои собственные большие модели, а будут просто выбирать оптимизацию и тонкую настройку вокруг нескольких ведущих больших моделей, и эти сценарии естественно подходят для распределенных неиспользуемых вычислительных ресурсов.
▎Данные
Данные являются основой ИИ. Если нет данных, вычисления становятся бесполезными, как вода на поверхности, а связь между данными и моделью подобна поговорке "мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, ее способность к пониманию, а также ее ценности и гуманистические проявления. В настоящее время проблемы с потребностями ИИ в данных в основном сосредоточены на следующих четырех аспектах:
Данные голод: обучение моделей ИИ зависит от большого объема входных данных. Открытые данные показывают, что для обучения GPT-4 от OpenAI количество параметров достигло триллионов.
Качество данных: с объединением ИИ и различных отраслей, актуальность данных, разнообразие данных, специфика вертикальных данных и новые источники данных, такие как анализ эмоций в социальных сетях, также выдвигают новые требования к его качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно открытым данным, более 30% затрат на НИОКР в AI компаниях идет на сбор и обработку основных данных.
В настоящее время решения web3 проявляются в следующих четырех аспектах:
Позволить пользователям, которые действительно вносят вклад, также участвовать в создании ценности, получаемой от данных, а также получать более личные и более ценные данные от пользователей с помощью распределенной сети и механизмов стимулирования, является видением Web3.
Grass является децентрализованным уровнем данных и сетью, где пользователи могут запускать узлы Grass, вносить свой свободный пропускной способности и релейный трафик для захвата в реальном времени данных из всего Интернета и получать токен-вознаграждение;
Vana ввела уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активности в социальных сетях и т. д.) в определенный DLP и гибко выбирать, разрешать ли использовать эти данные конкретным третьим лицам;
В PublicAI пользователи могут использовать #AI 或#Web3 в качестве метки категории на X и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность добавления этапа аннотирования данных.
Synesis представила концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждения за предоставление аннотированных данных, комментариев или других форм ввода.
Проект по аннотации данных Sapien превращает задачи по маркировке в игру и позволяет пользователям ставить очки, чтобы зарабатывать больше очков.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, позволяя пользователям безопасно импортировать данные о деятельности, репутации и идентификации с внешних сайтов, не раскрывая конфиденциальную информацию.
Тем не менее, в настоящее время эта область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, текущее затруднение заключается в слишком высоких вычислительных расходах, некоторые примеры: