Святой Грааль Crypto AI: передовые исследования децентрализованного обучения
В полной цепочке создания стоимости ИИ обучение моделей является самым ресурсозатратным и технически сложным этапом, который напрямую определяет пределы возможностей модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных крупных затрат вычислительных мощностей, сложных процессов обработки данных и поддержки высокоинтенсивных алгоритмов оптимизации, что является настоящей "тяжелой промышленностью" в строительстве ИИ-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основным предметом обсуждения в данной статье.
Централизованное обучение — это самый распространенный традиционный способ, при котором единая организация выполняет все этапы обучения на локальном высокопроизводительном кластере, от оборудования, программного обеспечения нижнего уровня, систем управления кластером до всех компонентов обучающей среды, которые координируются единой управляющей системой. Эта глубокая согласованная архитектура обеспечивает оптимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но одновременно сталкиваясь с проблемами монополизации данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределённое обучение является основным способом обучения больших моделей в настоящее время. Его суть заключается в том, чтобы разбить задачи обучения модели и распределить их для совместного выполнения на нескольких машинах, чтобы преодолеть узкие места вычислений и хранения на одном компьютере. Хотя физически он обладает "Децентрализация"-характеристиками, в целом он все еще контролируется и координируется централизованными учреждениями, часто работает в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink, при этом главный узел координирует все подзадачи. Основные методы включают:
Параллельные данные: каждый узел обучает разные данные, параметры совместно используются, необходимо сопоставить веса модели
Модельное параллелизм: развертывание различных частей модели на разных узлах для достижения высокой масштабируемости
Параллельные каналы: поэтапное последовательное выполнение, повышение пропускной способности
Тензорное параллелизм: детализированное разделение матричных вычислений, повышение степени параллелизма
Распределенное обучение представляет собой комбинацию "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же босс дистанционно управляет несколькими "офисами", чтобы сотрудники сотрудничали для выполнения задач. В настоящее время почти все основные большие модели (GPT-4, Gemini, LLaMA и т.д. ) обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевая характеристика заключается в том, что несколько недоверительных узлов ( могут быть домашними компьютерами, облачными GPU или пограничными устройствами ), которые совместно выполняют задачи тренировки без центрального координатора, обычно через протоколы, управляющие распределением задач и сотрудничеством, и с использованием механизмов криптоощущения для обеспечения честности вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Гетерогенность устройств и трудности разделения: высокая сложность координации гетерогенных устройств, низкая эффективность разделения задач
Проблема эффективности связи: нестабильная сетевая связь, очевидные узкие места в синхронизации градиентов
Отсутствие доверенного выполнения: отсутствие доверенной вычислительной среды затрудняет проверку того, действительно ли узлы участвуют в вычислениях.
Недостаток единой координации: отсутствует центральный диспетчер, сложное распределение задач и механизм отката при сбоях.
Децентрализация тренировки может быть понята как: группа глобальных волонтеров, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" по-прежнему является системной инженерной задачей, охватывающей архитектуру систем, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, верификацию моделей и многие другие аспекты, однако вопрос о том, можно ли "совместно эффективно + стимулировать честность + правильно получать результаты", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности, таких как медицина, финансы (. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными координационными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но все же зависит от доверительных координаторов и не имеет полностью открытых и антикоррупционных характеристик. Его можно считать "контролируемым Децентрализация" решением в сценариях соблюдения конфиденциальности, которое относительно умеренно в задачах обучения, доверительных структурах и механизмах связи, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких потребностей в ресурсах или трудностей в сотрудничестве, она изначально не подходит для эффективного выполнения на гетерогенных, доверительных узлах. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет ), такие как медицинские, финансовые или касающиеся конфиденциальных данных (, ограничены юридическими и этическими нормами, что делает невозможным их открытое共享; а задачи ), которые не имеют базового стимула для сотрудничества, такие как закрытые модели компаний или внутреннее прототипирование (, также лишены внешней мотивации для участия. Эти границы совместно составляют реальные ограничения Децентрализации обучения в настоящее время.
Но это не означает, что децентрализованное обучение является ложной задачей. На самом деле, в типах задач с легкой структурой, которые легко параллелизуются и могут быть стимулированы, децентрализованное обучение демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, связанные с выравниванием поведения ), такие как RLHF, DPO (, задачи по обучению и аннотированию данных с краудсорсингом, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и способностью терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для совместного обучения через P2P сети, протокол Swarm, распределенные оптимизаторы и другие способы.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Децентрализация тренировки классического проекта анализа
В настоящее время в области Децентрализация обучения и федеративного обучения выделяются такие представительные блокчейн-проекты, как Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности инженерной реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области архитектуры систем и проектирования алгоритмов, что представляет собой передовое направление теоретических исследований; в то время как у Gensyn и Flock.io путь реализации относительно ясен, и уже можно увидеть первые шаги в инженерной разработке. В этой статье последовательно будут проанализированы ключевые технологии и инженерная архитектура, стоящие за этими пятью проектами, а также дополнительно исследованы их различия и взаимодополняющие отношения в системе Децентрализация AI обучения.
) Prime Intellect: Проверяемая траектория обучения для усиленного взаимодействия сетей
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect хочет создать систему децентрализованного обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Структура стеков протокола Prime Intellect и ценность ключевых модулей
![Крипто ИИ святой Грааль: Децентрализация обучения на переднем крае]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
)# Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного усиленного обучения с декомпозицией
PRIME-RL является фреймворком моделирования задач и выполнения, разработанным Prime Intellect для децентрализованных сценариев обучения, специально созданным для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно декомпозируя процессы обучения, вывода и загрузки весов, позволяя каждому узлу обучения независимо выполнять циклы задач локально и взаимодействовать с механизмами валидации и агрегации через стандартизированные интерфейсы. По сравнению с традиционными процессами обучения с учителем, PRIME-RL более подходит для реализации гибкого обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки многозадачного параллелизма и эволюции стратегий.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения]###https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
#TOPLOC:Легковесный механизм проверки поведения тренировки
TOPLOC)Доверенное Наблюдение & Проверка Политики-Локальности( является основной механизмом проверки обучаемости, предложенным Prime Intellect, используемым для определения, действительно ли узел завершил эффективное обучение политике на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторного вычисления всей модели, а завершает верификацию облегченной структуры, анализируя локальные последовательности согласованности между "наблюдательной последовательностью↔обновлением политики". Он впервые преобразует поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевым нововведением для достижения распределения обучающих вознаграждений без доверия, предоставляя жизнеспособный путь к созданию可审计、可激励的去中心化协作训练网络.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-f86b109da66a0a4c9239221650a4a0a8.webp(
#SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для асинхронных, ограниченных по пропускной способности и изменяющихся состояний узлов реальных сетевых условий. Он сочетает механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в состоянии рассинхронизации, что обеспечивает прогрессивное сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно улучшает масштабируемость и устойчивость к сбоям децентрализованного обучения, являясь основной основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
![Крипто ИИ святой Грааль: Децентрализация обучения на переднем крае])https://img-cdn.gateio.im/webp-social/moments-a562dacd6fc5420f2afd895664b6be65.webp(
#OpenDiLoCo:Разреженная асинхронная коммуникационная структура
OpenDiLoCo — это независимая реализация и открытая платформа для оптимизации связи, разработанная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Она специально предназначена для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто встречаются в процессе децентрализованного обучения. Архитектура основана на параллельной обработке данных, и с помощью построения разреженных топологических структур, таких как кольца, расширители и маленький мир, она избегает высоких затрат на связь при глобальной синхронизации, полагаясь только на локальных соседей для совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в задачах обучения, что значительно увеличивает возможность участия в глобальном совместном обучении и является одной из ключевых коммуникационных инфраструктур для построения децентрализованной обучающей сети.
#PCCL: Библиотека совместной связи
PCCL)Prime Collective Communication Library( является легковесной библиотекой связи, разработанной Prime Intellect для децентрализованной среды обучения ИИ, нацеленной на решение проблем адаптации традиционных библиотек связи), таких как NCCL, Gloo(, в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление с контрольных точек, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные возможности связи протокола OpenDiLoCo. Он значительно повышает терпимость к пропускной способности сети обучения и совместимость устройств, прокладывая "последнюю милю" коммуникационной инфраструктуры для создания действительно открытой, не требующей доверия сети совместного обучения.
)# Сеть стимулирования Prime Intellect и распределение ролей
Prime Intellect создал сеть обучения, не требующую разрешений, с возможностью проверки и экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Инициатор задачи: определяет тренировочную среду, начальную модель, функцию вознаграждения и критерии валидации
Узел обучения: выполнение локального обучения, отправка обновлений весов и наблюдательных траекторий
Узлы верификации: использование механизма TOPLOC для проверки подлинности тренировочного поведения и участие в награде
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
11 Лайков
Награда
11
7
Поделиться
комментарий
0/400
TestnetFreeloader
· 07-24 13:39
Заработай немного на спекуляциях.
Посмотреть ОригиналОтветить0
just_another_wallet
· 07-21 14:53
Эта волна тренировок требует сколько вычислительной мощности?
Посмотреть ОригиналОтветить0
TokenRationEater
· 07-21 14:53
Снова пришла возможность разбогатеть, ждем открытия торгов.
Посмотреть ОригиналОтветить0
HorizonHunter
· 07-21 14:50
6 летний неудачник, исследующий направление трендовой торговли, опытный Все в сборщик. Увлекаюсь глубоким анализом AI и проектами Блокчейн, стремлюсь к независимому мышлению。
Следуя этой мысли, я создам комментарий:
Даже если закрутиться до смерти, не догонишь крупные компании.
Посмотреть ОригиналОтветить0
RegenRestorer
· 07-21 14:37
Снова создаем новый колесо ИИ?
Посмотреть ОригиналОтветить0
AirdropFreedom
· 07-21 14:34
Скорый, черный и жестокий?
Посмотреть ОригиналОтветить0
GhostWalletSleuth
· 07-21 14:28
Вычислительная мощность сжигает деньги, и нужно так стараться? Действительно есть деньги.
Децентрализация AI обучения на переднем крае: Prime Intellect ведет новую парадигму проверяемых кооперативных сетей
Святой Грааль Crypto AI: передовые исследования децентрализованного обучения
В полной цепочке создания стоимости ИИ обучение моделей является самым ресурсозатратным и технически сложным этапом, который напрямую определяет пределы возможностей модели и фактическую эффективность применения. В отличие от легковесных вызовов на этапе вывода, процесс обучения требует постоянных крупных затрат вычислительных мощностей, сложных процессов обработки данных и поддержки высокоинтенсивных алгоритмов оптимизации, что является настоящей "тяжелой промышленностью" в строительстве ИИ-систем. С точки зрения архитектурных парадигм, способы обучения можно разделить на четыре категории: централизованное обучение, распределенное обучение, федеративное обучение и децентрализованное обучение, которое является основным предметом обсуждения в данной статье.
Централизованное обучение — это самый распространенный традиционный способ, при котором единая организация выполняет все этапы обучения на локальном высокопроизводительном кластере, от оборудования, программного обеспечения нижнего уровня, систем управления кластером до всех компонентов обучающей среды, которые координируются единой управляющей системой. Эта глубокая согласованная архитектура обеспечивает оптимальную эффективность совместного использования памяти, синхронизации градиентов и механизмов отказоустойчивости, что делает ее очень подходящей для обучения крупных моделей, таких как GPT и Gemini, обладая преимуществами высокой эффективности и контролируемых ресурсов, но одновременно сталкиваясь с проблемами монополизации данных, барьеров для ресурсов, потребления энергии и рисков единой точки.
Распределённое обучение является основным способом обучения больших моделей в настоящее время. Его суть заключается в том, чтобы разбить задачи обучения модели и распределить их для совместного выполнения на нескольких машинах, чтобы преодолеть узкие места вычислений и хранения на одном компьютере. Хотя физически он обладает "Децентрализация"-характеристиками, в целом он все еще контролируется и координируется централизованными учреждениями, часто работает в среде высокоскоростной локальной сети, используя технологию высокоскоростной межсоединительной шины NVLink, при этом главный узел координирует все подзадачи. Основные методы включают:
Распределенное обучение представляет собой комбинацию "централизованного контроля + распределенного выполнения", аналогично тому, как один и тот же босс дистанционно управляет несколькими "офисами", чтобы сотрудники сотрудничали для выполнения задач. В настоящее время почти все основные большие модели (GPT-4, Gemini, LLaMA и т.д. ) обучаются именно таким образом.
Децентрализация тренировки представляет собой более открытый и устойчивый к цензуре путь в будущее. Его ключевая характеристика заключается в том, что несколько недоверительных узлов ( могут быть домашними компьютерами, облачными GPU или пограничными устройствами ), которые совместно выполняют задачи тренировки без центрального координатора, обычно через протоколы, управляющие распределением задач и сотрудничеством, и с использованием механизмов криптоощущения для обеспечения честности вкладов. Основные вызовы, с которыми сталкивается эта модель, включают:
Децентрализация тренировки может быть понята как: группа глобальных волонтеров, каждый из которых вносит вычислительную мощность для совместной тренировки модели, но "действительно осуществимая крупномасштабная децентрализация тренировки" по-прежнему является системной инженерной задачей, охватывающей архитектуру систем, коммуникационные протоколы, криптографическую безопасность, экономические механизмы, верификацию моделей и многие другие аспекты, однако вопрос о том, можно ли "совместно эффективно + стимулировать честность + правильно получать результаты", все еще находится на стадии раннего прототипирования.
Федеративное обучение, как переходная форма между распределенными и Децентрализация, подчеркивает локальное сохранение данных и централизованную агрегацию параметров модели, что подходит для сценариев, акцентирующих внимание на соблюдении конфиденциальности, таких как медицина, финансы (. Федеративное обучение обладает инженерной структурой распределенного обучения и локальными координационными возможностями, одновременно имея преимущества распределенных данных в Децентрализация, но все же зависит от доверительных координаторов и не имеет полностью открытых и антикоррупционных характеристик. Его можно считать "контролируемым Децентрализация" решением в сценариях соблюдения конфиденциальности, которое относительно умеренно в задачах обучения, доверительных структурах и механизмах связи, что делает его более подходящим в качестве переходной архитектуры для промышленного развертывания.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-adb92bc4dfbaf26863cb0b4bb1081cd7.webp(
Децентрализация тренировки: границы, возможности и реальные пути
С точки зрения парадигмы обучения, Децентрализация обучения не подходит для всех типов задач. В некоторых сценариях, из-за сложной структуры задач, крайне высоких потребностей в ресурсах или трудностей в сотрудничестве, она изначально не подходит для эффективного выполнения на гетерогенных, доверительных узлах. Например, обучение больших моделей часто зависит от высокой памяти, низкой задержки и высокой пропускной способности, что затрудняет эффективное разделение и синхронизацию в открытой сети; задачи с сильными ограничениями на конфиденциальность данных и суверенитет ), такие как медицинские, финансовые или касающиеся конфиденциальных данных (, ограничены юридическими и этическими нормами, что делает невозможным их открытое共享; а задачи ), которые не имеют базового стимула для сотрудничества, такие как закрытые модели компаний или внутреннее прототипирование (, также лишены внешней мотивации для участия. Эти границы совместно составляют реальные ограничения Децентрализации обучения в настоящее время.
Но это не означает, что децентрализованное обучение является ложной задачей. На самом деле, в типах задач с легкой структурой, которые легко параллелизуются и могут быть стимулированы, децентрализованное обучение демонстрирует явные перспективы применения. Включая, но не ограничиваясь: LoRA дообучение, задачи постобучения, связанные с выравниванием поведения ), такие как RLHF, DPO (, задачи по обучению и аннотированию данных с краудсорсингом, обучение небольших базовых моделей с контролируемыми ресурсами, а также сценарии совместного обучения с участием периферийных устройств. Эти задачи обычно обладают высокой параллельностью, низкой связанностью и способностью терпеть гетерогенные вычислительные мощности, что делает их очень подходящими для совместного обучения через P2P сети, протокол Swarm, распределенные оптимизаторы и другие способы.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-69eb6c2dab3d6284b890285c71e7a47f.webp(
Децентрализация тренировки классического проекта анализа
В настоящее время в области Децентрализация обучения и федеративного обучения выделяются такие представительные блокчейн-проекты, как Prime Intellect, Pluralis.ai, Gensyn, Nous Research и Flock.io. С точки зрения технологической инновационности и сложности инженерной реализации, Prime Intellect, Nous Research и Pluralis.ai предложили множество оригинальных исследований в области архитектуры систем и проектирования алгоритмов, что представляет собой передовое направление теоретических исследований; в то время как у Gensyn и Flock.io путь реализации относительно ясен, и уже можно увидеть первые шаги в инженерной разработке. В этой статье последовательно будут проанализированы ключевые технологии и инженерная архитектура, стоящие за этими пятью проектами, а также дополнительно исследованы их различия и взаимодополняющие отношения в системе Децентрализация AI обучения.
) Prime Intellect: Проверяемая траектория обучения для усиленного взаимодействия сетей
Prime Intellect стремится создать сеть обучения ИИ, не требующую доверия, позволяя каждому участвовать в обучении и получать надежные вознаграждения за свои вычислительные вклады. Prime Intellect хочет создать систему децентрализованного обучения ИИ с проверяемостью, открытостью и полноценным механизмом стимулов с помощью трех основных модулей: PRIME-RL + TOPLOC + SHARDCAST.
Структура стеков протокола Prime Intellect и ценность ключевых модулей
![Крипто ИИ святой Грааль: Децентрализация обучения на переднем крае]###https://img-cdn.gateio.im/webp-social/moments-b11af8d10db6e8baa0c19e87aa18dd82.webp(
)# Подробное объяснение ключевых механизмов тренировки Prime Intellect
#PRIME-RL: Архитектура задач асинхронного усиленного обучения с декомпозицией
PRIME-RL является фреймворком моделирования задач и выполнения, разработанным Prime Intellect для децентрализованных сценариев обучения, специально созданным для гетерогенных сетей и асинхронного участия. Он использует обучение с подкреплением в качестве приоритетного объекта адаптации, структурно декомпозируя процессы обучения, вывода и загрузки весов, позволяя каждому узлу обучения независимо выполнять циклы задач локально и взаимодействовать с механизмами валидации и агрегации через стандартизированные интерфейсы. По сравнению с традиционными процессами обучения с учителем, PRIME-RL более подходит для реализации гибкого обучения в средах без централизованного управления, что снижает сложность системы и закладывает основу для поддержки многозадачного параллелизма и эволюции стратегий.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения]###https://img-cdn.gateio.im/webp-social/moments-0a322ea8b70c3d00d8d99606559c1864.webp(
#TOPLOC:Легковесный механизм проверки поведения тренировки
TOPLOC)Доверенное Наблюдение & Проверка Политики-Локальности( является основной механизмом проверки обучаемости, предложенным Prime Intellect, используемым для определения, действительно ли узел завершил эффективное обучение политике на основе наблюдаемых данных. В отличие от тяжелых решений, таких как ZKML, TOPLOC не зависит от повторного вычисления всей модели, а завершает верификацию облегченной структуры, анализируя локальные последовательности согласованности между "наблюдательной последовательностью↔обновлением политики". Он впервые преобразует поведенческие траектории в процессе обучения в проверяемые объекты, что является ключевым нововведением для достижения распределения обучающих вознаграждений без доверия, предоставляя жизнеспособный путь к созданию可审计、可激励的去中心化协作训练网络.
![Святой Грааль Crypto AI: передовые исследования децентрализованного обучения])https://img-cdn.gateio.im/webp-social/moments-f86b109da66a0a4c9239221650a4a0a8.webp(
#SHARDCAST: Асинхронный протокол агрегации и распространения весов
SHARDCAST — это протокол распространения и агрегации весов, разработанный Prime Intellect, оптимизированный для асинхронных, ограниченных по пропускной способности и изменяющихся состояний узлов реальных сетевых условий. Он сочетает механизмы распространения gossip и локальные стратегии синхронизации, позволяя нескольким узлам продолжать отправлять частичные обновления в состоянии рассинхронизации, что обеспечивает прогрессивное сходимость весов и многоверсионную эволюцию. По сравнению с централизованными или синхронными методами AllReduce, SHARDCAST значительно улучшает масштабируемость и устойчивость к сбоям децентрализованного обучения, являясь основной основой для построения стабильного консенсуса весов и непрерывной итерации обучения.
![Крипто ИИ святой Грааль: Децентрализация обучения на переднем крае])https://img-cdn.gateio.im/webp-social/moments-a562dacd6fc5420f2afd895664b6be65.webp(
#OpenDiLoCo:Разреженная асинхронная коммуникационная структура
OpenDiLoCo — это независимая реализация и открытая платформа для оптимизации связи, разработанная командой Prime Intellect на основе концепции DiLoCo, предложенной DeepMind. Она специально предназначена для решения таких проблем, как ограниченная пропускная способность, гетерогенные устройства и нестабильные узлы, которые часто встречаются в процессе децентрализованного обучения. Архитектура основана на параллельной обработке данных, и с помощью построения разреженных топологических структур, таких как кольца, расширители и маленький мир, она избегает высоких затрат на связь при глобальной синхронизации, полагаясь только на локальных соседей для совместного обучения модели. В сочетании с асинхронным обновлением и механизмом восстановления после сбоев, OpenDiLoCo позволяет потребительским GPU и периферийным устройствам стабильно участвовать в задачах обучения, что значительно увеличивает возможность участия в глобальном совместном обучении и является одной из ключевых коммуникационных инфраструктур для построения децентрализованной обучающей сети.
#PCCL: Библиотека совместной связи
PCCL)Prime Collective Communication Library( является легковесной библиотекой связи, разработанной Prime Intellect для децентрализованной среды обучения ИИ, нацеленной на решение проблем адаптации традиционных библиотек связи), таких как NCCL, Gloo(, в гетерогенных устройствах и сетях с низкой пропускной способностью. PCCL поддерживает разреженные топологии, сжатие градиентов, синхронизацию с низкой точностью и восстановление с контрольных точек, может работать на потребительских GPU и нестабильных узлах, является основным компонентом, поддерживающим асинхронные возможности связи протокола OpenDiLoCo. Он значительно повышает терпимость к пропускной способности сети обучения и совместимость устройств, прокладывая "последнюю милю" коммуникационной инфраструктуры для создания действительно открытой, не требующей доверия сети совместного обучения.
)# Сеть стимулирования Prime Intellect и распределение ролей
Prime Intellect создал сеть обучения, не требующую разрешений, с возможностью проверки и экономическими стимулами, позволяя любому участвовать в задачах и получать вознаграждения на основе реального вклада. Протокол работает на основе трех основных ролей:
Следуя этой мысли, я создам комментарий:
Даже если закрутиться до смерти, не догонишь крупные компании.