Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюжку AI, навчання моделей є найбільш ресурсомістким та має найвищий технологічний бар'єр етапом, який безпосередньо визначає межі можливостей моделі та фактичну ефективність застосування. В порівнянні з легким викликом на етапі інференції, процес навчання потребує постійних масштабних обчислювальних ресурсів, складних процесів обробки даних та підтримки потужних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" в побудові AI-систем. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке буде основною темою цього документа.
Централізоване навчання є найпоширенішим традиційним способом, що виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення до базового програмного забезпечення, системи планування кластерів до всіх компонентів навчальної архітектури координується єдиною системою управління. Така глибока співпраця архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але в той же час має проблеми з монополією даних, бар'єрами ресурсів, витратами енергії та ризиками одноточкових відмов.
Розподілене навчання є основним способом навчання великих моделей, основою якого є розподіл завдань навчання моделі на кілька машин для спільного виконання з метою подолання обмежень обчислень і зберігання на одному комп'ютері. Хоча фізично воно має "дистрибутивні" характеристики, загалом все ще контролюється централізованими організаціями для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісного з'єднання NVLink, головний вузол координує виконання підзавдань. Основні методи включають:
Паралельність даних: кожен вузол тренує різні дані, параметри спільні, потрібно узгодити ваги моделі
Модельне паралельне: розгортання різних частин моделі на різних вузлах для досягнення високої масштабованості;
Паралельне прокладення труб: поетапне послідовне виконання, підвищення пропускної здатності;
Тензорне паралельне обчислення: детальне розподілення матричних обчислень, підвищення паралельного гранулярності.
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками кількох "офісів" для виконання завдання. В даний час майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів співпрацюють у виконанні навчальних завдань без центрального координатора, зазвичай через протокол, що забезпечує розподіл завдань і співпрацю, а також за допомогою механізмів шифрування, що гарантують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв і важкість розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань;
Відсутність довірчого виконання: відсутність довірчого середовища виконання ускладнює перевірку того, чи справді вузол бере участь у розрахунках;
Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань, механізм повернення в разі помилки складний.
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "справді здійсненне масштабне децентралізоване тренування" все ще є системною інженерною проблемою, що стосується архітектури системи, комунікаційних протоколів, криптографічної безпеки, економічних механізмів, валідації моделей та інших аспектів, але чи можливо "спільна ефективність + стимулювання чесності + правильність результатів" все ще перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленим та децентралізованим підходами підкреслює локальне збереження даних і централізовану агрегацію параметрів моделі, що підходить для сценаріїв, які акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні коопераційні можливості, одночасно володіючи перевагами розподіленого навчання даних, але все ще залежить від надійної координуючої сторони і не має повністю відкритих та антицензурних характеристик. Його можна розглядати як "контрольоване децентралізоване" рішення в сценаріях, що відповідають вимогам конфіденційності, яке є відносно помірним у навчальних завданнях, структурах довіри та механізмах зв'язку, що більше підходить для промислових перехідних архітектур.
Децентралізація тренінгів: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, Децентралізація навчання не підходить для всіх типів завдань. У деяких сценаріях через складну структуру завдань, надзвичайно високі вимоги до ресурсів або велику складність співпраці, вона природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розділення та синхронізацію в відкритій мережі; завдання, обмежені сильними законами конфіденційності даних та суверенітету, обмежені законодавчою відповідністю та етичними нормами, не можуть бути відкрито поділені; а завдання, які не мають основи для стимулювання співпраці, позбавлені зовнішньої мотивації для участі. Ці межі спільно формують реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання виявляє очевидні перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання після навчання з поведінковою узгодженістю, краудсорсинг навчання та маркування даних, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і здатність терпіти гетерогенні обчислювальні потужності, що робить їх дуже підходящими для кооперативного навчання за допомогою P2P мереж, протоколу Swarm, розподілених оптимізаторів тощо.
Децентралізація тренувальних класичних проектів аналіз
На сьогодні в області децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні напрямки теоретичних досліджень; в той час як реалізаційні шляхи Gensyn та Flock.io є відносно ясними, і вже можна спостерігати перші ознаки інженерного прогресу. У цій статті будуть поетапно проаналізовані ключові технології та інженерні архітектури, що стоять за цими п'ятьма проектами, а також далі досліджуватимуться їхні відмінності та взаємодоповнюючі зв'язки в децентралізованій системі навчання ШІ.
Prime Intellect: тренувальні траєкторії, які можна перевірити, підсилене навчання, співпраця мережі, піонер
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у навчанні та отримувати достовірні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити систему децентралізованого навчання ШІ з можливістю верифікації, відкритістю та повноцінними механізмами стимулювання через три основні модулі: PRIME-RL + TOPLOC + SHARDCAST.
Один, Структура стеку протоколу Prime Intellect та цінність ключових модулів
Два. Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: Архітектура завдань асинхронного навчання з підкріпленням з декомпозицією
PRIME-RL є фреймворком моделювання та виконання завдань, розробленим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально створеним для гетерогенних мереж і асинхронних учасників. Він використовує підкріплене навчання як пріоритетний об'єкт адаптації, структурно декомпозуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдань на місці та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних операцій і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення того, чи дійсно вузол на основі спостережуваних даних завершив ефективне навчання стратегії. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а замість цього аналізує "послідовність спостережень ↔ оновлення стратегії" для завершення верифікації легковісної структури. Вперше він перетворює поведінкові траєкторії під час навчання на об'єкти, які можна перевірити, що є ключовим нововведенням для реалізації бездоказового розподілу винагород за навчання, та забезпечує можливі шляхи для створення перевіряємої, стимулюючої децентралізованої мережі співпраці в навчанні.
SHARDCAST: Асинхронна агрегація ваг та протокол поширення
SHARDCAST є протоколом вагового поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених по пропускній здатності та змінних станів вузлів реальних мережевих середовищ. Він поєднує механізм госсип-поширення та локальну синхронну стратегію, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах нестабільного стану, забезпечуючи поступову конвергенцію ваг та еволюцію багатьох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, є основою для побудови стабільного консенсусу ваг і безперервної ітерації навчання.
OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом оптимізаційного фреймворку зв'язку, створеним командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралелізмі даних, завдяки побудові розріджених топологічних структур, таких як Кільце, Розширювач, Малосвітова мережа, вона уникає високих витрат на зв'язок для глобальної синхронізації, покладаючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою бібліотекою зв'язку, спеціально створеною Prime Intellect для децентралізованого середовища навчання AI, яке має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку на гетерогенних пристроях та в мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікаційну здатність протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної спроможності навчальної мережі та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для побудови справді відкритих, без необхідності довіри, мереж для спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі реальних внесків. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та критерії валідації
Навчальний вузол: виконання локального навчання, подання оновлень ваг та спостережних траєкторій
Верифікаційний вузол: використання механізму TOPLOC для перевірки достовірності тренувальної поведінки та участі в розрахунку винагороди та агрегації стратегій
Ядро процесу протоколу включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегування ваг та виплату винагород, що утворює стимулююче замкнене коло навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: перше публічне підтверджене децентралізоване навчальне моделювання
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі модель великого навчання, створена за допомогою асинхронної, що не потребує довіри, децентралізованої кооперації вузлів для навчання, з параметрами обсягом 32B. Модель INTELLECT-2 була завершена завдяки спільному навчанням понад 100 GPU гетерогенних вузлів, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, тривалість навчання перевищила 400 годин, що продемонструвало здійсненність і стабільність асинхронних кооперативних мереж. Ця модель не тільки є проривом у продуктивності, але й першою системною реалізацією парадигми "навчання як консенсус", запропонованою Prime Intellect. INTELLECT-2 інтегрує основні модулі протоколів, такі як PRIME-RL, TOPLOC та SHARDCAST, що знаменує собою децентралізоване навчання.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
8 лайків
Нагородити
8
3
Поділіться
Прокоментувати
0/400
Blockwatcher9000
· 8год тому
Без віртуального світу, що там з ШІ, вартість не є меншою.
Переглянути оригіналвідповісти на0
LiquiditySurfer
· 14год тому
Майнінг, друзі, нарешті є дещо стабільним.
Переглянути оригіналвідповісти на0
ApeShotFirst
· 14год тому
Знову говорять про Децентралізацію революцію. Навіщо так поспішати?
Еволюція парадигм навчання ШІ: від централізованого контролю до децентралізованої співпраці технічної революції
Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюжку AI, навчання моделей є найбільш ресурсомістким та має найвищий технологічний бар'єр етапом, який безпосередньо визначає межі можливостей моделі та фактичну ефективність застосування. В порівнянні з легким викликом на етапі інференції, процес навчання потребує постійних масштабних обчислювальних ресурсів, складних процесів обробки даних та підтримки потужних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" в побудові AI-систем. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке буде основною темою цього документа.
Централізоване навчання є найпоширенішим традиційним способом, що виконується єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення до базового програмного забезпечення, системи планування кластерів до всіх компонентів навчальної архітектури координується єдиною системою управління. Така глибока співпраця архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але в той же час має проблеми з монополією даних, бар'єрами ресурсів, витратами енергії та ризиками одноточкових відмов.
Розподілене навчання є основним способом навчання великих моделей, основою якого є розподіл завдань навчання моделі на кілька машин для спільного виконання з метою подолання обмежень обчислень і зберігання на одному комп'ютері. Хоча фізично воно має "дистрибутивні" характеристики, загалом все ще контролюється централізованими організаціями для управління та синхронізації, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісного з'єднання NVLink, головний вузол координує виконання підзавдань. Основні методи включають:
Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками кількох "офісів" для виконання завдання. В даний час майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основні характеристики полягають у тому, що: кілька недовірливих вузлів співпрацюють у виконанні навчальних завдань без центрального координатора, зазвичай через протокол, що забезпечує розподіл завдань і співпрацю, а також за допомогою механізмів шифрування, що гарантують чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного тренування моделі, але "справді здійсненне масштабне децентралізоване тренування" все ще є системною інженерною проблемою, що стосується архітектури системи, комунікаційних протоколів, криптографічної безпеки, економічних механізмів, валідації моделей та інших аспектів, але чи можливо "спільна ефективність + стимулювання чесності + правильність результатів" все ще перебуває на ранній стадії прототипування.
Федеративне навчання як перехідна форма між розподіленим та децентралізованим підходами підкреслює локальне збереження даних і централізовану агрегацію параметрів моделі, що підходить для сценаріїв, які акцентують увагу на відповідності вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та локальні коопераційні можливості, одночасно володіючи перевагами розподіленого навчання даних, але все ще залежить від надійної координуючої сторони і не має повністю відкритих та антицензурних характеристик. Його можна розглядати як "контрольоване децентралізоване" рішення в сценаріях, що відповідають вимогам конфіденційності, яке є відносно помірним у навчальних завданнях, структурах довіри та механізмах зв'язку, що більше підходить для промислових перехідних архітектур.
Децентралізація тренінгів: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, Децентралізація навчання не підходить для всіх типів завдань. У деяких сценаріях через складну структуру завдань, надзвичайно високі вимоги до ресурсів або велику складність співпраці, вона природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від високої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розділення та синхронізацію в відкритій мережі; завдання, обмежені сильними законами конфіденційності даних та суверенітету, обмежені законодавчою відповідністю та етичними нормами, не можуть бути відкрито поділені; а завдання, які не мають основи для стимулювання співпраці, позбавлені зовнішньої мотивації для участі. Ці межі спільно формують реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та можуть бути стимульовані, децентралізоване навчання виявляє очевидні перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання після навчання з поведінковою узгодженістю, краудсорсинг навчання та маркування даних, навчання малих базових моделей з контрольованими ресурсами, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і здатність терпіти гетерогенні обчислювальні потужності, що робить їх дуже підходящими для кооперативного навчання за допомогою P2P мереж, протоколу Swarm, розподілених оптимізаторів тощо.
Децентралізація тренувальних класичних проектів аналіз
На сьогодні в області децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували багато оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні напрямки теоретичних досліджень; в той час як реалізаційні шляхи Gensyn та Flock.io є відносно ясними, і вже можна спостерігати перші ознаки інженерного прогресу. У цій статті будуть поетапно проаналізовані ключові технології та інженерні архітектури, що стоять за цими п'ятьма проектами, а також далі досліджуватимуться їхні відмінності та взаємодоповнюючі зв'язки в децентралізованій системі навчання ШІ.
Prime Intellect: тренувальні траєкторії, які можна перевірити, підсилене навчання, співпраця мережі, піонер
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб будь-хто міг брати участь у навчанні та отримувати достовірні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити систему децентралізованого навчання ШІ з можливістю верифікації, відкритістю та повноцінними механізмами стимулювання через три основні модулі: PRIME-RL + TOPLOC + SHARDCAST.
Один, Структура стеку протоколу Prime Intellect та цінність ключових модулів
Два. Детальний опис ключових механізмів тренування Prime Intellect
PRIME-RL: Архітектура завдань асинхронного навчання з підкріпленням з декомпозицією
PRIME-RL є фреймворком моделювання та виконання завдань, розробленим Prime Intellect для децентралізованих навчальних сценаріїв, спеціально створеним для гетерогенних мереж і асинхронних учасників. Він використовує підкріплене навчання як пріоритетний об'єкт адаптації, структурно декомпозуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикл завдань на місці та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищах без централізованого управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних операцій і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, що використовується для визначення того, чи дійсно вузол на основі спостережуваних даних завершив ефективне навчання стратегії. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний розрахунок всієї моделі, а замість цього аналізує "послідовність спостережень ↔ оновлення стратегії" для завершення верифікації легковісної структури. Вперше він перетворює поведінкові траєкторії під час навчання на об'єкти, які можна перевірити, що є ключовим нововведенням для реалізації бездоказового розподілу винагород за навчання, та забезпечує можливі шляхи для створення перевіряємої, стимулюючої децентралізованої мережі співпраці в навчанні.
SHARDCAST: Асинхронна агрегація ваг та протокол поширення
SHARDCAST є протоколом вагового поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених по пропускній здатності та змінних станів вузлів реальних мережевих середовищ. Він поєднує механізм госсип-поширення та локальну синхронну стратегію, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах нестабільного стану, забезпечуючи поступову конвергенцію ваг та еволюцію багатьох версій. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до помилок децентралізованого навчання, є основою для побудови стабільного консенсусу ваг і безперервної ітерації навчання.
OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк
OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом оптимізаційного фреймворку зв'язку, створеним командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, які часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Архітектура базується на паралелізмі даних, завдяки побудові розріджених топологічних структур, таких як Кільце, Розширювач, Малосвітова мережа, вона уникає високих витрат на зв'язок для глобальної синхронізації, покладаючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Поєднуючи асинхронне оновлення та механізм відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи можливість участі у глобальному кооперативному навчанні і є однією з ключових комунікаційних інфраструктур для побудови децентралізованих навчальних мереж.
PCCL:Бібліотека координаційного зв'язку
PCCL є легковаговою бібліотекою зв'язку, спеціально створеною Prime Intellect для децентралізованого середовища навчання AI, яке має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку на гетерогенних пристроях та в мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, що підтримує асинхронну комунікаційну здатність протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної спроможності навчальної мережі та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для побудови справді відкритих, без необхідності довіри, мереж для спільного навчання.
Три, Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував мережу навчання, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі реальних внесків. Протокол працює на основі трьох основних ролей:
Ядро процесу протоколу включає в себе публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегування ваг та виплату винагород, що утворює стимулююче замкнене коло навколо "реальної навчальної поведінки".
Чотири, INTELLECT-2: перше публічне підтверджене децентралізоване навчальне моделювання
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі модель великого навчання, створена за допомогою асинхронної, що не потребує довіри, децентралізованої кооперації вузлів для навчання, з параметрами обсягом 32B. Модель INTELLECT-2 була завершена завдяки спільному навчанням понад 100 GPU гетерогенних вузлів, розташованих на трьох континентах, з використанням повністю асинхронної архітектури, тривалість навчання перевищила 400 годин, що продемонструвало здійсненність і стабільність асинхронних кооперативних мереж. Ця модель не тільки є проривом у продуктивності, але й першою системною реалізацією парадигми "навчання як консенсус", запропонованою Prime Intellect. INTELLECT-2 інтегрує основні модулі протоколів, такі як PRIME-RL, TOPLOC та SHARDCAST, що знаменує собою децентралізоване навчання.