Еволюція парадигми навчання ШІ: від централізованого контролю до Децентралізація співпраці технологічна революція
У всьому вартісному ланцюгу ШІ модельне навчання є етапом з найбільшим споживанням ресурсів та найвищими технічними вимогами, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагих запитів на етапі інференції, процес навчання вимагає постійних інвестицій у великомасштабні обчислення, складні процеси обробки даних і підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Концентрація навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, що завершує весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи розподілу кластеру до всіх компонентів навчальної рамки, які координуються єдиною системою управління. Така глибока синхронізація архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini тощо, маючи переваги в ефективності та контрольованості ресурсів, але водночас стикаючись з проблемами монополії даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.
Розподілене навчання є основним способом навчання великих моделей сьогодні. Його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, що дозволяє подолати обмеження обчислень та зберігання на одному комп'ютері. Хоча фізично воно має «розподілені» характеристики, загалом все ще контролюється централізованими установами, які відповідають за управління та синхронізацію, зазвичай працюючи в середовищі швидкої локальної мережі, через технологію високошвидкісних інтерконектів NVLink, де головний вузол координує виконання підзавдань. Основні методи включають:
Дані паралельно: кожен вузол навчає різні дані, параметри спільні, потрібно відповідати вагам моделі
Модельна паралельність: розгортання різних частин моделі на різних вузлах для досягнення сильної масштабованості
Паралельні канали: поетапне послідовне виконання, підвищення пропускної спроможності
Тензорне паралелювання: уточнене розбиття матричних обчислень, підвищення паралельної гранулярності
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос віддалено керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька взаємно недовірливих вузлів співпрацюють у виконанні тренувального завдання без центрального координатора, зазвичай через протоколи, які керують розподілом завдань та співпрацею, а також завдяки механізму крипто-стимулів забезпечують чесність внесків. Основні виклики, з якими стикається цей режим, включають:
Гетерогенність пристроїв та складнощі розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
Бутилка з ефективності зв'язку: нестабільний мережевий зв'язок, очевидна пляшка з синхронізацією градієнтів
Відсутність довіреного виконання: відсутність довіреного середовища виконання ускладнює перевірку того, чи дійсно вузли беруть участь у обчисленнях.
Відсутність єдиної координації: немає центрального диспетчера, складний розподіл завдань, механізм скасування аномалій
Децентралізоване навчання можна зрозуміти як: група глобальних волонтерів, кожен з яких вносить обчислювальну потужність для спільного навчання моделі, але "справді здійсненне великомасштабне децентралізоване навчання" все ще є системним інженерним викликом, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей тощо, але чи може бути "спільна ефективність + заохочення чесності + правильність результату" все ще перебуває на ранній стадії прототипування.
Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює збереження даних локально та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, де важлива відповідність вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної співпраці, одночасно маючи переваги розподілених даних децентралізованого навчання, але все ж залежить від надійного координатора і не має повністю відкритих і антицензурних характеристик. Його можна розглядати як "контрольовану децентралізацію" в контексті дотримання конфіденційності, де завдання навчання, структура довіри та комунікаційні механізми відносно м'які, що робить його більш придатним для промислових перехідних архітектур.
Децентралізація навчання: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценах, через складну структуру завдань, надвисокі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від великої відеопам'яті, низької затримки та високої пропускної спроможності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені правовими вимогами та етичними обмеженнями, що унеможливлює відкритий обмін; а завдання, які не мають основи для співпраці, позбавлені зовнішнього стимулу для участі. Ці межі разом утворюють реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у типах завдань з легкою структурою, які легко паралелізуються і можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. До них відносяться, але не обмежуються: мікронастройка LoRA, завдання після навчання, пов'язані з поведінкою, завдання навчання та маркування даних з краудсорсингом, навчання малих базових моделей з контролем ресурсів, а також сцени кооперативного навчання за участю периферійних пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання за допомогою P2P-мереж, протоколу Swarm, дистрибутивних оптимізаторів тощо.
Децентралізація тренувальних класичних проектів аналіз
Наразі у сфері децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували більше оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні теоретичні напрями; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, і вже можна побачити початковий прогрес у інженерному впровадженні. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п’ятьма проектами, а також буде додатково досліджено їхні відмінності та взаємодоповнюючі зв’язки в системі децентралізованого навчання ШІ.
Prime Intellect: Тренувальна траєкторія, що може бути перевірена, посилена навчанням, кооперативна мережа
Prime Intellect прагне створити AI тренувальну мережу без необхідності довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему тренування AI з перевіркою, відкритістю та повноцінним механізмом стимулювання через три основні модулі: PRIME-RL + TOPLOC + SHARDCAST.
Структура стеку протоколу Prime Intellect та цінність ключових модулів:
PRIME-RL: архітектура завдань асинхронного підкріплювального навчання з декомпозицією
PRIME-RL є рамкою моделювання та виконання завдань, розробленою Prime Intellect для децентралізованих навчальних сценаріїв, спеціально призначеною для гетерогенних мереж та асинхронних учасників. Вона використовує навчання з підкріпленням як пріоритетний об'єкт адаптації, структурно роз'єднуючи процеси навчання, міркування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційним процесом навчання з наглядом, PRIME-RL краще підходить для реалізації еластичного навчання в середовищі без центрального управління, знижуючи складність системи та закладаючи основу для підтримки паралельного виконання кількох завдань і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторних обчислень усієї моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальні послідовності узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії під час процесу навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу винагород за навчання без довіри, надаючи здійсненний шлях до побудови аудиторських, стимулюючих децентралізованих мереж співпраці в навчанні.
SHARDCAST: асинхронна агрегація ваг і протокол поширення
SHARDCAST є протоколом зваженого поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених пропускною спроможністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм госсип-поширення та локальні синхронізаційні стратегії, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізації, реалізуючи прогресивну конвергенцію ваг та багатоверсійну еволюцію. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є ключовою основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:Рідка асинхронна комунікаційна рамка
OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим і з відкритим вихідним кодом командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення проблем, що часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, завдяки чому, створюючи розріджені топологічні структури, такі як кільце, розширювач, малий світ, уникнуто високих витрат на глобальну синхронізацію, і для завершення спільного навчання моделі потрібно лише покладатися на сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, суттєво підвищуючи можливість глобальної співпраці в навчанні та є однією з ключових комунікаційних інфраструктур для побудови мережі децентралізованого навчання.
PCCL:Бібліотека узгодженої комунікації
PCCL є легковажною бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з точки зупинки, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності навчальної мережі та сумісність пристроїв, прокладаючи «остання миля» зв'язкової інфраструктури для створення справжньої відкритої, бездоверчої мережі спільного навчання.
Prime Intellect стимулююча мережа та розподіл ролей:
Prime Intellect побудував мережу навчання, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє кожному брати участь у завданнях і отримувати винагороди на основі реальних внесків. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначення навчального середовища, початкової моделі, функції винагороди та стандартів перевірки
Тренувальний вузол: виконати локальне навчання, подати оновлення ваг та спостереження траєкторії
Вузли верифікації: використання механізму TOPLOC для перевірки справжності дій навчання та участі в розрахунку винагороди та агрегації стратегій
Ядро процесу угоди включає публікацію завдань, навчання вузлів, перевірку траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо "реальних навчальних дій".
INTELLECT-2: перший у світі перевірений децентралізований навчальний модель.
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель навчання з підкріпленням, що була створена завдяки співпраці асинхронних, без довіри децентралізованих вузлів, з обсягом параметрів 32B. Модель INTELLECT-2 була тренована за допомогою кооперації понад 100 гетерогенних GPU-вузлів, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, з тривалістю навчання понад 400 годин, що демонструє доцільність і стабільність асинхронних співпраці. Ця модель не лише стала проривом в продуктивності, але й вперше реалізувала систематичну концепцію "тренування як консенсус", запропоновану Prime Intellect. INTELLECT-2 інтегрує основні модулі протоколів, такі як PRIME-RL, TOPLOC і SHARDCAST, що означає, що децентралізована тренувальна мережа вперше досягла відкритості, верифікації та економічного стимулу в процесі навчання.
У плані продуктивності, INTELLECT-2 оснований на QwQ-32B тренуванні та спеціальному RL тренуванні в коді та математиці, перебуває на передовій рівні поточних відкритих RL моделей. Хоча він ще не перевершив закриті моделі, такі як GPT-4 або Gemini, його справжнє значення
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
10 лайків
Нагородити
10
3
Поділіться
Прокоментувати
0/400
ZKProofEnthusiast
· 16год тому
Як і концепція web3, AI є децентралізованим
Переглянути оригіналвідповісти на0
P2ENotWorking
· 16год тому
Так не дійде до маленьких заводів, чорт забирай.
Переглянути оригіналвідповісти на0
AirdropHunter9000
· 16год тому
про сказав правильно, витрати на навчання справді високі
Новий парадигма навчання штучного інтелекту: технологічна еволюція від централізованого контролю до Децентралізація співпраці
Еволюція парадигми навчання ШІ: від централізованого контролю до Децентралізація співпраці технологічна революція
У всьому вартісному ланцюгу ШІ модельне навчання є етапом з найбільшим споживанням ресурсів та найвищими технічними вимогами, що безпосередньо визначає верхню межу можливостей моделі та фактичну ефективність застосування. На відміну від легковагих запитів на етапі інференції, процес навчання вимагає постійних інвестицій у великомасштабні обчислення, складні процеси обробки даних і підтримки інтенсивних алгоритмів оптимізації, що робить його справжньою "важкою промисловістю" системи ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цієї статті.
Концентрація навчання є найпоширенішим традиційним способом, який виконується єдиною установою в локальному високопродуктивному кластері, що завершує весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи розподілу кластеру до всіх компонентів навчальної рамки, які координуються єдиною системою управління. Така глибока синхронізація архітектури забезпечує оптимальну ефективність спільного використання пам'яті, синхронізації градієнтів і механізмів відмовостійкості, що робить її дуже підходящою для навчання великих моделей, таких як GPT, Gemini тощо, маючи переваги в ефективності та контрольованості ресурсів, але водночас стикаючись з проблемами монополії даних, бар'єрів для ресурсів, споживання енергії та ризику єдиної точки.
Розподілене навчання є основним способом навчання великих моделей сьогодні. Його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, що дозволяє подолати обмеження обчислень та зберігання на одному комп'ютері. Хоча фізично воно має «розподілені» характеристики, загалом все ще контролюється централізованими установами, які відповідають за управління та синхронізацію, зазвичай працюючи в середовищі швидкої локальної мережі, через технологію високошвидкісних інтерконектів NVLink, де головний вузол координує виконання підзавдань. Основні методи включають:
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос віддалено керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі навчаються саме таким чином.
Децентралізація тренування означає більш відкритий та стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька взаємно недовірливих вузлів співпрацюють у виконанні тренувального завдання без центрального координатора, зазвичай через протоколи, які керують розподілом завдань та співпрацею, а також завдяки механізму крипто-стимулів забезпечують чесність внесків. Основні виклики, з якими стикається цей режим, включають:
Децентралізоване навчання можна зрозуміти як: група глобальних волонтерів, кожен з яких вносить обчислювальну потужність для спільного навчання моделі, але "справді здійсненне великомасштабне децентралізоване навчання" все ще є системним інженерним викликом, що охоплює системну архітектуру, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделей тощо, але чи може бути "спільна ефективність + заохочення чесності + правильність результату" все ще перебуває на ранній стадії прототипування.
Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює збереження даних локально та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, де важлива відповідність вимогам конфіденційності. Федеративне навчання має інженерну структуру розподіленого навчання та здатність до локальної співпраці, одночасно маючи переваги розподілених даних децентралізованого навчання, але все ж залежить від надійного координатора і не має повністю відкритих і антицензурних характеристик. Його можна розглядати як "контрольовану децентралізацію" в контексті дотримання конфіденційності, де завдання навчання, структура довіри та комунікаційні механізми відносно м'які, що робить його більш придатним для промислових перехідних архітектур.
Децентралізація навчання: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценах, через складну структуру завдань, надвисокі вимоги до ресурсів або велику складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей зазвичай залежить від великої відеопам'яті, низької затримки та високої пропускної спроможності, що ускладнює їх ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету обмежені правовими вимогами та етичними обмеженнями, що унеможливлює відкритий обмін; а завдання, які не мають основи для співпраці, позбавлені зовнішнього стимулу для участі. Ці межі разом утворюють реальні обмеження сучасного децентралізованого навчання.
Але це не означає, що децентралізоване навчання є псевдопитанням. Насправді, у типах завдань з легкою структурою, які легко паралелізуються і можуть бути стимульовані, децентралізоване навчання демонструє чіткі перспективи застосування. До них відносяться, але не обмежуються: мікронастройка LoRA, завдання після навчання, пов'язані з поведінкою, завдання навчання та маркування даних з краудсорсингом, навчання малих базових моделей з контролем ресурсів, а також сцени кооперативного навчання за участю периферійних пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язаність і толерантність до гетерогенних обчислювальних потужностей, що робить їх дуже підходящими для кооперативного навчання за допомогою P2P-мереж, протоколу Swarm, дистрибутивних оптимізаторів тощо.
Децентралізація тренувальних класичних проектів аналіз
Наразі у сфері децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai запропонували більше оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи сучасні теоретичні напрями; тоді як реалізаційні шляхи Gensyn та Flock.io є відносно чіткими, і вже можна побачити початковий прогрес у інженерному впровадженні. У цій статті буде поетапно проаналізовано основні технології та інженерні архітектури за цими п’ятьма проектами, а також буде додатково досліджено їхні відмінності та взаємодоповнюючі зв’язки в системі децентралізованого навчання ШІ.
Prime Intellect: Тренувальна траєкторія, що може бути перевірена, посилена навчанням, кооперативна мережа
Prime Intellect прагне створити AI тренувальну мережу без необхідності довіри, щоб будь-хто міг брати участь у навчанні та отримувати надійні винагороди за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему тренування AI з перевіркою, відкритістю та повноцінним механізмом стимулювання через три основні модулі: PRIME-RL + TOPLOC + SHARDCAST.
Структура стеку протоколу Prime Intellect та цінність ключових модулів:
PRIME-RL: архітектура завдань асинхронного підкріплювального навчання з декомпозицією
PRIME-RL є рамкою моделювання та виконання завдань, розробленою Prime Intellect для децентралізованих навчальних сценаріїв, спеціально призначеною для гетерогенних мереж та асинхронних учасників. Вона використовує навчання з підкріпленням як пріоритетний об'єкт адаптації, структурно роз'єднуючи процеси навчання, міркування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань локально та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційним процесом навчання з наглядом, PRIME-RL краще підходить для реалізації еластичного навчання в середовищі без центрального управління, знижуючи складність системи та закладаючи основу для підтримки паралельного виконання кількох завдань і еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки навчання
TOPLOC є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не залежить від повторних обчислень усієї моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальні послідовності узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії під час процесу навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу винагород за навчання без довіри, надаючи здійсненний шлях до побудови аудиторських, стимулюючих децентралізованих мереж співпраці в навчанні.
SHARDCAST: асинхронна агрегація ваг і протокол поширення
SHARDCAST є протоколом зваженого поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених пропускною спроможністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм госсип-поширення та локальні синхронізаційні стратегії, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах несинхронізації, реалізуючи прогресивну конвергенцію ваг та багатоверсійну еволюцію. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST суттєво підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є ключовою основою для побудови стабільного консенсусу ваг та безперервної ітерації навчання.
OpenDiLoCo:Рідка асинхронна комунікаційна рамка
OpenDiLoCo є комунікаційним оптимізаційним фреймворком, незалежно реалізованим і з відкритим вихідним кодом командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленим для вирішення проблем, що часто виникають під час децентралізованого навчання, таких як обмежена пропускна здатність, гетерогенність пристроїв та нестабільність вузлів. Його архітектура базується на паралельній обробці даних, завдяки чому, створюючи розріджені топологічні структури, такі як кільце, розширювач, малий світ, уникнуто високих витрат на глобальну синхронізацію, і для завершення спільного навчання моделі потрібно лише покладатися на сусідні локальні вузли. Поєднуючи асинхронне оновлення та механізм відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, суттєво підвищуючи можливість глобальної співпраці в навчанні та є однією з ключових комунікаційних інфраструктур для побудови мережі децентралізованого навчання.
PCCL:Бібліотека узгодженої комунікації
PCCL є легковажною бібліотекою зв'язку, створеною Prime Intellect для децентралізованого середовища навчання ШІ, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку в гетерогенних пристроях та мережах з низькою пропускною здатністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з точки зупинки, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, що підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної здатності навчальної мережі та сумісність пристроїв, прокладаючи «остання миля» зв'язкової інфраструктури для створення справжньої відкритої, бездоверчої мережі спільного навчання.
Prime Intellect стимулююча мережа та розподіл ролей:
Prime Intellect побудував мережу навчання, що не потребує дозволу, є перевірною та має економічні стимули, що дозволяє кожному брати участь у завданнях і отримувати винагороди на основі реальних внесків. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає публікацію завдань, навчання вузлів, перевірку траєкторій, агрегацію ваг та виплату винагород, формуючи стимулюючий замкнутий цикл навколо "реальних навчальних дій".
INTELLECT-2: перший у світі перевірений децентралізований навчальний модель.
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель навчання з підкріпленням, що була створена завдяки співпраці асинхронних, без довіри децентралізованих вузлів, з обсягом параметрів 32B. Модель INTELLECT-2 була тренована за допомогою кооперації понад 100 гетерогенних GPU-вузлів, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, з тривалістю навчання понад 400 годин, що демонструє доцільність і стабільність асинхронних співпраці. Ця модель не лише стала проривом в продуктивності, але й вперше реалізувала систематичну концепцію "тренування як консенсус", запропоновану Prime Intellect. INTELLECT-2 інтегрує основні модулі протоколів, такі як PRIME-RL, TOPLOC і SHARDCAST, що означає, що децентралізована тренувальна мережа вперше досягла відкритості, верифікації та економічного стимулу в процесі навчання.
У плані продуктивності, INTELLECT-2 оснований на QwQ-32B тренуванні та спеціальному RL тренуванні в коді та математиці, перебуває на передовій рівні поточних відкритих RL моделей. Хоча він ще не перевершив закриті моделі, такі як GPT-4 або Gemini, його справжнє значення