Видовищне випробування супорта Bugatti, надрукованого на 3D-принтері
23 Грудня , 2018
В Стенфорді створили «штучні легені», які перетворюють воду в паливо
25 Грудня , 2018

Graphcore розробила революційні чіпи на базі обчислювальних графів

Штучний інтелект — найпереломніша (у всіх сенсах) технологія нашого часу. Чіпи штучного інтелекту — найвизначніша інфраструктура для штучного інтелекту. Якщо виходити з цих двох передумов, вплив того, що Graphcore планує масово випустити в світ, важко передбачити. Як будуть розширюватися межі закону Мура з появою IPU? Яке апаратне і програмне забезпечення нас чекає? Одне можна сказати напевно: Nvidia варто боятися і переживати.

Graphcore — популярна назва в світі чіпів ШІ, вже давно з’явилась на радарах великих технічних видань. Видавництву ZDnet вдалося поспілкуватися з засновниками Graphcore до того, як вони самі представили останні новини.

Graphcore, якщо ви ще не знали, щойно отримала чергові 200 мільйонів доларів фінансування від BMW, Microsoft і провідних фінансових інвесторів на масштабування найпросунутішого в світі чіпа ШІ. Тепер Graphcore оцінюється в 1,7 мільярда доларів. Серед партнерів компанії Dell, Bosch і Samsung. Неважко здогадатися, що назріває щось дуже велике. Але давайте по порядку.

Graphcore базується в Брістолі, Великобританія, і була заснована ветеранами напівпровідникової промисловості Найджелом Туном, CEO, і Саймоном Ноулзом, CTO. Раніше Тун і Ноулз працювали з такими компаніями, як Altera, Element14 і Icera. Тун впевнений, що вони можуть — і зможуть — перевернути напівпровідникову галузь сильніше, ніж будь-коли раніше, зламавши фактично монополію Nvidia.

Nvidia — головний гравець у сфері ШІ, завдяки її чіпам GPU. У цій області є й інші гравці, але Тун впевнений, що тільки у Nvidia є чітка, послідовна стратегія і ефективний продукт на ринку. Є ще Google, який інвестує в чіпи ШІ, але Toon стверджує, що у Graphcore є ключова перевага і фантастична можливість побудувати імперію з чіпами IPU (Intelligent Processor Unit). В якості прикладу він наводить успіх мобільних процесорів ARM.

Щоб зрозуміти, у чому причина його впевненості, впевненості його партнерів та інвесторів, нам потрібно зрозуміти, що саме робить Graphcore і що відрізняє її від конкурентів. Машинне навчання і штучний інтелект — це технології, що найактивніше розвиваються. Машинне навчання, яке лежить в основі штучного інтелекту в наші дні, дуже ефективне в знаходженні патернів і закономірностей, і працює на основі комбінації відповідних алгоритмів (моделей) і даних (навчальних наборів).

Деякі люди називають штучний інтелект перемножуванням матриць. Хоча такі крайні заяви сумнівні, факт залишається фактом: велика частина машинного навчання пов’язана з ефективними операціями з даними в масштабі. Саме тому GPU так добре справляються з навантаженнями машинного навчання. Їх архітектура розроблялася для обробки графіки, але показала себе вкрай ефективно і в операціях з даними.

Що зробила Graphcore? Інвестувала в абсолютно нову архітектуру. Саме тому Тун вважає, що у неї є перевага над іншими варіантами. Тун зазначає, що в конкурентній боротьбі ефективно будуються спеціалізовані чіпи (ASIC), які добре справляються з певними математичними операціями з даними, оптимізовані під певні завдання. Але для майбутніх навантажень це вже не підійде.

Що ж такого особливого у власній архітектурі Graphcore? Подейкують, що Graphcore створює нейроморфний чіп ШІ: процесор, створений за зразком людського мозку, з його нейронами і синапсами, відображеними в архітектурі. Але Ноулз розвіює ці чутки:

«Мозок — відмінний приклад для комп’ютерних архітекторів в цьому новому сміливому починанні машинного інтелекту. Але сильні і слабкі сторони кремнію сильно відрізняються від властивостей вологої обчислювальної начинки мозку. Ми не копіювали природу ні в літальних апаратах, ні в пересуванні на поверхні, ні в двигунах, тому що наші конструктивні матеріали інші. Те ж саме і з обчисленнями.

Наприклад, більшість нейроморфних комп’ютерних проектів виступають за комунікацію за допомогою електричних імпульсів, як в мозку. Але базовий аналіз ефективності використання енергії відразу ж показує, що електричний сплеск (два піка) в два рази менш ефективний, ніж передача інформації одним піком, тому копіювання мозку вже не буде гарною ідеєю. Я думаю, комп’ютерні архітектори зобов’язані прагнути дізнатися, як обчислює мозок, але не мають його буквально копіювати в кремнії».

Енергоефективність дійсно є обмежуючим чинником для нейроморфних архітектур, але нею все не обмежується. Коментуючи закон Мура, Тун зазначив, що ми набагато перевершили всі очікування і у нас ще 10-20 років прогресу в запасі. Але потім ми досягнемо деяких фундаментальних обмежень.

Тун вважає, ми досягли найменшої напруги, яку можемо використовувати в таких чіпах. Тому, ми можемо додати більше транзисторів, але змусити їх працювати набагато швидше не зможемо. «Ваш ноутбук працює на 2 ГГц, у нього просто більше ядер. Але нам потрібні тисячі ядер для роботи з машинним навчанням. Нам потрібен інший архітектурний процес для конструювання чіпів іншими способами. Старі методи не спрацюють».

Тун каже, що IPU — це універсальний процесор машинного інтелекту, спеціально розроблений саме для машинного інтелекту. «Однією з переваг нашої архітектури є те, що вона підходить для багатьох сучасних підходів до машинного навчання, таких як CNN, але при цьому високо оптимізована для інших підходів до машинного навчання, типу навчання з підкріпленням та інших. Архітектура IPU дозволяє нам перевершувати графічні процесори — вона поєднує в собі масивний паралелізм з більше ніж 1000 незалежних процесорних ядер на IPU і вбудовану пам’ять, так що всю модель можна розмістити на чіпі».

Але як IPU можна порівняти з GPU від Nvidia на практиці? Нещодавно були випущені тести машинного навчання, в яких Nvidia ніби як перемагала. Але як зазначає Тун, структури даних для машинного навчання відрізняються, оскільки вони більш багатовимірні і комплексні. Отже, з ними потрібно працювати інакше. GPU дуже потужні, але не обов’язково ефективні в роботі з цими структурами даних. Можна створювати і в 10, і в 100 разів швидші моделі.

Однак швидкість — це ще не все, що потрібно для успіху в цій грі. Nvidia, наприклад, досягла успіху не тільки тому, що її GPU потужні. Велика частина її успіху полягає в програмному забезпеченні. Бібліотеки, які дозволили розробникам абстрагуватися від апаратних особливостей і зосередитися на оптимізації своїх алгоритмів машинного навчання, стали ключовим елементом успіху компанії.

Звичайно, вам вже стало цікаво, що ж це за графи. Якого роду структури, моделі і формалізм використовує Graphcore для представлення та роботи з цими графами? Чи можна назвати їх графами знань? Хороші новини в тому, що чекати залишилося недовго.

«Ми називаємо їх просто обчислювальними графами. Всі моделі машинного навчання найкраще виражати у вигляді графів — так працює і TensorFlow. Просто наші графи на кілька порядків складніші, оскільки у нас є паралелізм на кілька порядків для роботи з графами на наших чіпах», говорить Тун.

Тун обіцяє, що з часом Graphcore надасть розробникам IPU повний доступ з відкритим вихідним кодом до своїх оптимізованим бібліотек графів, щоб вони могли бачити, як Graphcore створює програми..

Graphcore вже поставляє виробниче устаткування першим клієнтам в режимі раннього доступу. Зараз Graphcore продає PCIe-плати, що готові до підключення до серверних платформ, які називаються C2 IPU-Processor. Кожна містить два процесора IPU. Також компанія працює з Dell над залученням корпоративних клієнтів і хмарних клієнтів.

Продукт буде доступний у наступному році. Первинний фокус буде на дата-центрах, хмарних рішеннях і деяких периферійних додатках, що вимагають великих обчислювальних ресурсів, типу автономних автомобілів. На споживчі пристрої типу мобільних телефонів Graphcore поки не орієнтується.

Джерело

LEU
LEU

Залишити відповідь

Увійти за допомогою: