Як відбувається складання Tesla Model 3 (відео)
2 Січня , 2019
Повнорозмірний екзоскелет Guardian допоможе будівельникам і не тільки
4 Січня , 2019

Представлений ШІ, який самостійно вчить роботів ходити

Для того, щоб роботизований механізм навчився ходити, недостатньо просто «прилаштувати» до нього кілька ніг. Навчання пересуванню — дуже складний процес, що забирає у розробників масу часу. Але тепер це питання буде вирішувати штучний інтелект, адже група експертів створила універсальні алгоритми, які допомагають ШІ вчити роботів будь-якої конфігурації переміщенню. При цьому втручання людини в цей процес не потрібне.

За розробкою стоїть команда вчених з Каліфорнійського університету в Берклі і група експертів Google Brain, одного з дослідних підрозділів Google по штучному інтелекту. Їх нова система навчила чотирилапого робота перетинати як знайому місцевість, так і незнайому.

«Глибоке навчання з підкріпленням може бути використане для автоматизації ряду завдань. Якщо ми зможемо навчити робота ході з нуля в реальному світі, ми можемо створити контролери, які будуть ідеально адаптовані до кожного робота і навіть до окремих ландшафтів, дозволяючи досягати кращої маневреності, енергоефективності та надійності.» — заявили вчені.

Навчання з підкріпленням — це, по суті, метод батога і пряника адаптований для ШІ. Він використовує винагороду або покарання при досягненні або не досягненні цілей.

«Глибоке навчання з підкріпленням широко використовується для тренування ШІ і навіть для передачі даних реальним роботам, але це неминуче тягне за собою певну втрату продуктивності через невідповідності у моделюванні й потребує активного втручання. Використання таких алгоритмів в реальному часі виявилося непростим завданням.»

Для експериментів вчені взяли робота Minitaur. Вони розробили систему, що складається з робочої станції, яка оновлювала дані нейронної мережі, завантажувала інформацію в Minitaur і вивантажувала назад. Чіп NVIDIA Jetson TX2 на борту робота відповідав за обробку інформації. Робот крокував протягом 2 годин і зробив 160 000 кроків. За цей час алгоритм винагороджував робота за переміщення вперед і карав, якщо він застрявав на місці або давав дуже великий крен у бік. В результаті був створений алгоритм руху, що дозволив роботу в будь-якій ситуації обирати оптимальну траєкторію руху.

«Наскільки нам відомо, цей експеримент є першим прикладом застосування навчання з підкріпленням, який дозволяє навчити роботів ходити.»

Джерело

LEU
LEU

Залишити відповідь

Увійти за допомогою: