У Британії створять їстівний безпілотник для доставки гуманітарної допомоги
7 Березня , 2017
NASA приступило до тестів пасажирського надзвукового літака QueSST
7 Березня , 2017

Злиття людей і машин не зупинить повстання машин

Генеральний директор Tesla і засновник OpenAI Ілон Маск минулого тижня припустив, що людство може звести нанівець свій страх перед повстанням машин (тобто роботів) за рахунок злиття з цими самими машинами і перетворення в кіборгів. Однак сучасні тенденції в області штучного інтелекту, заточеного суто під програмне забезпечення і технології глибокого навчання, викликають серйозні сумніви в обгрунтованості такої заяви, особливо в довгостроковій перспективі. І пов’язано це не лише з апаратними обмеженнями, але і з роллю людського мозку в цьому всьому.

Теза Маска досить прямолінійна: досить розвинені нейрокомп’ютерні інтерфейси дозволять людям масово збільшити свої можливості, краще використовувати такі технології, як машинне навчання і глибоке навчання. Але такий обмін буде двостороннім. Нейрокомп’ютерні інтерфейси допоможуть заповнити прогалини в алгоритмах машинного навчання за рахунок людей, наприклад, при прийнятті контекстуальних рішень. Ідея сама по собі не нова. Ліклайдер та інші міркували про можливості і наслідки «симбіозу людини і комп’ютера» в середині 20 століття.

Прогрес йшов повільно. Не в останню чергу через розвиток апаратного забезпечення. «Якщо причина, чому hardware (апаратне забезпечення) так називається, бо воно hard (важкий)», говорив Тоні Фаделл, творець iPod. А створити апаратне забезпечення, яке буде пов’язане з органічними системами, буде ще важче.

Сучасні технології примітивні, якщо порівнювати їх із зображеннями нейрокомп’ютерних інтерфейсів в науково-фантастичних фільмах на зразок «Матриці».

Примхи глибокого навчання

Якщо припустити, що апаратна проблема буде в кінцевому рахунку вирішена, залишаються й інші проблеми. Останнє десятиліття неймовірних досягнень в галузі досліджень глибокого навчання показало, що деякі перешкоди подолати не так вже й просто.

По-перше, ми просто не розуміємо і не можемо описати, як саме функціонують складні нейронні мережі. Ми довіряємо простій технології подібній калькулятора, тому що знаємо, що вона завжди буде точно робити те, що ми від неї хочемо. Його помилки — це майже завжди результат помилкових дій з боку людини.

Наприклад, ми хотіли би, щоб доповнення нас машиною дозволило нам стати досконалими в арифметиці. Що замість того, щоб діставати калькулятор або смартфон, ми могли б подумати про розрахунок і отримати миттєву відповідь від допоміжної машини.

Все стає складніше тоді, коли ми намагаємося підключити більш складні функції, пропоновані методами машинного навчання. Наприклад, глибоке навчання.

Припустимо, ви працюєте співробітником безпеки аеропорту і ваш мозок доповнює машина, яка автоматично сканує тисячі осіб, які ви бачите щодня, попереджаючи про можливі ризики для безпеки.

Більшість систем машинного навчання страждають від сумно відомої проблеми: коли крихітна зміна зовнішнього вигляду об’єкта може привести до збою в системі, не дати їй точно класифікувати об’єкт. Змініть зображення людини на 1% — і машинна система може подумати, що це велосипед.

Терористи або злочинці можуть використовувати різні уразливості машини, обходячи перевірку безпеки. Ця проблема вже заважає онлайн-безпеці. Люди, хоч і обмежені в певному сенсі, не будуть вразливі до таких обходів.

Незважаючи на те, що у машин склалася репутація неупереджених, технології машинного навчання теж страждають від упередженості і навіть можуть демонструвати расистську поведінку, якщо ввести відповідні дані. Ця непередбачуваність має серйозні наслідки для того, як людина буде підключатися до машини і як буде їй довіряти.

Вір мені, я робот

Довіра — це вулиця з двостороннім рухом. Людська думка — це складна, дуже динамічна діяльність. Як машині зрозуміти, яку частину людської упередженості ігнорувати? Зрештою, ми всі зіштовхуємось з нею, не зважаючи на це. Як створити технологію, яка буде допомагати вам набирати людей на роботу?

В деякій мірі ми можемо спостерігати питання довіри в нейрокомп’ютерних інтерфейсах, якщо подивимося на те, як оборонні сили по всьому світу намагаються вирішити питання довіри людей до машин на змішаному полі бою. Люди намагаються довіряти машин, а машини — людям.

Є паралель між бойовим роботом, який приймає етичне рішення проігнорувати незаконний наказ, відданий людиною, і тим, що відбувається в нейрокомп’ютерному інтерфейсі: машина повинна інтерпретувати думки людини і відфільтрувати швидкоплинні думки і глибокі несвідомі упередженості.

В оборонних сценаріях логічна роль людського мозку полягатиме у перевірці етичності таких рішень. Але як бути, коли людський мозок буде підключений до машини, яка здатна робити логічні висновки на основі даних в таких масштабах, яких ні один мозок не може охопити і зрозуміти?

У довгостроковій перспективі питання полягає в тому, коли і як люди будуть залучені в процеси, які все більше визначаються машинами. Дуже скоро машини почнуть приймати медичні рішення, які жодна людина або команда людей не зможуть зрозуміти. Яку роль тоді буде грати мозок в цьому процесі?

У деяких випадках поєднання автоматизації та працівників-людей може збільшити кількість робочих місць, але даний ефект буде, швидше за все, швидкоплинним. Ті ж самі роботи і системи автоматизації будуть поліпшуватися, поки не усунуть створені ними ж робочі місця. Так само і люди, які будуть грати свою роль у нейрокомп’ютерних інтерфейсах, будуть все менше включатися в цей ланцюжок, оскільки технології будуть поліпшуватися.

Ідея збереження актуальності людства за рахунок інтеграції людського мозку зі штучним, здається привабливою. Але нам ще належить з’ясувати, який внесок буде робити людський мозок, якщо розвиток технологій обжене розвиток мозку в мільйон разів.

LEU
LEU

Залишити відповідь

Увійти за допомогою: 
Inline
Inline