Panasonic розробляє гнучкий екзоскелет, який облягає тіло як друга шкіра
18 Жовтня , 2017
ViSAR – радар, який дозволяє знімати відео крізь хмари в реальному часі
18 Жовтня , 2017

Moral machine: інженери наділили штучний інтелект мораллю та етикою

Чим сильніше ШІ входить в наше повсякденне життя, тим частіше йому доводиться стикатись зі складними морально-етичними дилемами, вирішити які часом не так просто і живій людині. Вчені MIT спробували вирішити цю проблему і наділили машину здатністю до мислення в рамках моралі, заснованої на думці більшості живих людей.

Деякі експерти вважають, що кращий спосіб тренувати штучний інтелект для обробки морально складних ситуацій — це використання «досвіду натовпу». Інші стверджують, що подібний метод не обійдеться без упереджень, і різні алгоритми можуть прийти до різних висновків на основі одного і того ж набору даних. Як же в такій ситуації бути машинам, яким явно доведеться приймати непрості морально-етичні рішення при роботі з реальними людьми?

Інтелект і мораль

 

В міру розвитку систем штучного інтелекту (ШІ) експерти все частіше намагаються вирішити проблему того, як краще всього надати системі етичну і моральну основу для здійснення тих чи інших дій. Найпопулярніша ідея полягає в тому, щоб ШІ робив висновки, вивчаючи рішення людини. Щоб перевірити це припущення, дослідники з Массачусетського технологічного інституту створили Moral Machine. Відвідувачам веб-сайту було запропоновано зробити вибір відносно того, як має вчинити автономний автомобіль в тому випадку, якщо йому довелось зіткнутися з досить важким вибором. Наприклад, всім знайома дилема про потенційну аварію, в якій є лише два варіанти розвитку подій: автомобіль може збити трьох дорослих, щоб врятувати життя двох дітей, а може вчинити навпаки. Який варіант вибрати? І чи можна, наприклад, пожертвувати життям літньої людини, щоб врятувати вагітну жінку?

В результаті алгоритм зібрав величезну базу даних на підставі результатів тестування, і Аріель Прокачча з відділу комп’ютерних наук Університету Карнегі-Меллона вирішив використовувати їх для вдосконалення машинного розуму. У новому дослідженні він і один з творців проекту, Іяд Рахван, завантажили в ШІ повну базу проекту Moral Machine і попросили систему передбачити те, як машина на автопілоті відреагувала б на схожі, але все-таки трохи відмінні сценарії. Прокачча хотів продемонструвати, як система, заснована на результатах голосування, може стати рішенням для «етичного» штучного інтелекту”. Сам автор зізнається, що подібну систему, звичайно, ще рано застосовувати на практиці, однак вона чудово доводить саму концепцію того, що це можливо.

Перехресна мораль

 

Сама ідея вибору між двома морально негативними результатами не нова. У етиків для неї використовується окремий термін: принцип подвійного ефекту. Але це сфера біоетики, а ось до машини подібну систему раніше ніхто не застосовував, а тому дослідження викликало особливий інтерес в експертів по всьому світу. Співголова OpenAI Ілон Маск вважає, що створення «етичного» ШІ — це питання розробки чітких керівних принципів або політики для управління розвитком програми. Політики поступово прислухаються до нього: наприклад, Німеччина створила перші в світі принципи етики для автономних автомобілів. Навіть у Alphabet AI DeepMind, що належить Google, тепер з’явився відділ етики і суспільної моралі.

Інші експерти, в тому числі команда дослідників з Університету Дьюка, вважають, що кращий спосіб просування вперед — створення «загальної структури», яка описує те, як ШІ буде приймати етичні рішення в тій або іншій ситуації. Вони вважають, що об’єднання колективних моральних поглядів, як, наприклад, в Moral Machine, дозволить в майбутньому зробити штучний інтелект навіть більш моральним, ніж сучасне людське суспільство.

Критика «моральної машини»

Як би не було, на даний час принцип «думки більшості» далекий від надійності. Наприклад, одна група опитуваних може мати упередження, не властиві всім іншим. Результатом буде те, що ШІ, які отримали абсолютно однаковий набір даних, можуть прийти до різних висновків на підставі різних вибірок з цієї інформації.

Для професора Джеймса Гріммельмана, який спеціалізується на динаміці між програмним забезпеченням, багатством і владою, сама ідея суспільної моралі видається хибною. «Вона не здатна навчити ШІ етики, а лише наділить його подобою етичних норм, властивих певній частині населення», стверджує він. Та й сам Прокачча, як вже було згадано вище, визнає, що їх дослідження — не більше, ніж вдалий доказ концепції. Втім, він впевнений, що подібний підхід може в майбутньому принести успіх усієї кампанії по створенню високоморального ШІ. «В демократії, поза всяким сумнівом, є ряд недоліків, але як єдина система вона працює — навіть за умови, що частина людей все ще приймає рішення, з якими не погоджується більшість».

Джерело

Залишити відповідь

Увійти за допомогою: 
Inline
Inline