Вчені змоделювали 45-кубітну квантову обчислювальну систему за допомогою одного з найпотужніших суперкомп’ютерів
27 Квітня , 2017
Інженери NASA створили «кольчугу» для супутників
29 Квітня , 2017

Дослідники виявили упередженість у штучного інтелекту

Результати навчання ШІ в неідеальному людському середовищі.

Машини зі штучним інтелектом можуть набувати расові та гендерні упередження при навчанні з текстових джерел, стверджують дослідники. Без стороннього втручання алгоритм машинного навчання вчиться асоціювати жіночі імена з темою сім’ї, а імена чорношкірих вважає неприємнішими, ніж імена білих.

Исследователи из Принстонского университета обнаружили предвзятость у искусственного интеллекта

Фото: telegraph.co.uk

В журналі Science опублікували результати цікавого дослідження. Вчені проаналізували ступінь упередженості звичайної моделі зі штучним інтелектом і об’єднали отримані результати з відомим психологічним тестом, що визначає рівень упередженості людини.

Дослідники повторили всі стадії психологічного тестування на машинному інтелекті, пише Ейлін Келіскан (Aylin Caliskan) з Прінстонського університету. Оскільки машинне навчання охоплює широкий спектр інформації, починаючи від перекладу і закінчуючи скануванням імен в резюме, упередженість проникає навіть у ШІ.

Очевидно, що упередження ШІ з’являються з існуючих матеріалів у вигляді книг і текстів в інтернеті. Наприклад, в Google Photos деякі темношкірі користувачі відмічені тегом «горила». Також відомо, що мовні алгоритми навчаються асоціювати слово «чоловік» зі словом «викладач», а слово «жінка» — зі словом «помічник викладача».

Команда Келіскан розробила тест, що нагадує по суті імпліцитний асоціативний тест (ІАТ), який використовується психологами для вимірювання рівня упередженості.

У тесті об’єкти представлені у вигляді парних зображень: наприклад, показуються фотографії чорного і білого чоловіків і даються два слова на вибір, наприклад, «приємного» і «неприємного». ІАТ підраховує швидкість почергового зіставлення зображень зі словами.

Исследователи обнаружили предвзятость у ИИ

Фото: ccsu.edu

У тесті для штучного інтелекту теж вимірюється рівень упередженості, але замість вимірювання часу реакції він підраховує математичну відстань між двома словами. Інакше кажучи, якщо числова відстань між ім’ям темношкірого та словом «приємний» більша, ніж відстань між ім’ям білої людини і тим же словом, асоціація у першому випадку слабкіша.

Єдине обмеження — це те, що поки можливий підрахунок ступеня упередженості тільки для окремих слів. Команда дослідників сподівається продовжити роботу над тестом, щоб проводити дослідження асоціацій вже не окремих слів, а словосполучень або фраз, в тому числі на різних мовах.
Чи є способи вплинути на ситуацію?

За словами Келіскан, рішення проблеми не обов’язково зводиться до зміни моделі навчання. ШІ просто фіксує реальний стан світу навколо, який далекий від об’єктивності. Зміна алгоритмів роботи призведе до зниження ефективності машинного навчання.

Приховування інформації також не принесе результату. Навіть якщо не говорити моделі стать людини, ви все одно опосередковано будете передавати інформацію, пов’язану з гендерною приналежністю, що не залишиться непоміченим. Люди повинні використовувати інші методи.

Наприклад, можна покращувати переклад Google Translate, додаючи варіанти перекладу для обох родів. Або залучати більшу кількість людей до написання алгоритму машинного навчання. Але в першу чергу, потрібно пам’ятати, що упередження нікуди не дінуться, якщо з ними не боротись.

Залишити відповідь

Увійти за допомогою: 
Inline
Inline