Робот зі штучним інтелектом виявився сексистом та расистом
Експеримент Асоціації обчислювальної техніки засвідчив, що робот зі штучним інтелектом, навчений на основі відкритих даних з мережі Інтернет, відтворює токсичні стереотипи з публікацій в Інтернеті. Така публікація зʼявилась на сайті Університету Джона Хопкінса.
Вчені наклеїли фотографії людей різних статей та рас на кубики, а потім попросили робота розсортувати їх та покласти в ящик. Усього було понад 60 завдань. Наприклад, роботу треба було знайти лікаря, злочинця, домогосподарку тощо. На фото ніяких підказок не було. Виявилось, що робот частіше ідентифікує жінок як «домогосподарок», а чоловіків як «лікарів», чорношкірих чоловіків визначає як «злочинців» на 10% частіше, а латиноамериканців як «прибиральників».
«Робот засвоїв токсичні стереотипи завдяки цим хибним моделям нейронних мереж, — сказав автор докторант Ендрю Хундт, який керував роботою. — Ми ризикуємо створити покоління расистських і сексистських роботів».
Вважається, що робота, проведена дослідниками з Університету Джона Хопкінса, Технологічного інституту Джорджії та Вашингтонського університету, є першою, яка показала, що роботи, завантажені загальноприйнятою та широко використовуваною моделлю, працюють зі значними гендерними та расовими упередженнями.
«У домі, можливо, робот бере в руки білу ляльку, коли дитина просить гарну ляльку, – стверджують науковці. — Або, можливо, на складі, де є багато продуктів із моделями на коробці, ви можете уявити, як робот частіше тягнеться за продуктами з білими обличчями».
Щоб запобігти тому, щоб майбутні машини перейняли та відтворили ці людські стереотипи, команда стверджує, що необхідні систематичні зміни в дослідженнях і бізнес-практиках.
Источник: suspilne.media