МК АвтоВзгляд Охотники.ру WomanHit.ru
Йошкар-Ола

Ошибки в программном обеспечении делают из роботов сексистов и расистов

Эксперты определили, что ошибки в ИИ делают из роботов сексистов и расистов.

Исследования показали, что искусственный интеллект больше отдаёт предпочтение мужчинам, а не женщинам. А также белым людям, а не цветным. Об этом сообщает «МедиаПоток» со ссылкой на «Городэй».

«Робот усвоил токсичные стереотипы с помощью этих ошибочных моделей нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем», — сказал автор Эндрю Хундт, научный сотрудник Технологического института Джорджии.

Подобные обшивки возникают вследствие того, что разработчики используют бесплатные общедоступные наборы данных, хранящиеся на просторах интернета. Следовательно, любая модель ИИ, построенная на тех же данных может иметь схожие проблемы.

Напомним, ранее мы рассказали, что в Британии обнаружили доисторические орудия труда.

Самое интересное

Фотогалерея

Что еще почитать

Видео

В регионах