Ошибки в программном обеспечении делают из роботов сексистов и расистов

Эксперты определили, что ошибки в ИИ делают из роботов сексистов и расистов.

Ошибки в программном обеспечении делают из роботов сексистов и расистов

Исследования показали, что искусственный интеллект больше отдаёт предпочтение мужчинам, а не женщинам. А также белым людям, а не цветным. Об этом сообщает «МедиаПоток» со ссылкой на «Городэй».

«Робот усвоил токсичные стереотипы с помощью этих ошибочных моделей нейронных сетей. Мы рискуем создать поколение расистских и сексистских роботов, но люди и организации решили, что можно создавать эти продукты, не решая проблем», — сказал автор Эндрю Хундт, научный сотрудник Технологического института Джорджии.

Подобные обшивки возникают вследствие того, что разработчики используют бесплатные общедоступные наборы данных, хранящиеся на просторах интернета. Следовательно, любая модель ИИ, построенная на тех же данных может иметь схожие проблемы.

Напомним, ранее мы рассказали, что в Британии обнаружили доисторические орудия труда.

Что еще почитать

В регионах

Новости региона

Все новости

Новости

Самое читаемое

Автовзгляд

Womanhit

Охотники.ру