← Назад

Штучний інтелект виявляє расистські упередження: результат нового дослідження

29/08/2024
Штучний інтелект виявляє расистські упередження: результат нового дослідження

У новому дослідженні, опублікованому у журналі Nature, науковці довели, що великі мовні моделі (LLM), такі як GPT-4, демонструють значні расистські упередження щодо носіїв афроамериканської англійської (AAE). Незважаючи на спроби розробників усунути упередженість, ці моделі все ще асоціюють носіїв AAE з негативними стереотипами та менш престижними професіями.

Як мовні моделі використовують упередження

Дослідження під керівництвом Шаріз Кінг з університету Чикаго використовувало понад 2000 повідомлень у соціальних мережах, написаних на AAE. Ці тексти порівнювалися зі стандартизованою американською англійською. Моделі оцінювали ці тексти за 84 прикметниками, такими як "неосвічений" або "грубий". Результати показали, що LLM часто приписують негативні прикметники текстам AAE.

Команда навіть виявила, що LLM демонструють більшу упередженість, аніж люди в аналогічних дослідженнях до епохи громадянських прав. Це означає, що сучасні моделі ШІ можуть бути навіть більш расистськими, аніж люди були в минулому.

Співавтор дослідження Валентин Хофманн з Інституту ШІ Аллена зазначив, що такі упередження можуть мати серйозні наслідки в реальному світі. Наприклад, LLM можуть асоціювати носіїв AAE з менш престижними професіями, такими як кухар або охоронець, замість архітектора чи астронавта. В уявних сценаріях суду моделі з більшою ймовірністю визнають носіїв AAE винними у злочинах і рекомендують їм суворіші покарання.

Загроза для суспільства

Соруш Восугі, фахівець з інформатики з Дартмутського коледжу, який не брав участі в дослідженні, зазначив, що результати не є несподіваними, але є шокуючими. Він підкреслив, що навіть більш великі моделі, які демонструють меншу явну упередженість, мають серйозні лінгвістичні забобони.

"Боротьба з відкритим расизмом може створювати хибне почуття безпеки, але не усуває приховані стереотипи," - зазначив Восугі. Він додав, що ШІ виявляють приховані упередження не лише щодо мови, але й щодо імен та захоплень, які асоціюються з певними групами.

Ніколь Холлідей, лінгвіст з Каліфорнійського університету в Берклі, зазначила, що компанії, які розробляють LLM, повинні уважніше працювати над усуненням прихованих упереджень. "Коли упередженість прихована, це те, що вони не змогли перевірити," - підкреслила вона.

На завершення, дослідження наголошує на великій ризикованості використання ШІ у таких сферах, як відбір кандидатів на роботу чи складання поліцейських звітів. Науковці закликають до перегляду підходів у навчанні мовних моделей, щоб запобігти поширенню прихованого расизму в суспільстві.