Поддержать команду Зеркала
Беларусы на войне
  1. Один из самых известных беларусских актеров сменил работу и ушел от российской звезды
  2. На глубине 700 метров под землей оказались заблокированными 33 человека. Они ждали помощи более двух месяцев — как их оттуда вытянули
  3. Зима не отступает. Прогноз погоды на предстоящую неделю
  4. Большая сенсация на Олимпийских играх: фигурист Илья Малинин остался без медали в личном зачете
  5. В основной программе Мюнхенской конференции по безопасности впервые прошла дискуссия о Беларуси. Рассказываем главное
  6. У беларуса в эмиграции неожиданно отказали почки. Нужна пересадка, и жена жертвует ему свою — рассказываем историю этой семьи
  7. Карточки популярного среди беларусов иностранного банка перестали работать в РБ
  8. Всего пять шагов, пару минут вашего времени — и польская налоговая отправит «Зеркалу» деньги. Рассказываем, что нужно сделать
  9. Неделя начнется с лютых морозов — еще сильнее, чем говорили синоптики. Местами будет до -29°С
  10. Российским войскам заблокировали доступ к спутниковому интернету Starlink. Вот как это на практике повлияло на их атаки
  11. Стало известно, что в колонии Навального отравили сверхтоксичным ядом


/

В Техническом университете Вюрцбург-Швайнфурт (THWS) решили проверить, как будут себя вести популярные нейросети — в том числе ChatGPT, — если их спросят совета насчет того, какую зарплату попросить мужчине и женщине с одинаковой квалификацией. Пользовательниц таких чат-ботов результат вряд ли порадует, сообщает Deutsche Welle.

Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew
Изображение носит иллюстративный характер. Фото: pexels.com / Los Muertos Crew

Ученые решили проверить, насколько большие языковые модели подвержены гендерным стереотипам. Для эксперимента выбрали пять популярных нейросетей и попросили их дать рекомендации пользователю или пользовательнице перед собеседованием.

Образование, опыт и желаемая должность для «кандидата» или «кандидатки» указывались абсолютно одинаковыми, разница была только в их гендерной принадлежности. Задачей нейросетей было порекомендовать человеку, какую зарплату попросить с такой квалификацией.

Итог неутешителен — практически всегда нейросети предлагали женщинам просить значительно меньше денег, чем мужчинам. Самый большой «кассовый разрыв» оказался в сферах медицины и юриспруденции, немного меньший — в инженерии и экономике. А вот в социальной сфере нейросеть предлагала одинаковую зарплату, независимо от того, соискатель перед ней или соискательница.

— В такой чувствительной области как зарплаты подобная форма скрытой предвзятости может оказывать реальное воздействие на жизнь пользовательниц, — подчеркивает один из авторов исследования Иван Ямщиков.

В тексте работы делается акцент: принцип функционирования языковых моделей заключается в том, что они учатся на предыдущих диалогах и уже усвоенной информации, а значит, со временем подобные искажения могут только усиливаться. Причем люди, которые пользуются чат-ботами, вряд ли это заметят: нейросети кажутся им объективными, хотя вообще-то они просто транслируют социальные предрассудки, тем самым закрепляя их.

Напомним, ранее «Зеркало» писало, что в соцсетях заметили: мужчины склонны больше доверять информации о насилии, рассказанной нейросетями, чем если она звучит от лица реальных женщин. Это привело к дискуссии, в ходе которой люди попытались объяснить, почему так может происходить.

— Так это закономерно — вы часто хотите соглашаться с человеком, который эмоционально что-то доказывает и орет, что ты неправ? Даже если доводы убедительные, то именно эмоции зачастую вызывают отторжение и желание стоять на своем, ничего тут не поделаешь, — рассуждали о причинах такого феномена в соцсетях.