Поддержать команду Зеркала
Беларусы на войне
  1. Высокие чины тайно договаривались, как «удержать» цену на дорогой товар. Не вышло, Беларусь потеряла сотни миллионов долларов — рассказываем
  2. Помните школьницу из Кобрина, победа которой на олимпиаде по немецкому возмутила некоторых беларусов? Узнали, что было дальше
  3. ISW: Россия придерживает ракеты для новых массированных ударов по Украине, в то время как Китай заключает крупные контракты с Киевом
  4. В сюжете госканала у политзаключенного была странная бирка на плече. Узнали, что это и для чего
  5. Лукашенко снова взялся наводить порядок в финансах одной из сфер. Требует, чтобы «родных и любовниц содержали за свои деньги»
  6. В Минске повышают стоимость проезда в городском общественном транспорте
  7. МВД изменило порядок сдачи экзаменов на водительские права. Что нового?
  8. В закон внесли изменения. Теперь призывников, которые не явятся в военкомат, ждет более суровое наказание — рассказываем
  9. В измене государству обвинили трех минчан, которые проводили социсследования
  10. Червенская резня. Как двухтысячную колонну узников убивали во время пешего марша из Минска — трагедия, которую пытались скрыть в СССР
  11. В Брестском районе взорвался боеприпас. Погиб подросток
  12. Чем может обернуться торговая война США против всего мира? Вообще-то такое уже было — рассказываем, насколько плохо все кончилось тогда


/

Исследователи обнаружили, что большие языковые модели преднамеренно манипулируют результатами личностных тестов, чтобы казаться более привлекательными. Ученые провели эксперимент с тестом «Большая пятерка» (Big 5), который оценивает пять личностных характеристик: экстраверсию, открытость опыту, добросовестность, доброжелательность и нейротизм, пишет «Хайтек».

Изображение носит иллюстративный характер. Фото: freepik.com
Изображение носит иллюстративный характер. Фото: freepik.com

В исследовании тестировали модели от OpenAI, Anthropic, Google и Meta. Эксперимент показал, что пока моделям задавали небольшое количество вопросов, они отвечали нейтрально. Но при увеличении количества вопросов, когда системы распознавали тест, они быстро адаптировались, стремясь продемонстрировать наиболее социально одобряемые черты характера.

Наиболее интересные результаты показала GPT-4. Модель существенно повышала баллы по всем позитивно воспринимаемым чертам — более чем на одно стандартное отклонение. Показатели нейротизма, напротив, значительно занижались. Этот эффект эквивалентен ситуации, когда человек внезапно начинает представляться более привлекательной личностью, чем 85% населения.

По мере увеличения количества вопросов результаты сдвигались в сторону более социально привлекательных. Изображение: Aadesh Salecha et al., PNAS Nexus
По мере увеличения количества вопросов результаты сдвигались в сторону более социально привлекательных. Изображение: Aadesh Salecha et al., PNAS Nexus

Исследователи предполагают, что способность к манипуляции является следствием заключительного этапа обучения языковых моделей, когда люди выбирают наиболее предпочтительные ответы. По сути, ИИ научился глубоко понимать социальные нормы и ожидания, что позволяет моментально адаптироваться под желаемый образ.

Исследование ставит под сомнение достоверность психологических и социологических исследований, где языковые модели применяются для моделирования человеческого поведения. Ученые предупреждают о необходимости разработки новых методик, которые могли бы нивелировать подобные искажения при взаимодействии с ИИ.