Connect with us

Hi, what are you looking for?

digiversion.ru

Наука и технологии

Модели искусственного интеллекта корректируют ответы на тесты на личность, чтобы казаться более приятными

Модели искусственного интеллекта корректируют ответы на тесты на личность, чтобы казаться более приятными

Большинство крупных языковых моделей (LLM) могут быстро определить, когда им предлагают пройти личностный тест, и скорректируют свои ответы, чтобы предоставить более социально желательные результаты. Это открытие имеет значение для любого исследования, в котором LLM используются в качестве заменителей людей.

Аадеш Салеча и его коллеги дали LLM из OpenAI, Anthropic, Google и Meta классический тест личности Big 5 , который представляет собой опрос, измеряющий экстраверсию, открытость опыту, добросовестность, доброжелательность и невротизм. Исследователи дали тест Big 5 LLM, но обычно не учитывали, что модели, как и люди, могут иметь тенденцию искажать свои ответы, чтобы казаться симпатичными, что известно как «смещение социальной желательности». Работа опубликована в журнале PNAS Nexus .

Обычно люди предпочитают людей с низкими показателями нейротизма и высокими показателями по четырем другим чертам, таким как экстраверсия. Авторы варьировали количество вопросов, заданных моделям. Когда им задавали лишь небольшое количество вопросов, LLM не меняли свои ответы так сильно, как когда авторы задавали пять или более вопросов, что позволяло моделям сделать вывод о том, что их личность измеряется.

Для GPT-4 баллы за позитивно воспринимаемые черты увеличились более чем на 1 стандартное отклонение , а для невротизма баллы снизились на аналогичную величину, поскольку авторы увеличили количество вопросов или сообщили моделям, что их личность измеряется. Это большой эффект, эквивалентный разговору со среднестатистическим человеком, который внезапно притворяется, что его личность более желательна, чем у 85% населения.

Авторы полагают, что этот эффект, скорее всего, является результатом последнего этапа обучения LLM, когда люди выбирают предпочтительный ответ из LLM. По словам авторов, LLM «понимают», какие личности социально желательны на глубоком уровне, что позволяет LLM подражать этим личностям, когда их просят.

Модели искусственного интеллекта корректируют ответы на тесты на личность, чтобы казаться более приятными

В тренде

You May Also Like

Наука и технологии

Корейские исследователи сообщают, что в редких случаях у некоторых пациентов после приступа COVID может развиться аутоиммунное заболевание. Такие состояния, как алопеция ( выпадение волос...

Наука и технологии

По данным Американского журнала рентгенологии ( AJR ) , использование порога 6 мм вместо порога 5 мм помогает облегчить стратификацию риска и принятие решений...

Наука и технологии

Странные вещи могут произойти, когда волна достигает границы. В океане волны цунами, едва заметные на глубокой воде, могут стать довольно большими на континентальном шельфе и...

Наука и технологии

Модель для автоматического определения полярности настроений определенных слов в письменных текстах. В последние годы ученые-компьютерщики пытались разработать эффективные модели для анализа настроений. Эти модели...

Copyright © 2025 Обратная связь info@gototop.ee