Хотя люди и системы искусственного интеллекта (ИИ) "мыслят" совершенно по-разному, новое исследование показало, что ИИ иногда принимает решения так же нерационально, как и мы. Почти в половине сценариев, рассмотренных в новом исследовании, ChatGPT продемонстрировал многие из наиболее распространённых когнитивных искажений, присущих людям при принятии решений. Результаты, опубликованные 8 апреля в журнале "Управление производством и сервисными операциями", являются первыми результатами оценки поведения ChatGPT в 18 хорошо известных когнитивных искажениях, присущих человеческой психологии.
Авторы статьи, представляющие пять академических учреждений в Канаде и Австралии, протестировали GPT-3.5 и GPT-4 от OpenAI — две большие языковые модели (LLM), на которых основан ChatGPT, — и обнаружили, что, несмотря на "впечатляющую последовательность" их рассуждений, они далеко не безупречны, как люди. Более того, такая последовательность сама по себе имеет как положительные, так и отрицательные последствия, утверждают авторы.
Менеджеры получат наибольшую выгоду, если будут использовать эти инструменты для решения проблем, у которых есть чёткое, формализованное решение. Но если вы используете их для принятия субъективных решений или решений, основанных на предпочтениях, будьте осторожны.
ведущий автор исследования Ян Чен, доцент кафедры операционного менеджмента в бизнес-школе Айви
В исследовании были использованы широко известные человеческие предубеждения, в том числе неприятие риска, самоуверенность и эффект владения (когда мы придаём большую ценность тому, что у нас есть), и они были применены к подсказкам, которые давались ChatGPT, чтобы проверить, попадёт ли он в те же ловушки, что и люди.
Рациональные решения — иногда
Ученые задавали LLM гипотетические вопросы, взятые из традиционной психологии, в контексте реальной коммерческой применимости в таких областях, как управление запасами или переговоры с поставщиками. Цель состояла в том, чтобы выяснить, не только будет ли ИИ имитировать человеческие предубеждения, но и будет ли он делать это, когда ему задают вопросы из разных сфер бизнеса. GPT-4 превзошёл GPT-3.5 в решении задач с чёткими математическими решениями, допуская меньше ошибок в вероятностных и логических сценариях. Но в субъективных симуляциях, например, при выборе рискованного варианта для получения прибыли, чат-бот часто отражал иррациональные предпочтения, которые обычно демонстрируют люди.
GPT-4 демонстрирует более сильное стремление к определённости, чем даже люди.
заявление ученых в статье, имея в виду склонность ИИ к более безопасным и предсказуемым результатам при выполнении неоднозначных задач
Что ещё более важно, поведение чат-ботов оставалось в основном стабильным независимо от того, формулировались ли вопросы как абстрактные психологические проблемы или как рабочие бизнес-процессы. Исследование показало, что выявленные предубеждения были не просто результатом заученных примеров, а частью того, как ИИ рассуждает.
Одним из неожиданных результатов исследования стало то, что GPT-4 иногда усиливал ошибки, свойственные людям.
В задании на предвзятость подтверждения GPT-4 всегда давал предвзятые ответы.
заявление ученых в статье
ИИ также продемонстрировал более выраженную склонность к ошибке "горячей руки" (склонность ожидать закономерности в случайности), чем GPT 3.5. С другой стороны, ChatGPT удалось избежать некоторых распространённых человеческих предубеждений, в том числе игнорирования базовой статистики (когда мы игнорируем статистические факты в пользу анекдотической или конкретной информации) и ошибки невозвратных затрат (когда на принятие решения влияет уже понесённая затрата, из-за чего нерелевантная информация влияет на суждения).
По мнению авторов научной работы, предвзятость ChatGPT, похожая на человеческую, обусловлена обучающими данными, которые содержат когнитивные искажения и эвристики, свойственные людям. Эти тенденции усиливаются во время тонкой настройки, особенно когда обратная связь от человека ещё больше склоняет ИИ к правдоподобным ответам, а не к рациональным. Когда ИИ сталкивается с более неоднозначными задачами, он больше склоняется к человеческим моделям мышления, чем к прямой логике.
Если вам нужна точная и непредвзятая поддержка в принятии решений, используйте GPT в тех областях, где вы уже доверяете калькулятору.
ведущий автор исследования Ян Чен, доцент кафедры операционного менеджмента в бизнес-школе Айви
Однако, когда результат в большей степени зависит от субъективных или стратегических факторов, человеческий контроль важнее, даже если он заключается в корректировке подсказок для пользователей, чтобы устранить известные предубеждения. В заявлении соавтора Мины Андиаппан, доцента кафедры управления персоналом и менеджмента в Университете Макмастера в Канаде говорится о том, что человечеству следует относиться к ИИ как к сотруднику, принимающему важные решения, — ему нужен контроль и этические нормы. В противном случае общество риускует автоматизировать ошибочное мышление вместо того, чтобы улучшать его.
Презентованы четкие изображения планет, рождающихся вокруг далеких звезд.
Фото: pxhere.com
Обсуждение ( 0 ) Посмотреть все