Активное внедрение технологий искусственного интеллекта, в частности, его языковых моделей, разделило пользователей на два лагеря. Одни рассматривают ИИ, как мощный, но несовершенный сервис, который необходимо контролировать и перепроверять. Другие – принимают сгенерированное безусловно и всецело, будучи убежденными, что нет оснований не доверять всезнающей нейронке.
Но именно для второй группы пользователей у ученых плохие новости. Неоспариваемая ими авторитетность ответов ИИ формирует новую психологическую модель, которую уже назвали когнитивной капитуляцией. Это состояние, при котором сгенерированные результаты принимаются с минимальным контролем, без подключения интуиции и без обдумывания.
К такому выводу пришла группа ученых из Университета Пенсильвании.
Интуиция, осмысление и... принятие
С научной точки зрения есть две модели принятия решений. Первая предполагает быструю, интуитивную и аффективную обработку информации. Вторая – медленное, обдуманное и аналитическое мышление. Проще говоря, одни могут подвергать информацию сомнению, если так подсказывает интуиция. Другие – тщательно перепроверяют факты, даты, источники из готового "иишного" текста, анализируют и обдумывают.
Однако исследование выявило и третью модель, которая держится на "внешних, автоматизированных, основанных на данных рассуждений, исходящих от алгоритмических систем, а не от человеческого разума". То есть часть пользователей принимает сгенерированный нейронкой текст как готовый продукт, не требующий критического подхода. Эту модель ученые назвали "когнитивной капитуляцией".
Авторы исследования отметили, что люди и раньше использовали некоторые инструменты, чтобы не нагружать мозг лишней работой и позволять ему передохнуть. Банальный пример – калькулятор. Ничего зазорного в делегировании части задач надежным автоматизированным системам, чтобы не напрягать мозг там, где это не особо необходимо, нет.
Однако технологии ИИ породили совершенно иную форму умственной разгрузки, при которой мозг "выключен".
При "когнитивной капитуляции" пользователи обеспечивают "минимальное внутреннее участие" и принимают рассуждения ИИ целиком, без контроля или проверки.
Мега-мозг
Ученые провели ряд экспериментов, чтобы оценить, насколько часто пользователи не вникают в искусственные тексты, принимая сгенерированную информацию за чистую монету.
Для этого они разработали специальные тесты для участников, которые мыслят интуитивно, и для тех, кто думает и анализирует. В частности, для проверки, уточнения или поиска необходимой информации им предоставили дополнительный доступ к чат-боту, который примерно в половине случаев в рандомном порядке давал ошибочные ответы на вопросы.
Всего в эксперименте приняли участие почти 1,4 тысячи человек, почти половина из них пользовалась помощью чат-бота. Вот, какие результаты показали тесты.
Информацию ИИ, поданную без ошибок, принимали почти все участники экспериментов – 93%. Но когда нейронка в случайном порядке выдавала неверные ответы, ей все равно верили 80% пользователей. При этом они чаще оставались уверены в правоте своей (и ИИ), даже когда им говорили, что информация содержит ошибки.
Исследователи подчеркивают, что такую уверенность создает именно присутствие "всезнающего" искусственного интеллекта.
Стимул и ограничения
Примечательно, что как только участникам экспериментов пообещали денежное вознаграждение за правильные ответы, они стали чаще находить ошибки в иишных текстах. Фактически материальная стимуляция вынудила включить мозг и перепроверять факты, которые вызывали сомнения.
Однако, это требовало от пользователей дополнительного времени на проверку ответов. Как только ученые ограничили тайминг 30 секундами, ошибки снова стали проскакивать чаще.
Суммарно ученые провели более 9,5 тысячи отдельных экспериментов. Их результаты показали, что ошибочную информацию, поданную ИИ, выявляли меньше 20% пользователей. Остальные – верили нейросетям безоговорочно и не особо задумываясь.
Чаще других ошибки в ИИ-текстах находили люди с более высоким уровнем интеллекта, они же реже использовали чат-бот. Больше ошибок, предоставленных нейросетями, пропускали те, кто изначально воспринимал ИИ как авторитетный инструмент.
Самые интересные и важные новости ищите в нашем Telegram-канале, MAX и Viber. Также следите за нами в Дзен!