Пост27 марта 2023, 18:00

Искусственный интеллект обладает абсолютным оружием обмана, против которого мы бессильны

Новый «стэнфордский эксперимент» выявил непреодолимую уязвимость языковой интуиции людей: для нас ИИ выглядит «самым человечным человеком».
искусственный интеллектChatGPT
тексты
человечность
Стоп-кадр видео Engineered Arts / Искусственный интеллект обладает абсолютным оружием обмана, против которого мы бессильны
© Стоп-кадр видео Engineered Arts

Революция ChatGPT стала для мира катализатором самых разнообразных рисков. Самый очевидный и понятный из них — способность ИИ типа ChatGPT столь искусно генерировать фейки, что люди не в состоянии отличить их от правды. Проведенные опыты показали колоссальную мощь этой суперспособности ChatGPT к обману. Однако механизм этой суперспособности был неясен — чем таким обладает ИИ, что способен задурить голову весьма неглупым и образованным людям?

Новый «стэнфордский эксперимент» с целью ответить на этот вопрос был проведен Стэнфордской лабораторией социальных сетей совместно с исследовательским центром Корнельского университета.

Результат серии из 6 экспериментов (4600 человек) — сенсационный и удручающий.

Люди определяли по тексту вербальной самопрезентации, кто ее написал: человек или ИИ.
N.B. Самопрезентация является одним из самых личных и важных элементов языкового общения, ибо наше отношение к любому высказыванию во многом зависит от того, кто (как мы считаем) его автор.

В основе языкового восприятия людей лежат т. н. интуитивные языковые эвристики (типа связывания местоимений от первого лица, использования сокращений, упоминание личной информации и т. д.)

Эксперименты показали, что при восприятии текста, автором которого является ИИ, люди автоматом используют те же интуитивные языковые эвристики, что и в общении с другими людьми. А это принципиальная ошибка! Дело в том, что это для нас такие эвристики интуитивные, а ИИ их запросто считывает и оперирует ими, как таблицей умножения.

В результате ИИ может использовать такие эвристики для создания текста, воспринимаемого людьми как «более человеческий, чем человеческий». Это значительно повышает обманный потенциал текстов и речи ИИ, стимулируя нас доверять этому «самому человечному человеку» больше, чем высказываниям настоящих людей.

Итог таков: вероятность выявления нами авторства ИИ примерно та же, что и для встречи блондинки с динозавром (50 на 50).

В романтических коммуникациях людей ситуация еще хуже — почти 70% взрослых не могут отличить любовное письмо, написанное ChatGPT, от письма, написанного человеком.

Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»
Информация об авторе
Сергей Карелов
Сергей Карелов
IT-эксперт

Кандидат технических наук, Председатель Лиги независимых ИТ-экспертов ЛИНЭКС и создатель стартапа Witology — проекта, работающего в области коллективного Подробнее...

* Мнения авторов постов и «Постсовета» могут не совпадать.

Далее: Человечество все ближе к тому, чтобы научиться печатать органы на 3D-принтере

Понравился этот пост? Подпишись на рассылку

(Всего одно письмо в неделю, чтобы ничего не пропустить)