Люди скоро станут не нужны: ChatGPT уже проходит моральные тесты
Судя по результатам нового исследования, ИИ вполне сможет заменить живых участников во многих социальных и психологических экспериментах.Ответы ChatGPT коррелируют с ответами людей на 95% в 464 моральных тестах. Это значит, что люди пока еще нужны, но уже не надолго. Таков страшноватый вывод только что опубликованного большого исследования Can AI language models replace human participants?
Его авторы поставили интригующий вопрос: если ChatGPT столь успешно сдает всевозможные человеческие экзамены, может ли ИИ-бот заменить людей в социальных и психологических экспериментах?
Проверив ChatGPT на 464 моральных тестах (кражи, убийства, игра «Ультиматум», эксперимент Милгрэма, выборные коллизии и т. д.), исследователи получили фантастически высокую корреляцию (0.95) социальных и моральных суждений ChatGPT и людей.
Похоже, исследователи сами испугались такого результата. «Люди все еще необходимы, — пишут они. — Мы все еще вынуждены погружаться в глубины грязных плотских умов, а не просто опрашивать кремниевые схемы ИИ. Тем не менее языковые модели могут служить в качестве прокси для человеческих участников во многих экспериментах».
Переводя с научной политкорректности, это значит следующее.
1. Для моделирования ответов людей люди уже не нужны, ибо ИИ дает почти те же ответы (совпадающие на 95%)
2. Но остаются две проблемы: интерпретация (почему ИИ сделал такой моральный выбор) и «галлюцинации» (склонность ИИ нести правдоподобную пургу).
Учитывая, что исследование велось на ChatGPT 3.5, после перехода на 4.0 с обеими проблемами станет полегче. Ну а с переходом на 5.0 (как раз к выборам в 2024-го) на ответы избирателей, да и вообще людей, в вопросах моральных и социальных оценок можно будет забить.
Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»
(Всего одно письмо в неделю, чтобы ничего не пропустить)