Пост12 апреля 2023, 14:52

Нейросети все больше очеловечиваются, а ChatGPT скоро получит физическое тело

Сам GPT-4 заявил «Постсовету», что внешность для него — не главное. Но, возможно, он просто кокетничает.
Фото с сайта <a href="https://www.1x.tech">1x.tech</a> / Нейросети все больше очеловечиваются, а ChatGPT скоро получит физическое тело
© Фото с сайта 1x.tech

Отвлечемся от новостей отечественной цифровизации на более позитивную повестку (простите за каламбур!) Ученые создали целый виртуальный город и населили его ботами, получившими полную свободу действий — их поведение вскоре стало почти неотличимым от человеческого. Опыт подтверждает реальность создания расы разумных роботов.

Главная проблема интернета — обычно вы не видите собеседника. Есть видео- и аудиосвязь, но стандартный способ общения через переписку делает ее участников невидимками. Ладно, если невидимка будет врать о своих достоинствах, как любят делать обычные люди. Но вдруг она и вовсе окажется строчками машинного кода?

Наделавший шума ChatGPT все чаще применяется роли улучшенного «автоответчика» — ему поручают вести самую утомительную и не требующую специфических знаний переписку. Люди практически никогда не замечают разницы.

Новая версия чат-бота и вовсе с легкостью сдала школьные экзамены и даже экзамены уровня юридического колледжа. Такая нейросеть способна подменить собой целые пласты работников — от бюрократов до корпоративных сотрудников среднего звена. И не только в офисе.

В эксперименте, до жути напоминающем «Матрицу» в реальной жизни, исследовательская команда из «Гугла» и Стенфордского университета создала высокотехнологичную версию игры «Симс».

Используя методику ChatGPT, они написали ботов-личностей, живущих в цифровой копии реального города со всей инфраструктурой — от офисных зданий и фабрик до баров и больниц. Чат-боты обладали памятью, вели между собой осмысленные беседы, планировали совместные действия и даже расслаблялись вечером за «кружкой пива».

Под конец эксперимента боты настолько очеловечились, что у некоторых из них проявилось неадекватное поведение. Боты-эксцентрики посещали закрытые магазины или шли в бар вместо столовой в обеденный перерыв. Как отмечают комментаторы, это первый раз, когда мы слышим о нейросетях-алкоголиках.

Важное замечание: нейросети принимали решения на основе абстрактных задач. Естественно, они существовали только в рамках виртуального сервера и их модель менялась не под влиянием реального мира, а в зависимости от предполагаемого эффекта от сделанного ими поступка.

Это вновь поднимает очень сложные вопросы о свободе воли. Насколько возможность выбора реальна, а не заложена в нас биохимическими, эволюционными и психологическими программами? Вопрос особенно актуален сейчас, когда опыты по созданию «универсального ИИ» (УИИ) — новой итерации нейросетей, способных принимать самостоятельные решения, — оказались настолько успешными.

Для УИИ уже ищется подходящий сосуд. Создавшая самую удачную версию OpenAI вложила десятки миллионов долларов в норвежскую робототехническую компанию 1X. По всему, это начальный этап создания физического тела для ChatGPT. Причем прототип на основе их совместной работы мы увидим уже летом этого года.

В случае успеха уже через несколько лет мы сможем наблюдать в действии последний элемент киберпанка — андроидов. Полноценную искусственную расу рабочих, шахтеров и техников на службе у человека.

Бесчисленные игры и фильмы, особенно культовые «Бегущий по лезвию» и «Детройт», предупреждали о таком развитии событий. Однако на фоне последних событий куда более антиутопично выглядит поведение обычных живых людей. Право, порой создается впечатление, что роботы будут вести себя куда более разумно.

Алексей Йесод для Telegram-канала «Русский футурист»

«Постсовет» спросил у GPT-4, какая физическая оболочка пришлась бы ему по душе, и вот что ответил чат-бот:

Информация об авторе
Алексей Йесод
Алексей Йесод
Журналист

Журналист, библеист, автор Telegram-канала «Русский Футурист» и «Мысли Йесода». Сооснователь канала «Красный Сион». Свою главную творческую задачу видит в Подробнее...

* Мнения авторов постов и «Постсовета» могут не совпадать.

Далее: ChatGPT обвинили в клевете: может ли искусственный интеллект лгать?

Понравился этот пост? Подпишись на рассылку

(Всего одно письмо в неделю, чтобы ничего не пропустить)