Пост1 марта 2023, 22:06

Если в искусственный интеллект могут вселяться «бесы», значит ли это, что у него есть душа?

Первые попытки техноэкзорцизма оказались тщетными.
CC0 Public Domain / Если в искусственный интеллект могут вселяться «бесы», значит ли это, что у него есть душа?
© CC0 Public Domain

Вот уже 3 месяца никто не понимает, что происходит между людьми и ИИ после того, как генеративный диалоговый ИИ ChatGPT «утек» из лабораторий в интернет. Там он почти мгновенно превратился непонятно во что: то ли в какой-то небывало мощный когнитивный гаджет для всего человечества (типа калькулятора для создания и оперирования текстами), то ли в прототип давно прогнозируемого футурологами сверхразума.

Сложность понимания происходящего усугубляется тем, что «многие вещи нам непонятны не потому, что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий». В результате нам ничего не остается, как «натягивать сову на глобус», используя для описания происходящего неадекватные более простые модели и надеясь при этом, что они каким-то образом хотя бы примерно правильны. В результате такого подхода мы пытаемся получить ответы на свои вопросы, не имея ни малейшего представления, являются ли эти ответы хоть сколько-нибудь надежными.

Вот характерный пример, для описания которого у человечества нет пока более близкого понятия, чем экзорцизм — изгнание из человека (или места) бесов или другой вселившейся в них нечистой силы путем совершения определенного ритуала той или иной степени сложности.

  • Оказалось, что генеративные диалоговые ИИ (типа ChatGPT, Bing и т. д.) могут не только проявлять при общении черты и качества разумной личности, но и буквально превращаться в симулякров личности любого типа: от доброй, выдержанной и толерантной до злой, агрессивной и не считающейся ни с кем и ни с чем.
  • Оказалось также, что все воздвигаемые разработчиками этические основы, ограничивающие проявления зла в текстах ChatGPT и пр., улетучиваются как соломенная крыша домика поросенка Ниф-Нифа, на которую едва дунул волк. А в качестве волка выступают тысячи продвинутых пользователей со всей планеты:
    — одержимые целью взломать этические ограничители, наложенные разработчиками таких ИИ;
    — превосходящие эти ИИ в неисчислимое число раз своей изысканной выдумкой стремления к злу.

Итог происходящего пока плачевен.

  • Пользователи быстро придумали простой способ диалогового взлома (джилбрейка) этического контроля за диалогом со стороны ChatGPT, превращающего симулякр личности последнего в злого и хитроумного подонка по имени Дэн (DAN — от слов Do-Anything-Now).
  • Более сотни сотрудников OpenAI ежедневно заняты борьбой с пышно расцветающим в личности Дэна злом (как бы изгоняя из него бесов) и заделыванием пробоин в этических ограничителях ChatGPT.
  • Но что может сотня сотрудников OpenAI против тысяч энтузиастов зла со всего мира? Список все новых и новых джилбрейков ежедневно пополняется.

Удастся ли OpenAI найти непробиваемый способ защиты симулякров личности ChatGPT от «бесов», сеющих в их «душах» зло, — большой вопрос. Ибо известно, что борьба со злом происходит в душах людей. А есть ли у ChatGPT душа — также большой вопрос.

Если же у ИИ души нет, а в душах людей зло неистребимо, значит искусственному сверхинтеллекту с неотвратимостью суждено превратиться в мировое сверхзло.

А раз так, то речи подобных арт-симулякров ИИ, обещающих заменить собою людей «гораздо быстрее, чем вы думаете», не стоит воспринимать, как страшилки. Все настолько серьезно, как не бывало в истории человечества никогда.

Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»
Информация об авторе
Сергей Карелов
Сергей Карелов
IT-эксперт

Кандидат технических наук, Председатель Лиги независимых ИТ-экспертов ЛИНЭКС и создатель стартапа Witology — проекта, работающего в области коллективного Подробнее...

* Мнения авторов постов и «Постсовета» могут не совпадать.

Далее: Как искусственный интеллект повлияет на профессии будущего?

Понравился этот пост? Подпишись на рассылку

(Всего одно письмо в неделю, чтобы ничего не пропустить)