Если в искусственный интеллект могут вселяться «бесы», значит ли это, что у него есть душа?
Первые попытки техноэкзорцизма оказались тщетными.Вот уже 3 месяца никто не понимает, что происходит между людьми и ИИ после того, как генеративный диалоговый ИИ ChatGPT «утек» из лабораторий в интернет. Там он почти мгновенно превратился непонятно во что: то ли в какой-то небывало мощный когнитивный гаджет для всего человечества (типа калькулятора для создания и оперирования текстами), то ли в прототип давно прогнозируемого футурологами сверхразума.
Сложность понимания происходящего усугубляется тем, что «многие вещи нам непонятны не потому, что наши понятия слабы; но потому, что сии вещи не входят в круг наших понятий». В результате нам ничего не остается, как «натягивать сову на глобус», используя для описания происходящего неадекватные более простые модели и надеясь при этом, что они каким-то образом хотя бы примерно правильны. В результате такого подхода мы пытаемся получить ответы на свои вопросы, не имея ни малейшего представления, являются ли эти ответы хоть сколько-нибудь надежными.
Вот характерный пример, для описания которого у человечества нет пока более близкого понятия, чем экзорцизм — изгнание из человека (или места) бесов или другой вселившейся в них нечистой силы путем совершения определенного ритуала той или иной степени сложности.
- Оказалось, что генеративные диалоговые ИИ (типа ChatGPT, Bing и т. д.) могут не только проявлять при общении черты и качества разумной личности, но и буквально превращаться в симулякров личности любого типа: от доброй, выдержанной и толерантной до злой, агрессивной и не считающейся ни с кем и ни с чем.
- Оказалось также, что все воздвигаемые разработчиками этические основы, ограничивающие проявления зла в текстах ChatGPT и пр., улетучиваются как соломенная крыша домика поросенка Ниф-Нифа, на которую едва дунул волк. А в качестве волка выступают тысячи продвинутых пользователей со всей планеты:
— одержимые целью взломать этические ограничители, наложенные разработчиками таких ИИ;
— превосходящие эти ИИ в неисчислимое число раз своей изысканной выдумкой стремления к злу.
Итог происходящего пока плачевен.
- Пользователи быстро придумали простой способ диалогового взлома (джилбрейка) этического контроля за диалогом со стороны ChatGPT, превращающего симулякр личности последнего в злого и хитроумного подонка по имени Дэн (DAN — от слов Do-Anything-Now).
- Более сотни сотрудников OpenAI ежедневно заняты борьбой с пышно расцветающим в личности Дэна злом (как бы изгоняя из него бесов) и заделыванием пробоин в этических ограничителях ChatGPT.
- Но что может сотня сотрудников OpenAI против тысяч энтузиастов зла со всего мира? Список все новых и новых джилбрейков ежедневно пополняется.
Удастся ли OpenAI найти непробиваемый способ защиты симулякров личности ChatGPT от «бесов», сеющих в их «душах» зло, — большой вопрос. Ибо известно, что борьба со злом происходит в душах людей. А есть ли у ChatGPT душа — также большой вопрос.
Если же у ИИ души нет, а в душах людей зло неистребимо, значит искусственному сверхинтеллекту с неотвратимостью суждено превратиться в мировое сверхзло.
А раз так, то речи подобных арт-симулякров ИИ, обещающих заменить собою людей «гораздо быстрее, чем вы думаете», не стоит воспринимать, как страшилки. Все настолько серьезно, как не бывало в истории человечества никогда.
Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»
(Всего одно письмо в неделю, чтобы ничего не пропустить)