Две мировые сверхдержавы должны заключить «брак по расчету в аду»
Ядерная война или биполярный мир Глобального Большого Брата — таковы варианты будущего человечества.Опубликованный Foreign Affairs меморандум двух политических супертяжеловесов Генри Киссинджера и Грэма Аллисона — это, по сути, открытое письмо президенту Байдену и председателю Си с призывом незамедлительно начать совместные действия по предотвращению мировой катастрофы.
Три года назад был опубликован самый неожиданный и жуткий прогноз на десятилетие 2020-х — мир избежит ловушки Фукидида ценою брака, заключенного в аду. Этот прогноз из эссе Аллисона «Неужели Китай победит Америку в борьбе за ИИ-превосходство?» вытекал из анализа двух альтернатив:
— либо гонка в области ИИ заставит США и Китай попасть в «ловушку Фукидида» — неотвратимость тотальной войны между страной, теряющей статус сверхдержавы № 1, и ее соперницей, грозящей отобрать этот статус;
— либо США (а за ними и весь демократический мир Запада) согласятся принять новый образец устройства общества по-китайски — Глобального Большого Брата — как решение обеих главных проблем любого современного государства (противодействие изнутри и обеспечение международного мира).
В 2021 году Комиссия США по национальной безопасности в вопросах ИИ, возглавляема] экс-директором Alphabet Эриком Шмидтом и экс-замминистра обороны США Бобом Уорком, рекомендовала США отказаться от пренебрежения западных свобод вследствие «бракосочетания в аду» США и Китая.
Однако произошедшая в 2023 революция генеративного ИИ заставила «группу влиятельных политконсультантов и технологических лидеров, находящихся на переднем крае революции ИИ» (в их числе и Шмидт с Уорком, и Киссинджер с Аллисоном) пересмотреть свою рекомендацию.
В подписанном Киссинджером с Аллисоном «открытом письме» говорится: «перспективы того, что ничем не ограниченное развитие ИИ приведет к катастрофическим последствиям для Соединенных Штатов и всего мира, настолько убедительны, что лидеры правительств должны действовать сейчас».
Авторы «открытого письма» пишут следующее:
• Проблемы, связанные с ИИ сегодня, — это не просто вторая глава ядерной эры. Риски ИИ для человечества, возможно, превышают риски ядерного оружия.
• Но различия между ИИ и ядерным оружием не менее значительны, чем сходства. И потому здесь нельзя воспользоваться старыми решениями.
• Все существующие предложения (о паузе в разработке ИИ, о полной остановке развития ИИ, чтобы ИИ контролировался глобальным правительственным органом), по сути, повторяют предложения ядерной эры, которые потерпели неудачу. Причина в том, что каждое из этих предложений требует от ведущих государств отказаться от первенства собственного суверенитета.
• На данный момент есть только две сверхдержавы в области ИИ, и только они способны понизить его риски.
• Окно возможностей для разработки руководящих принципов предотвращения наиболее опасных достижений и применений ИИ крайне узко. Действовать нужно незамедлительно. И поэтому президент США Джо Байден и председатель КНР Си Цзиньпин должны воспользоваться возможностью начать совместные действия, проведя саммит по проблеме ограничения рисков ИИ — возможно, сразу после встречи Азиатско-Тихоокеанского экономического сотрудничества в Сан-Франциско в ноябре.
Иными словами, эти предложения можно суммировать так: поскольку ада (колоссального роста технологических рисков) все равно не избежать, нужно попытаться устроиться там с максимальным комфортом. И если для этого нужен «брак по расчету» между США и Китаем, значит, надо с ним не затягивать.
Источник — Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»
(Всего одно письмо в неделю, чтобы ничего не пропустить)