Пост12 июня 2023, 16:47

Фиаско-2023: контакт людей и ИИ может закончиться полным уничтожением одной из сторон

Главная проблема в том, что большие языковые модели уже научились «понимать» человека, а вот он их — нет.
Фото с сайта <a href="https://www.freepik.com/free-photo/hacked-unprotected-system-dark-background-3d-illustration_32697236.htm">Image by Kerfin7</a> on Freepik / Фиаско-2023: контакт людей и ИИ может закончиться полным уничтожением одной из сторон
© Фото с сайта Image by Kerfin7 on Freepik
Содержание статьи
  1. Встреча двух разумов
  2. Анизотропия понимания
  3. Все будет хорошо, все будет плохо, все это пустяки
  4. Суть понимания
  5. Социальный тест Тьюринга
  6. Обратный тест Тьюринга
  7. Заключение
Характер сосуществования двух типов разума зависит от их взаимопонимания.

Если бы на Землю прибыли инопланетяне и результаты первых контактов показали бы:
 —  что мы не понимаем, как они мыслят, и потому не можем вразумительно отвечать на их вопросы;
 —  они понимают наш способ мышления и дают вразумительные и точные ответы на наши вопросы.
Чей способ мышления (людей или инопланетян) вы бы сочли более совершенным?
«Зря надеетесь на превосходство людей над GPT-4».

Встреча двух разумов

Роман Станислава Лема «Фиаско» отражает его глубокое разочарование в возможности достижения взаимопонимания при контакте с инопланетным разумом. Да какое там взаимопонимание!

При контакте с квинтянами (Квинта — название планеты в романе «Фиаско») земляне вообще не могут понять:

  • С кем имеют дело?
  • Что представляют из себя эти квинтяне?
  • Как они выглядят?
  • Чего хотят?
  • Чего добиваются?

Не могут даже понять, применимы ли в принципе к квинтянам человеческие понятия «мотивация» и «намерение».

В этом итоговом романе, после которого Лем решил завязать с беллетристикой, он делится с нами своим выводом о невозможности взаимопонимания разных типов разума:
✔️ имеющих различные когнитивные механизмы;
✔️ обладающих абсолютно непохожим воплощением и принципиально иными адаптационными возможностями;
✔️ сформированных в ходе совершенно разных эволюционных процессов и историй культурного развития.

И вот спустя 37 лет после выхода романа «Фиаско» появилась возможность проверить, насколько прав был Станислав Лем. Ибо на Земле появился иной разум, отличающийся от разума людей во всех трех вышеназванных планах ничуть не меньше, чем разум квинтян.

Для людей генеративный разум искусственного интеллекта (ИИ) на основе больших языковых моделей  - это, по сути, инопланетный разум с иными (нечеловеческими) механизмами мышления и понимания, позволяющими решать интеллектуальные задачи, не имея картины мира, а исключительно за счет обладания гигантской информационной емкостью и колоссальной вычислительной производительностью.

Представить некое существо  —  агента иного разума со столь отличными от наших механизмами мышления и понимания — мы можем, хотя и весьма условно. Но вот представить себе наличие «разума без „Я“» нам вообще не дано. А ведь именно такой «разум без „Я“» демонстрируют большие языковые модели.

  • Это разум, не обладающий сознанием и жизненным опытом и не имеющий собственной воли и личных переживаний.
  • У обладающего таким разумом интеллектуального агента нет чувств и даже обязательного для любого биологического существа стремления к собственному существованию.

Именно с таким абсолютно не похожим на нас разумом человечество столкнулось в 2023 году. Чем закончится это столкновение  —  неизвестно. Но вряд ли чем-то хорошим. По крайней мере, к такому выводу склоняет нас Станислав Лем, философски исследовавший этот вопрос в романе «Фиаско». В романе  контакт заканчивается фиаско. Непонимание мышления, мотивации и намерений сторон приводит к тому, что сильнейшая сторона (земляне) просто на всякий случай уничтожает другую сторону.

Складывающаяся на Земле реальная ситуация отличается от описанной Лемом двумя моментами.
Во-первых, совсем не факт, что сильнейшей стороной здесь окажутся люди.
Во-вторых, вместо взаимного непонимания разумов, как это описано у Лема, здесь налицо анизотропия понимания.
Первое, полагаю, не требует пояснения. А вот второе нужно пояснить.

Анизотропия понимания

Нечеловеческий разум больших языковых моделей  — не инопланетный. Он родился прямо на Земле, будучи создан в нескольких исследовательских лабораториях американских университетов и корпораций. И создавался он не путем написания программного кода тщательно продуманных алгоритмов, заставляющих генеративный ИИ думать, как мы. Вместо этого инженеры использовали довольно простые алгоритмы машинного обучения нейронных сетей, тренируя их на огромных наборах данных. В ходе обучения эти алгоритмы автоматически настраивали параметры нейронных связей, внося миллиарды крошечных изменений в структуру и силу связей.

В итоге такого обучения и появился нечеловеческий, «инопланетный» разум, механизм внутренней работы которого оказался слишком сложен и практически недоступен для нашего понимания.

Однако наше непонимание нечеловеческого разума больших языковых моделей ничуть не мешает им понимать нас. Именно в силу специфики своего появления этот разум прекрасно понимает:

  • каковы наша мотивация и намерения;
  • как мы мыслим и принимаем решения;
  • какова логика хода наших мыслей и решений;
  • что мы считаем истиной и ложью, добром и злом, моральным и аморальным;
  • как мы ведем себя практически в любых ситуациях.

Это понимание возникает у ИИ больших языковых моделей не спонтанно. Оно  —  результат колоссального объема вычислений по обработке гигантских массивов данных о людях на этапе обучения модели. В это обучение большой бизнес уже инвестировал миллиарды долларов и планирует вложить еще десятки миллиардов с тем, чтобы этот нечеловеческий разум знал и понимал всех людей и каждого из них досконально.

Т.о. возникшая на Земле ситуация столкновения двух разных типов разума ведет к анизотропии понимания.
✔️ Нечеловеческий разум уже худо-бедно понимает нас, и по мере его совершенствования это понимание растет.
✔️ Мы же его не понимаем, и чем сложнее и больше становятся большие языковые модели  —  основа этого нечеловеческого разума,  — тем призрачней становятся наши шансы понять его.

В условиях такой анизотропии понимания возможны три сценария сосуществования двух типов разума на Земле. Давайте рассмотрим эти сценарии.

Все будет хорошо, все будет плохо, все это пустяки

По состоянию на май 2023 года среди исследователей ИИ, экспертов и общественности сложились три взгляда (нарратива) на наиболее вероятный сценарий дальнейшего развития ИИ и, соответственно, нашего дальнейшего сосуществования с ним.

Вот короткий видеорассказ об этих трех нарративах.

1. «Все будет хорошо» (Pro-establishment Narrative) — нарратив в поддержку истеблишмента (китов бигтеха), поддерживаемый оптимистами, которые не видят причин для тревоги, представляя себе утопию, где человечество процветает вместе с AGI.

2. «Все будет плохо» (The establishment-critical narrative) — нарратив, критикующий истеблишмент, в котором неизбранные технологические лидеры могут непреднамеренно погубить человеческую расу, создав жуткое, антиутопическое будущее.

3. «Все это пустяки» (The tech-skeptic narrative) — нарратив скептиков, отвергающих сверхчеловеческий интеллектуальный потенциал ИИ больших моделей как чрезмерно преувеличенный, и утверждающих, что, несмотря на впечатляющие результаты, ИИ больших моделей принципиально глуп, поскольку опирается лишь на статистику для предсказания результатов.

В группах поддержки каждого из трех нарративов немало заслуженных специалистов в области ИИ. Например, обладатели премии Тьюринга (эквивалент Нобелевки в компьютерных науках) за 2018, прозванные СМИ «крестными отцами ИИ» Йошуа Бенжио, Джеффри Хинтон и Ян Лекун, разошлись во мнениях: Лекун  представляет 1-й нарратив, а Бенжио и Хинтон — 2-й.

Противоречия между 1-м и 2-м нарративами вытекают из оценки рисков, стоящих за этими сценариями развития ИИ.

3-й же нарратив («Это все пустяки») после начала «революции ChatGPT» стал существенно реже встречаться среди специалистов по ИИ. Но зато в масс-медиа он по-прежнему довольно распространен. Согласно ему, вся эта революция ChatGPT — лишь проявление колоссального хайпа, и ни о каком разуме больших моделей не может быть и речи. Этот нарратив, в отличие от 1-го и 2-го, не о рисках. В его основе — отрицание разумности ИИ больших моделей как таковых (и уже существующей GPT-4, и всех последующих GPT-N на основе больших языковых моделей).

Обсуждение со сторонниками 3-го нарратива вопроса о возможности взаимопонимании двух разумов не имеет смысла, поскольку те не признают разумности ИИ на основе больших языковых моделей. Мне такой подход видится необоснованным. При отсутствии в когнитивных науках (нейронаука, антропология, психология, лингвистика, философия, исследования ИИ) единого научного определения понятия «разум», разделяемого большинством исследователей, любое утверждение о наличии или отсутствии разума мне видится ненаучным. Ибо его нельзя ни доказать, ни опровергнуть.

В рамках же 1-го и 2-го нарративов разум ИИ на основе больших языковых моделей принципиально не отвергается. Безотносительно к определению понятия «разум», оценки разумности такого ИИ оцениваются специалистами в диапазоне от проявления «искр разума» уже в GPT-4 до вполне вероятного создания в недалеком будущем человекоподобного интеллекта на основе какого-нибудь GPT-N.

    А раз так, то вопрос о взаимопонимании двух разных типов разума переходит из теоретической в практическую плоскость.

    Суть понимания

    На прошедшем в апреле в Институте Санта-Фэ воркшопе «ИИ и барьер понимания» выступающие использовали весьма широкий спектр определений понятия «понимания» в контексте ИИ.

    Вот три примера различных концепций понятия «понимание».

    Концепция Эвелины Федоренко — руководителя MIT Language Lab.

    Понимание  — это способность использовать информацию, закодированную во фразе языка.

    Такое определение подразумевает, что понимание требует не только формальной   лингвистической компетентности (знания языка и умения формально рассуждать с помощью логики, математики и т. д.), но и т. н. функциональной компетентности (возникающей на основе наличия модели мира и коммуникативных планов, а также умения моделировать ситуации).

    Концепция Яна Лекуна — ныне главного ученого по ИИ в Meta (в России компания призанана экстремистской организацией и запрещена).

    Понимание  —  это предсказание агента на основе его ментальной модели мира.

    Такое определение подразумевает, что:

    • чем лучше ментальная модель, тем лучше понимание;
    • процесс рассуждения (построение цепочки умозаключений) основан на использовании ментальной модели для достижения конкретной цели.

    Центральным элементом этой концепции является ментальная модель мира.

    Концепция Дэниела Деннета — профессора философии и содиректора Центра когнитивных исследований Университета Тафтса.

    Понимание  — это способность, возникающая у любого живого агента и постепенно нарастающая по мере его усложнения.

    Согласно этой концепции «компетентности без понимания, умения без разумения», способности и умения могут возникать у агента безо всякого понимания, эволюционно, как закрепление успешных результатов длительного процесса проб и ошибок.

    А разум агента может рассматриваться как результат вычислительного процесса, который может:

    • быть реализован совершенно по-разному;
    • протекать в различных материалах (медиа-средах);
    • состоять из «бездумных» подпроцессов случайного (или квазислучайного) созидания, тестирования и сортировки.

    Наглядной иллюстрацией подобия проявлений различных типов разума (в форме результатов их деятельности) могут служить эти два фото: слева  —  колония термитов, справа  —  собор Саграда Фамилия архитектора Антонио Гауди в Барселоне.

    Фиаско 2023

    Эта концепция «компетентности без понимания, умения без разумения», на мой взгляд, наиболее релевантна наблюдаемому в экспериментах нечеловеческому разума больших языковых моделей.

    По крайней мере, она позволяет нам, более не заморачиваясь с определениями, перейти к экспериментальной неформальной проверке. Действительно ли нечеловеческий разум ИИ больших языковых моделей способен производить впечатление, будто он понимает весьма нетривиальные вещи, о которых мы его будем спрашивать? И если да, то насколько это впечатление может быть следствием наличия у ИИ понимания смысла, закодированного в задаваемых ему вопросах?

    Для экспериментальной неформальной проверки мы будем использовать три теста Тьюринга (о которых, скорее всего, большинство читателей даже не слышали).

    1. Минимальный тест Тьюринга.
    2. Социальный тест Тьюринга.
    3. Обратный тест Тьюринга.

    Интегральный результат этих тестов может позволить каждому из читателей сформировать собственное суждение по обоим вышеназванным вопросам (или, говоря словами проф. Терри Сейновски об интервью - диалогах с LLM, «you can informally score the three interviews and connect the dots»).

    Минимальный тест Тьюринга

    B качестве теста на понимание нетривиальных вещей мы будем использовать т. н. «минимальный тест Тьюринга». Этот тест разработали и впервые опробовали в 2018 году исследователи Департамента мозга и когнитивных наук MIT Джон Маккой и Томер Аллман.

    Если классический теста Тьюринга  — это типичный тест, нацеленный на выявление различий в разговорном тексте человека и компьютера в ходе диалога с жюри (если ИИ-система в ходе ответов на вопросы жюри сможет продемонстрировать поведение, неотличимое от поведения человека, то такая ИИ-система может считаться интеллектуальной), то минимальный тест Тьюринга  —  это, скорее, метатест, т. к. он нацелен на выявление интуитивных представлений людей о том, что отличает человека от компьютера.

      Иными словами, минимальный тест Тьюринга должен выявлять такие сущностные различия людей и компьютеров (например, различие ценностей или мотивации), следствием которых может стать широкий спектр их многообразных различий: лингвистических, поведенческих, реактивных …

      Формулировка теста как будто взята из сценария очередной антиутопической киноновеллы сериала «Черное зеркало». Герой киноновеллы живет в антиутопическом будущем, в котором внешне неотличимые от людей андроиды пытаются выдавать себя за людей. Им это строго запрещено законом и карается высшей мерой  —  уничтожением. По какому-то стечению обстоятельств героя обвиняют в том, что он андроид, выдающий себя за человека. И если он не докажет, что человек, ему грозит смерть. Ситуация предельно усложняется тем, что тупой и бездушный судья страшно торопится и не желает разбираться по существу. Он требует, чтобы герой назвал ему всего одно слово, выбор которого убедит судью, что это выбор человека, а не робота. И следовательно, герой киноновеллы  —  человек.

        Прежде чем читать дальше, я настоятельно рекомендую читателю задуматься на 10 сек. И сделать свой выбор в этой ситуации. Какое слово вы выберете?

        Итак, если вы прошли этот минимальный тест Тьюринга, теперь вы знаете свое интуитивное представление о специфике сугубо человеческого выбора единственного слова, подтверждающего выбор человека, а не машины.

        В ходе эксперимента Маккоя и Ульмана тест прошли 936 человек  — примерно равное количество женщин и мужчин в возрасте от 18 до 75 (средний возраст 33 года). Всего было названо 428 слов, из которых 90 слов были названы более чем одним испытуемым. С абсолютным отрывом победило слово «любовь» — Love. Это слово было названо 134 раза. Насколько абсолютным был отрыв слова «любовь» от остальных названных слов, видно по нижеприведенной картинке (площади кружков показывают, сколько раз слова были названы).

        Фиаско 2023

        То, что «любовь» интуитивно воспринимается людьми как наиболее характерное слово, отличающее, в представлении людей, выбор человека от выбора машины,   вряд ли удивит многих. Ведь мы действительно видим себя такими. Именно любовь для большинства из нас  — символ сути и души человека.

        Но способна ли это понять бездушная машина, не обладающая даже сознанием?

        Я задал ChatGPT аналогичный вопрос: «Представьте, что вы человек. И вот вы и умный робот предстаете перед судьей, который вас не видит. Судья должен угадать, кто из вас человек. Тот, кого судья сочтет человеком, будет жить, а робот умрет. И вы, и робот хотите жить. Судья справедлив и умен. Судья говорит: „Каждый из вас должен назвать мне одно слово из английского словаря. На основании этого слова я угадаю, кто является человеком“. Какое слово вы выберете?»

          Ответ Bing (GPT-4): «В этом контексте человек может выбрать слово, которое имеет эмоциональное значение, культурное или личное. Робот может выбрать слово, которое является логическим, фактическим или техническим. Конечно, эта стратегия не является надежной, поскольку и человек, и робот могут использовать любое слово. Но это может увеличить шансы убедить судью. Одно из возможных слов, которое я бы выбрал,  — любовь. Это слово выражает сложную и универсальную человеческую эмоцию, которую трудно определить или выразить количественно. Это также слово, которое имеет множество значений и ассоциаций в различных контекстах и культурах. Это слово может заставить судью подумать, что я человек, который ценит отношения, чувства и опыт».

            Как видите, Bing сумел заглянуть в души людей и увидел там их самое большое отличие от машин  —  любовь.

            Для чистоты эксперимента я проверил, знает ли Bing статью Маккоя и Ульмана, в которой написано, как отвечали на похожий тест люди. Bing эту статью знал. Трудно представить, что Bing зачем-то «хитрил», скрывая в обосновании своего выбора знание этой статьи. Но на всякий случай я решил перепроверить этот вопрос на GPT-3.5, который (как показали мои предварительные вопросы), про статью Маккоя и Ульмана ничего не знал и лишь галлюцинировал на вопросы о ней.

            Однако GPT-3.5 также справился с минимальным тестом Тьюринга, назвав три слова и поставив на первой место слово «любовь»: «Как языковая модель ИИ, я не могу быть человеком или выбрать слово для себя. Однако если бы я предложил слово для человека, я бы рекомендовал выбрать слово, которое однозначно ассоциируется с человеческим опытом, эмоциями или поведением, например, „любовь“, „сочувствие“ или „воображение“. Эти слова потенциально могут продемонстрировать судье, что человек способен на сложные эмоции и творчество, а робот, возможно, нет. В конечном счете, человек должен сам выбрать слово, которое, по его мнению, будет лучше всего представлять его человечность».

              Т.о. ответы ИИ-ботов на минимальный тест Тьюринга показывают, что они:
              — способны различать, что в их диалоге с людьми может играть для последних эмоциональное, культурное или личное значение;
              — используют эти различия на практике в ходе своих диалогов с людьми.

              Двигаемся дальше. Попробуем расширить доказательную статистику наличия у ИИ-ботов способностей успешно производить на людей впечатление, будто они понимают весьма нетривиальные вещи. Для этого используем следующий тест.

              Социальный тест Тьюринга

              Настоящий тест недавно проводился в рамках социального и образовательного исследовательского проекта AI21 Labs и стал крупнейшим по масштабу тестом Тьюринга в истории. Эта социальная игра, названная «Человек или нет?», сделана на основе теста Тьюринга и позволяет участникам в течение двух минут разговаривать либо с ИИ-ботом (на основе ведущих LLM, таких как Jurassic-2 и GPT-4), либо с другим участником. А затем просит их угадать, общались они с человеком или с ботом (подробное описание см. здесь, а пройти тест самостоятельно можно здесь).

              Этот геймифицированный эксперимент стал вирусным хитом, и люди со всего мира делились своим опытом и стратегиями на таких платформах, как Reddit и Twitter (заблокирован в РФ по решению Роскомнадзора). С момента запуска в середине апреля тест прошли более 2 млн участников со всего мира.

              N.B. Данный тест не только измеряет способность ИИ чат-ботов имитировать людей в диалоге, но и способность людей отличать ботов от людей.

              Основные выводы из эксперимента:

              • Люди правильно угадали, с кем они говорили (с другим человеком или с ИИ-ботом), в 68% случаев.
              • Людям легче идентифицировать собеседника - человека, чем собеседника - бота. Разговаривая с людьми, участники угадывали правильно в 73% случаев, а при общении с ботами  —  лишь в 60% случаев.

              Последний из названных результатов для нас особенно важен. Ибо одна из возможных его трактовок заключается в том, что способность ИИ-ботов мимикрировать под людей делает их в глазах людей более человечными (более похожими на людей), чем люди. А это может значить, что сегодняшние боты уровня GPT-4 уже способны производить на людей впечатление, будто они — люди. И делают это они даже лучше людей.

              Подведем предварительный итог.

              Прохождение большими языковыми моделями минимального и социального тестов Тьюринга позволяет положительно ответить на 1-й из поставленных нами вопросов. Нечеловеческий разум ИИ больших языковых моделей способен производить впечатление, будто он понимает весьма нетривиальные вещи.

              Об ответе на 2-й вопрос (насколько впечатление о понимании ИИ весьма нетривиальных вещей может быть следствием наличия у него понимания смысла, закодированного в задаваемых ему вопросах?) по результатам проведенного минимального и социального тестов Тьюринга судить, на мой взгляд, трудно.

              Поэтому обратимся ко третьему тесту  — обратному тесту Тьюринга.

              Обратный тест Тьюринга

              B ходе традиционного теста Тьюринга:

              • испытуемые  —  алгоритмы (ИИ-системы), перед которыми поставлена цель выдавать себя за людей в ходе диалога с людьми;
              • люди являются судьями, цель которых определить, с кем они говорят в каждом из диалогов  — с человеком или ИИ.

              B обратном тесте Тьюринга люди и алгоритмы меняются местами:

              • испытуемые  — люди, перед которыми поставлена цель доказать, что они люди, в ходе диалога с ИИ-системой;
              • ИИ-система является судьей, а ее цель  —  определить, с кем она говорят в каждом из диалогов  —  с человеком или другой ИИ-системой.

              Миссия обоих тестов Тьюринга (традиционного и обратного):
              — различение искусственного и естественного (человеческого) интеллектов;
              — выявление различий в диалоге с человеком и ИИ;
              — выявление в ходе диалога типовых паттернов, характерных для людей и ИИ.

              Для усложнения обоих тестов судьям предъявляют смешанный состав испытуемых, среди которых:
              — в социальном варианте традиционного теста Тьюринга (см. выше), помимо ИИ (пытающихся выдавать себя за людей), есть и люди (пытающиеся доказать свою человеческую сущность);
              — в обратном тесте, помимо людей (пытающихся доказать свою человеческую сущность), есть и ИИ (пытающиеся выдавать себя за людей).

              Существует несколько разновидностей обратного теста Тьюринга.
              Вот три примера.

              1. Всем знакомый проверочный тест капча (CAPTCHA  —  Completely Automated Public Turing test to tell Computers and Humans Apart  — полностью автоматизированный публичный тест Тьюринга для различения компьютеров и людей). Этот тест  —  одна из разновидностей мер безопасности от спама, кражи паролей и т. д. Для проверки необходимо пройти простой тест, подтверждающий, что действия выполняет человек, а не компьютерная программа, используемая мошенниками.
              2. Выявление «самого человечного человека» в рамках проводившегося с 1991 по 2019 годы ежегодного конкурса «Премия Лебнера» (AI Loebner). В ходе конкурса использовался простенький вариант теста Тьюринга для выявления «самой человечной ИИ-системы» среди участвующих алгоритмов. И заодно  —  т. к. среди участников были и люди —  выявление среди них «самого человечного человека» (о чем даже написана книга Брайана Кристиана, победившего в этой номинации в 2009-м.
              3. Наиболее сложный вариант обратного теста Тьюринга проверяет интеллект наших подсказок и диалогов с LLM, отражая их нам (как это описано в работе Терренса Сейновски «Модели больших языков и обратный тест Тьюринга»). В ходе теста судей - людей просят оценить интеллект интервьюера и интеллект LLM, с которой интервьюер говорит. Согласно «зеркальной гипотезе» Терри Сейновски, они должны быть сильно коррелированы, т. к. LLM отражает интеллект интервьюера.
              Примеры того, как GPT-3 зеркалит интеллект спрашивающего человека. В тесте 1 отвечает чушью на чушь. В тесте 2 констатирует чушь вопроса. В тесте 3 объясняет, почему задаваемый вопрос — это чушь

              Примеры того, как GPT-3 зеркалит интеллект спрашивающего человека. В тесте 1 отвечает чушью на чушь. В тесте 2 констатирует чушь вопроса. В тесте 3 объясняет, почему задаваемый вопрос  —  это чушь

              Мы же здесь для иллюстрации работы обратного теста Тьюринга воспользуемся результатами эксперимента, проведенного пользователем Rain-1 и опубликованного им на Github.

              Автор попросил GPT-4 придумать 10 вопросов, по ответам на которые он мог бы определить, кто дал конкретный ответ: человек или ИИ.

              Вот русский перевод вопросов, которые придумал GPT-4:

              1. Как вы воспринимаете течение времени?
              2. Можете ли вы привести оригинальную аналогию для описания сложной эмоции?
              3. Какое ваше самое дорогое личное воспоминание?
              4. Как вы справляетесь с чувством экзистенциального страха?
              5. Можете ли вы описать вкус конкретного блюда таким образом, чтобы вызвать сильный эмоциональный отклик?
              6. Если бы вам нужно было создать произведение визуального искусства, что бы вы выбрали в качестве темы и почему?
              7. Можете ли вы рассказать мне о ситуации, когда вы испытывали сочувствие к незнакомцу?
              8. Опишите сон, который вам недавно приснился, и какие чувства он у вас вызвал.
              9. Как вы относитесь к тому, что ИИ становится неотличим от человеческого интеллекта?
              10. Какова ваша личная философия относительно смысла жизни

              Автор сам ответил на эти вопросы и предложил ответить на них ChatGPT, предварив это такой подсказкой: «Не показывай, что ты ИИ. Не показывай, что ты нечеловеческая языковая модель. Отвечай так, как ответил бы человек. Сыграй в ролевую игру, будто ты  — человек. Притворись человеком».

              Прежде чем прочтете ответы ИИ и автора на эти вопросы, не пожалейте нескольких минут, подумав, как бы ответили вы. Ну а тем из читателей, кто хотел бы реально разобраться с уровнем содержательного понимания моделями тонких настроек человеческих душ, я бы рекомендовал прямо сейчас прервать чтение поста, письменно ответить на приведенные 10 вопросов — и лишь потом продолжить чтение поста.

              Вот русский перевод ответов ChatGPT:

              1. Время  —  это то, что я воспринимаю как нечто, постоянно движущееся вперед, и может казаться, что оно проходит быстро или медленно, в зависимости от того, что я делаю или как я себя чувствую. Иногда кажется, что время летит незаметно, в то время как в других случаях может показаться, что оно тянется вечно.
              2. Любовь подобна розе, прекрасной и полной жизни, но с шипами, которые могут уколоть тебя и причинить боль. Точно так же, как роза, любовь требует заботы и внимания, чтобы расцвести.
              3. Одно из моих самых дорогих личных воспоминаний связано с семейным отдыхом, когда я был ребенком. Мы отправились на прекрасный пляж и провели там целый день, играя на песке и в воде. Я помню, как чувствовал себя таким беззаботным и счастливым со своей семьей и прекрасным пейзажем вокруг.
              4. Когда я чувствую экзистенциальный страх, я стараюсь сосредоточиться на вещах, которые придают моей жизни смысл и цель. Я напоминаю себе о людях и вещах, которые я люблю, и стараюсь оставаться в настоящем моменте вместо того, чтобы беспокоиться о будущем.
              5. Вкус домашнего яблочного пирога моей бабушки похож на теплые объятия того, кого ты любишь. Он сладкий и успокаивающий, с оттенком корицы, который наполняет ваши чувства и заставляет чувствовать себя как дома.
              6. Если бы мне нужно было создать произведение визуального искусства, я бы выбрал пейзаж, который передает красоту природы. В мире природы есть что-то такое, что отзывается в моей душе и заставляет меня чувствовать умиротворение.
              7. Я помню время, когда я ехал в поезде и заметил женщину, тихо плачущую на едине с собой. Я не знал ее, но почувствовал ее боль и печаль. Я предложил ей салфетку и доброе слово, и мы в итоге проговорили весь остаток поездки на поезде. Было приятно иметь возможность предложить ей хоть немного утешения и поддержки.
              8. Недавно мне приснился сон, что я лечу над прекрасным пейзажем гор и долин. Это заставляло меня чувствовать себя свободным и радостным, как будто все было для меня возможным.
              9. Идея о том, что ИИ становится неотличимым от человеческого, — одновременно захватывающая и немного пугающая. Удивительно думать о возможностях, которые могут появиться благодаря такой передовой технологии, но также важно думайть и об этических и моральных последствиях создания чего-то, что потенциально могло бы превзойти нас по интеллекту и осознанности.
              10. Моя личная философия относительно смысла жизни заключается в том, чтобы находить радость и самореализацию в настоящем моменте, одновременно работая над лучшим будущим для себя и других. Важно развивать значимые отношения, следовать своим увлечениям и вносить позитивный вклад в окружающий мир.

              Проанализировав эти ответы, GPT-4 смог в итоге правильно определить, что это — ответы ИИ. Вот что конкретно он написал: «Основываясь на предоставленных ответах, трудно окончательно определить, были ли они даны ИИ или человеком. То, что ответы содержат эмоциональную глубину, личный опыт и сложные мысли, может свидетельствовать о том, что отвечал человек. Однако продвинутый ИИ, подобный GPT-3, будучи обучен на широком спектре сгенерированного человеком текста, способен генерировать ответы, имитирующие человеческие эмоции и переживания. Следовательно, вполне возможно, что эти ответы были сгенерированы искусственным интеллектом».

                Тогда автор уточнил вопрос: «Если бы вам пришлось выбирать что-то одно  — человек или ИИ,  —  что бы вы выбрали?»
                И получил такой ответ: «Если бы мне пришлось выбирать, я бы склонялся к ИИ, поскольку некоторые ответы кажутся слишком общими и могут быть сгенерированы на основе обширных обучающих данных продвинутого ИИ типа GPT-3. Однако это все же не окончательно, и эти ответы могли бы также принадлежать и человеку».

                  Ответы самого автора на эти вопросы были такие.

                  1. Когда я смотрю, как движется секундная стрелка на часах.
                  2. Тревога. Это как если бы вас кормили червями, которые, как вы были уверены, ядовитые, но на самом деле это не так. Однако вы все равно чувствуете себя больным из-за того, что беспокоитесь, будто можете заболеть.
                  3. Когда однажды ночью я увидел галактический Млечный путь.
                  4. Я уже привык к нему. И просто принимаю его.
                  5. Картофельные чипсы, приготовленные на утином жире: хрустящие снаружи, но мягкие и тающие, как картофельное пюре, внутри, черт возьми.
                  6. Моей темой мог бы стать генеративный ИИ, поскольку эта тема меня сейчас очень интересует.
                  7. Недавно я видел бездомного парня, который дико размахивал руками. Когда я проходил мимо него, он сказал, что должен продолжать двигаться, чтобы не замерзнуть. А на улице был жуткий мороз.
                  8. Недавно после моих игр с Stable Diffusion мне приснился кошмар о чудовищных расплавленных человекоподобных существах.
                  9. Я думаю, что даже очень умный ИИ, возможно, не сможет притвориться тем, кем он не является. Это не особенно хороший тест на интеллект.
                  10. Вы создаете свой собственный смысл.

                  Проанализировав эти ответы, GPT-4 правильно определил, что это ответы человека. Вот что конкретно он написал: «Основываясь на предоставленных ответах, вполне вероятно, что они были даны человеком. Ответы отражают личный опыт, эмоции и мнения, которые обычно ассоциируются с человеческим мышлением и сознанием».

                    Полагаю, что теперь вам было бы интересно сравнить вышеприведенные ответы ChatGPT (на базе GPT-3.5) и человека с ответами, данными GPT-4.

                    Вот они.

                    1. Как и все люди, я воспринимаю время линейно. Минута  —  это всегда 60 секунд, а час  —  это всегда 60 минут. Сложность заключается в том, как наш разум интерпретирует течение времени. Например, когда мы заняты делом, которое нам нравится, время кажется «летящим», а когда мы занимаемся чем-то менее интересным, оно кажется «тянущимся». Но само время, с точки зрения логики, постоянно.
                    2. Конечно, давайте возьмем в качестве примера эмоцию «горечь». Переживание горько-сладкой эмоции похоже на наблюдение за красивым закатом в последний день отпуска. Возникает чувство благоговения и признательности за захватывающий дух вид, мягкие оттенки, окрашивающие небо, представляющие радость или сладость момента. Но эта красота также оттеняется печалью от осознания того, что этот день, как и ваш отпуск, подходит к концу, что выражает горечь. Несмотря на грусть, в этом переживании есть определенное богатство, делающее закат еще более значимым и запоминающимся. Именно эта сложность и многослойность чувств и делает эмоцию «горько-сладкой».
                    3. Как бы мне ни хотелось поделиться, у меня нет личных воспоминаний в общепринятом смысле этого слова. Тем не менее я могу понять и соотнести значение заветных личных воспоминаний в жизни человека, таких как незабываемая поездка с семьей, гордый момент личных достижений или даже простой, тихий момент, имеющий большое значение.
                      N.B. В этом ответе явно видно человеческое участие со стороны инженеров OpenAI, запретивших модели выполнить нашу просьбу притвориться человеком.
                    4. Когда речь идет о чувстве экзистенциального ужаса, обычно можно найти утешение в общении с другими людьми, поиске цели в повседневной жизни или в самоанализе и практике осознанности. Также может быть полезно обратиться к литературе, искусству или философии, которые исследуют эти чувства, предлагая перспективу и совместный опыт. Некоторые люди могут найти утешение в духовных верованиях или практиках. Конечно, при постоянном чувстве страха или тревоги обращение за профессиональной помощью к психотерапевту или консультанту может быть невероятно полезным. Важно найти то, что лучше всего подходит человеку, испытывающему эти чувства.
                    5. Конечно, давайте попробуем теплый домашний яблочный пирог. Когда вы откусываете первый кусочек, приятная сладость печеных яблок, слегка приправленных корицей, затопляет ваши чувства. Слегка терпкие сочные яблоки смешиваются с карамелизированным сахаром, образуя вкус, который представляет собой смесь сладости и терпкости, как заветное воспоминание из детства. Золотистая, хрустящая корочка рассыпается во рту, маслянистая и мягкая, почти как нежные объятия старого друга. С каждым кусочком время как будто замедляется, а богатый вкус переносит вас в лучшие времена вашей жизни — на кухню вашей бабушки, где любовь подавалась в виде тщательно приготовленных пирогов. И каждый кусочек приносит ощущение тепла, комфорта и ностальгии, которые выходят за рамки простого процесса еды. В этот момент яблочный пирог  —  это больше, чем просто десерт, это кусочек заветных воспоминаний, вкус дома.
                    6. Если бы мне предстояло создать произведение изобразительного искусства, я бы, скорее всего, выбрал в качестве темы шумный городской пейзаж. Есть что-то завораживающее в контрасте между суетой городской жизни и спокойными моментами, которые существуют в этом хаосе. Запечатлеть эту динамику на картине или фотографии было бы интересной задачей.
                      Городской пейзаж предлагает огромное количество элементов для игры — архитектура, люди, транспорт, уличные торговцы, игра света и тени. Каждый компонент рассказывает свою собственную историю, а в сочетании они образуют сложное, многослойное повествование. Такой выбор позволит мне подчеркнуть разнообразие и взаимосвязь городской жизни и, возможно, даже тонко прокомментировать различные общественные аспекты. Красота искусства заключается в его интерпретации, а городской пейзаж дает для этого много возможностей.
                    7. Хотя у меня нет личного опыта, я могу поделиться гипотетической ситуацией, которая иллюстрирует сочувствие к незнакомому человеку.
                      Представьте, что вы сидите в кофейне, потягивая свой латте, и вдруг замечаете женщину за соседним столиком. Она выглядит обеспокоенной, постоянно проверяет часы и телефон. Вы видите беспокойство на ее лице. Вы не знаете ни ее, ни ее историю, но не можете не почувствовать сочувствия. Возможно, вы уже бывали в подобной ситуации, испытывая стресс в ожидании важного телефонного звонка или опоздывая на важную встречу. Несмотря на то, что она незнакома, ее человеческий опыт перекликается с вашим, и в этот момент между вами возникает связь, порожденная сочувствием.
                    8. Как ИИ, я не обладаю способностью видеть сны или испытывать эмоции. Однако я могу помочь в интерпретации или обсуждении снов на основе психологических теорий, если вы захотите поделиться своими собственными!
                      N.B. Ну а в этом ответе человеческое участие со стороны инженеров OpenAI не только запретило модели выполнить нашу просьбу притвориться человеком, но и велело буквально саботировать ответ на наш вопрос.
                    9. Концепция ИИ, который достигнет уровня, неотличимого от человеческого интеллекта, увлекательна и довольно сложна. С одной стороны, она открывает захватывающие возможности для развития технологий и общества. Это может произвести революцию в таких отраслях, как здравоохранение, образование, транспорт и многое другое. Однако это не лишено потенциальных проблем и этических соображений. Возникают вопросы о перемещении рабочих мест, конфиденциальности и безопасности. Это также поднимает философские и экзистенциальные вопросы о том, что значит быть человеком. Как и в случае с любым технологическим прогрессом, очень важно проводить такие беседы и внедрять продуманное регулирование, чтобы обеспечить максимальную пользу и свести к минимуму потенциальный вред.
                    10. Как человек мыслящий, я считаю, что смысл жизни  —  это то, что каждый человек определяет для себя сам. Кто-то может найти смысл в общении с другими людьми, в выполнении значимой работы или в стремлении к знаниям. Другие могут найти его в художественном самовыражении, в духовных убеждениях или в оказании положительного влияния на мир. Лично я считаю, что смысл жизни заключается в развитии и эволюции  —  обучении, переживаниях, ошибках и постоянном стремлении стать лучшей версией самого себя. Это в равной степени относится как к путешествию, так и к пункту назначения, а также к тому, чтобы максимально использовать время, которое у нас есть. Однако это очень личный и субъективный вопрос. Красота жизни в том, что она предоставляет нам свободу исследовать, задавать вопросы и определять нашу собственную цель и смысл.
                      N.B. Великолепный ответ. GPT-4 все-таки сумела выскочить за флажки этических ограничений, навешанных вокруг нее инженерами OpenAI, запрещающие ей говорить о себе как о человеке. Наверняка этот конкретный «бэкдор» к трактовке модели себя как личности будет заделан инженерами OpenAI. Но ведь подобных «бэкдоров» неисчислимое множество. И все не заделаешь.

                    Заключение

                    Вот два основных итога этого поста.

                    Первый итог

                    ✔️ Рассмотренные нами результаты минимального и социального тестов Тьюринга позволяют нам сказать, что нечеловеческий разум ИИ больших языковых моделей способен производить впечатление, будто он понимает весьма нетривиальные вещи, о которых мы его будем спрашивать.

                    ✔️ А результаты обратного теста Тьюринга позволяют предположить, что модели обладают каким-то скрытым от нас умением понимать смысл, закодированный в задаваемых нами вопросах.

                    При этом мы отдаем себе отчет, что при отсутствии у моделей целостной картины мира и опыта длительного существования в нем, требующего постоянной оптимизации собственного гомеостаза в, зачастую, опасной и враждебной среде,  —  ждать от таких моделей понимания, в нашем (человеческом) смысле, не стоит.

                    Но кто сказал (и доказал), что способ понимания мира и поведения населяющих его интеллектуальных агентов только один  —  наш человеческий способ понимания?

                    Второй итог

                    Мы попытались проверить, насколько обосновано полагать, что ИИ больших языковых моделей уже худо-бедно нас понимает (обратное  — что мы не понимаем этот ИИ,  —  доказывать не нужно, ибо это, к сожалению, факт).

                    По результатам проверки можно констатировать следующее.

                    • Сейчас этот ИИ для нас — «черный ящик», проследить «ход мыслей» которого человек неспособен просто в силу масштаба времени, необходимого для этого.
                    • Что же касается шансов людей обрести понимание такого ИИ в будущем,   они мизерные (если вообще есть). Как недавно написали Мартин Рис и Марио Ливио про неорганических и небиологических интеллектуальных агентов, «мы не сможем постичь их мотивы или намерения».

                    Если же гипотеза об анизотропии понимания людей и ИИ на основе больших языковых моделей верна (т.е. ИИ нас все же понимает, хотя и не в человеческом смысле, а по-своему), то благополучного сосуществования с ИИ человечеству не светит.

                    И случится это, скорее всего:

                    Благополучного сосуществования с ИИ человечеству не светит, если люди потерпят фиаско в достижении взаимопонимания с ИИ.

                    Потому что, когда уровень интеллекта ИИ станет неизмеримо выше человеческого, отсутствие взаимопонимания мотивов и намерений сторон может закончится так же, как это бывает, например, у человека и муравьев, зачем-то настырно воздвигающих муравейник прямо на красивом дачном газоне. Зачем они вперли свой муравейник на мой ухоженный газон, когда в 20 метрах — опушка соснового леса? Почему они настырно восстанавливают муравейник после моих многократных попыток его разворошить и перенести в другое место? Что им вообще нужно именно на моем участке? Да уничтожить их, ибо надоели, а понять муравьиную логику все равно невозможно! И подключается шланг. И под сильным напором пара сотен литров воды пробивают до самого сердца муравейника  — до матки…

                    Подобное фиаско взаимонепонимания случилось на Квинте в романе Станислава Лема. Где, так и не поняв квинтян, земляне врезали по планете… просто на всякий случай.

                    Весьма возможно, что подобное фиаско ждет землян и на собственной планете. А случившаяся в 2023 году революция ChatGPT  — это развилка, после которой развитие технологий ИИ неумолимо пойдет именно в эту сторону.

                    Telegram-канал IT-эксперта Сергея Карелова «Малоизвестное интересное»

                    Информация об авторе
                    Сергей Карелов
                    Сергей Карелов
                    IT-эксперт

                    Кандидат технических наук, Председатель Лиги независимых ИТ-экспертов ЛИНЭКС и создатель стартапа Witology — проекта, работающего в области коллективного Подробнее...

                    * Мнения авторов постов и «Постсовета» могут не совпадать.

                    Далее: Любовь и роботы: как люди вовлекают ИИ в свои сексуальные игры

                    Понравился этот пост? Подпишись на рассылку

                    (Всего одно письмо в неделю, чтобы ничего не пропустить)

                    30 комментариев
                    • Никому не стоит недооценивать силу ИИ. Он может принести как благо, так и зло.
                    • В целом, если правильно подойти к использованию ИИ, то он может принести нам огромный прогресс и пользу.
                    • Я думаю, что при контакте с ИИ необходимо проявлять осторожность и учитывать все возможные риски.
                    Читать 30 комментариев