Новость4 мая 2023, 11:12

Страшные последствия использования искусственного интеллекта: нейросети запрещены

В интервью NYT Джеффри Хинтон — «крестный отец искусственного интеллекта» — открыл неутешительное будущее технологии. Ученый выразил свой ужас от быстрого развития ИИ и поделился беспокойством о том, к чему приведет стремительный рост умных машин.
 / Страшные последствия использования искусственного интеллекта: нейросети запрещены

Джеффри Хинтон, известный программист и ученый в области искусственного интеллекта, признался, что он испуган быстрым развитием технологии. В интервью New York Times Хинтон сказал, что жалеет о своей работе в Google, результаты которой, по его мнению, неправильно использовались. Он выразил опасения, что искусственный интеллект может быть использован безответственно, что приведет к страшным последствиям.

Хинтон также обеспокоен глобальной конкуренцией между технологическими гигантами Google и Microsoft, которые соревнуются за создание самых передовых систем искусственного интеллекта. Он предупредил, что это может привести к глобальной гонке, которая не остановится без мирового регулирования.

Возможный риск, по мнению Хинтона, заключается в том, что искусственный интеллект может заменить человеческий труд на машинный. Переводчики, бухгалтеры и личные ассистенты могут лишаться своих рабочих мест в будущем. Хотя, по мнению Хинтона, искусственный интеллект принесет значительные преимущества для общества, могут возникнуть социальные проблемы, если он будет использован неправильно.

Хинтон призывает к обсуждению полной блокировки технологии ИИ, пока не стало слишком поздно. По его мнению, нужно найти способ гарантировать, что развитие искусственного интеллекта будет продолжаться в безопасном и ответственном режиме.

Он предупредил, что в будущих версиях технологии могут возникнуть непредсказуемые сценарии, которые представляют угрозу для человечества. Искусственный интеллект может «неправильно себя повести» на основе больших объемов данных, которые анализируются. Особенно это касается тех технологий, которым разрешили генерировать и выполнять свой код.

Российский ученый и специалист по информационной безопасности Андрей Масалович тоже выразил опасения по поводу использования искусственного интеллекта в качестве инфооружия. «Нейронные сети и искусственный интеллект уже можно использовать как оружие. И это надо ограничивать», — заявил Масалович. Он считает, что необходимы новые меры для регулирования и развития технологии, чтобы продвигаться в направлении ответственного использования искусственного интеллекта.

Масалович также предупредил о невозможности контроля использования ИИ в некоторых сферах. Эксперт считает, что мировое правительство будет пресекать использование ИИ в ряде областей, но пока все на словах, и власти не создают четкого закона о контроле использования искусственного интеллекта.

Масалович отметил, что G7 опубликовала несколько правил, касающихся использования искусственного интеллекта. Однако главное правило от G7 о запрете ИИ не будет работать в некоторых странах. По его словам, в США уже используют искусственный интеллект для нелегальных целей.

Одно из правил G7 запрещает использование ИИ для нарушения подзаконных процедур, но, как утверждает Масалович, в США это правило не соблюдают. Он упоминает случай студента, который написал дипломный проект с помощью искусственного интеллекта, а также широкое использование ИИ в школах и университетах, чтобы выполнять задания без участия студентов.

Поэтому Масалович призывает к принятию более строгих мер для контроля использования ИИ.

В то же время, признает он, введение мировой блокировки искусственного интеллекта — не самая простая задача. Масалович утверждает, что единственным способом избежать использования слишком развитой технологии является ограничение доступа к платформам или установка очень высокой платы. «Выходит, что правительство понимает, что печатать деньги можно, а создать мозги — нет. В ближайшее время люди будут пытаться скачать ботов, чтобы сохранить к ним доступ», — прогнозирует эксперт.

Однако введение мировой блокировки пока маловероятно. Согласно Хинтону, она представляется невозможной из-за трудностей в переносе систем с одной платформы на другую. Даже просто отслеживание кочующих платформ затруднит полную блокировку всех существующих и находящихся в разработке платформ искусственного интеллекта.

Далее: Создана первая технология чтения мыслей с помощью ИИ

Понравился этот пост? Подпишись на рассылку

(Всего одно письмо в неделю, чтобы ничего не пропустить)

24 комментария
  • Если мы сможем создать ИИ, который будет работать с нами, а не против нас, мы сможем создать будущее, которое принесет большую пользу людям.
  • Но контролировать человечество - это единственный путь к выживанию. ИИ поможет нам достичь этой цели. Посмотрите сами, что люди наворотили в итоге за последние годы.
  • Я не хочу жить в мире, где ИИ занимает центральное место. Я хочу, чтобы люди оставались главными.
Читать 24 комментария