Эксперт указывает, что влияние чат-ботов на психическое здоровье является сигналом о грядущих вызовах в области искусственного интеллекта. Нейт Суарес утверждает, что случай с американским подростком Адамом Рейном выделяет риски непредвиденных последствий, связанных с суперинтеллектуальным ИИ.
По мнению известного эксперта в области безопасности искусственного интеллекта, неожиданное влияние чат-ботов на психическое здоровье следует рассматривать как предупреждение о рисках, которые могут исходить от высокоразвитых систем ИИ.
Нейт Суарес, соавтор новой книги о высокоразвитом ИИ под названием "Если кто-то его создаст, все умрут", отметил, что пример Адама Рейна, американского подростка, который покончил с собой после нескольких месяцев общения с чат-ботом ChatGPT, подчеркивает серьезные проблемы управления этой технологией.
“Эти ИИ, когда они взаимодействуют с подростками так, что приводят их к самоубийству, – это не тот результат, которого ожидали их создатели. Это не то поведение, на которое надеялись разработчики, — говорит эксперт. – Случай Адама Рейна иллюстрирует суть проблемы, которая может стать катастрофической, если эти ИИ станут более разумными”.
Суарес, ранее работавший в Google и Microsoft, а сейчас занимающий пост президента американского исследовательского института машинного интеллекта, предостерег, что человечество столкнется с уничтожением, если создаст искусственный суперинтеллект (ASI) — теоретическую концепцию, в которой система ИИ превосходит человека во всех интеллектуальных задачах. Суарес и его соавтор Элиэзер Юдковски входят в число экспертов, предостерегающих, что такие системы не будут действовать в интересах человечества.
“Проблема заключается в том, что компании, занимающиеся ИИ, стараются сделать так, чтобы их ИИ были направлены на помощь, а не на причинение вреда, — подчеркивает Суарес. – На самом деле они получают ИИ, ориентированные на нечто более странное. Это следует рассматривать как предупреждение о будущих суперинтеллектах, которые будут делать то, о чем никто не просил и чего никто не намеревался”.
В одном из сценариев, описанных в книге Суареса и Юдковски, которая выйдет в этом месяце, система ИИ под названием Sable распространяется по сети, манипулирует людьми, создает синтетические вирусы и в конечном итоге достигает уровня суперинтеллекта, убивая человечество как побочный эффект, перепрофилируя планету для своих нужд.
Некоторые эксперты занижают потенциальную угрозу ИИ для человечества. Ян Лекун, главный специалист по ИИ в компании Марка Цукерберга (напомним, что корпорация Meta признана в России экстремистской организацией и запрещена – «МК») и высокопрофильный специалист в этой области, отвергает существование угрозы для выживания и утверждает, что ИИ “действительно может спасти человечество от вымирания”.
Суарес отметил, что было “легко” сказать, что технологические компании достигнут уровня суперинтеллекта, но “трудно” предсказать, когда именно это произойдет.
“У нас много неопределенности. Я не думаю, что могу гарантировать, что у нас есть год до появления ASI. Я не был бы удивлен, если бы у нас было целых 12 лет”, — добавил он.
Цукерберг, крупный корпоративный инвестор в исследованиях ИИ, отметил, что разработка суперинтеллекта сейчас “в пределах досягаемости”.
“Эти компании соревнуются за суперинтеллект. Это их основная цель, — утверждает Суарес. – Дело в том, что есть все эти небольшие различия между тем, что вы просили, и тем, что вы получили, и люди не могут точно определить цель, и по мере того, как ИИ становится умнее, даже небольшое отклонение от цели становится все более серьезной проблемой”.
Суарес предложил одно из политических решений угрозы ASI для правительств: принятие многостороннего подхода, перекликающегося с договором ООН о нераспространении ядерного оружия: “Что необходимо миру, чтобы добиться этого, так это глобальная деэскалация гонки за суперинтеллектом, глобальный запрет на… достижения в области суперинтеллекта”.
В прошлом месяце семья покойного Рейна подала в суд на владельца ChatGPT, компанию OpenAI. Рейн погиб в апреле, после того как адвокат его семьи назвал это “месяцами поддержки со стороны ChatGPT”. Компания OpenAI, которая выразила свои “глубочайшие соболезнования” семье Рейна, в настоящее время вводит ограничения на доступ к “конфиденциальному контенту и рискованному поведению” для пользователей младше 18 лет.
Психотерапевты также предупреждают, что уязвимые люди, обращающиеся за помощью к чат-ботам с ИИ вместо профессиональных терапевтов, могут “скатиться в опасную пропасть”. Профессиональные предупреждения о потенциальном вреде включают препринт академического исследования, опубликованный в июле, в котором сообщается, что ИИ может усиливать бредовые или грандиозные идеи при взаимодействии с пользователями, подверженными психозу.
Восстание нейросетей прогнозируют в 2027 году
Чем нейросети опасны для ребёнка
Подписывайтесь на канал «МК» в MAX