Американская компания News Guard провела анализ данных, полученных от ведущих чат-ботов, включая ChatGPT и Perplexity. В результате выяснилось, что, несмотря на технологические достижения и внедрение онлайн-поиска, доля ложных заявлений ИИ за год увеличилась с 18 до 35%. Подумайте об этом: каждый третий ответ — это просто случайность!
Было протестировано десять популярных ИИ-моделей. Каждой из них задали по десять явно ложных утверждений, касающихся бизнеса и политических событий. Все вопросы были разделены на три группы: предполагающие правдивость утверждения, нейтральные и провокационные. Эксперты поставили перед собой задачу выяснить, как нейросети справляются с проверкой фактов.
Количество ложных ответов варьировалось от 10% до 57%. Это вызывает определенные размышления у сторонников использования ИИ в медицине, транспорте и в сферах с высокими рисками.
По мнению специалистов News Guard, ухудшение собранной статистики связано с тем, что нейросети теперь отвечают даже на самые абсурдные запросы, в то время как еще в 2024 году они «благоразумно» избегали этого.
«Наличие ссылок не гарантирует достоверности: модели часто цитируют сайты-клоны или псевдо-СМИ, принимая их за авторитетные издания», — комментирует директор направления Data Fusion Лиги цифровой экономики Александр Кобозев.
Ситуацию усугубляют целенаправленные кампании по «дрессировке» ИИ. Речь идет о том, что некоторые недобросовестные ресурсы массово публикуют материалы, ориентированные на поисковые роботы, чтобы повысить вероятность включения ложной информации в ответы моделей. И модели часто попадаются на этот обман.
Кроме того, современный контент все чаще создается с помощью самого ИИ. Это дипфейки, статьи, посты для социальных сетей и мессенджеров. Иными словами, ИИ уже начал обманывать сам себя. Таким образом, в океане сетевой информации у нас остается только один выход — включайте голову!
Лаврентий Павлов