В РАН предупредили о главных угрозах при внедрении ИИ в финансах

Широкое внедрение искусственного интеллекта в финансовую сферу представляет собой серьезные риски, сообщают «Известия» ссылаясь на материал Института экономики РАН — «Основные направления использования искусственного интеллекта в финансовой сфере». К числу основных угроз относятся манипуляции на рынках, увеличение киберпреступности, дискриминация заемщиков и обесценивание труда человека. При этом более 70% банков и страховых организаций уже активно применяют нейросети в своей деятельности.

В РАН предупредили о главных угрозах при внедрении ИИ в финансах
© Global Look Press

Доктор экономических наук института Дмитрий Кочергин в своей статье подчеркивает, что данная технология в основном используется в системах платежей, кредитном анализе, страховании и управлении активами. Согласно данным McKinsey, только мировой банковский сектор может получать от внедрения ИИ от 3% до 5% от общего дохода отрасли ежегодно.

Тем не менее, распространение нейросетей сопряжено со множеством рисков. Генеративные модели увеличивают возможности злоумышленников для создания фишинговых писем, вредоносного ПО и захвата пользовательских устройств, что может приводить к утечкам данных и мошенничеству, отмечает автор.

Серьезной проблемой остается предвзятость алгоритмов. Модели могут воспроизводить и усугублять искажения в данных, что ведет к дискриминации в страховании и кредитовании, ограничивая доступ уязвимых групп к финансовым услугам, как указано в исследовании. Кроме того, склонность нейросетей к «галлюцинациям» увеличивает юридические риски из-за строгих норм защиты данных.

Существенные угрозы связаны с зависимостью рынка от ограниченного числа поставщиков языковых моделей. Высокие затраты на разработку и концентрация данных приводят к олигополии, когда несколько компаний контролируют весь рынок, подчеркивает Кочергин. Любой сбой или атака создают риски для всех пользователей. При этом даже собственные нейросети банков обычно основаны на одних и тех же технологиях и действуют схожим образом.

Разные банки и инвестиционные компании применяют одинаковые алгоритмы, которые автоматически принимают схожие решения. В результате участники рынка одновременно покупают или продают одни и те же активы, что приводит к движению цен в одном направлении и фактически делает их единым скоординированным игроком. Формального сговора нет, но эффект очевиден — искажение цен, увеличение волатильности и риск манипуляций.

Аналитик финансовой группы «Финам» Леонид Делицын также указал на опасность «отравления» обучающих данных, когда вредоносный код проникает в популярные сервисы и распространяется через рекомендации ИИ. Ведущий аналитик Freedom Finance Global Наталья Мильчакова обратила внимание на высокие затраты на инфраструктуру, риски неравенства в зарплатах и сокращение численности персонала, что может усилить конкуренцию и вытеснить небольших игроков.

При контролируемом внедрении искусственный интеллект способен увеличить производительность, поддержать экономический рост и замедлить инфляцию. При спонтанной автоматизации возможны обесценивание рабочей силы, рост дефолтов, ускорение инфляции и снижение налоговых поступлений, что может подорвать финансовую стабильность, подводит итог автор.

Источник: finance.rambler.ru

Что будем искать? Например,Человек

Мы в социальных сетях