
Применение искусственного интеллекта в трудовых процессах, особенно в сфере обработки конфиденциальных данных, может представлять риски для работников.
К примеру, случайная загрузка личной информации клиентов, такой как имена, адреса и прочие персональные данные, в систему ИИ может повлечь за собой серьезные последствия.
«Юридические лица и индивидуальные предприниматели, использующие личные данные граждан в своей деятельности, считаются операторами персональных данных. Согласно закону, у них есть определенные обязанности, за невыполнение которых предусмотрены штрафы, а в некоторых случаях и уголовная ответственность», — разъяснил «Российской газете» юрист, руководитель Центра правопорядка в г. Москве и Московской области Александр Хаминский.
В настоящее время наблюдается активное внедрение искусственного интеллекта в бизнес-процессы многих компаний. ИИ становится важным инструментом для анализа больших объемов информации, позволяя быстро обрабатывать данные и извлекать нужные сведения.
Тем не менее, использование искусственного интеллекта при работе с личной информацией граждан может привести к юридическим последствиям, включая административные штрафы и уголовное преследование.
«Оператором, осуществляющим действия (операции) с персональными данными с юридической точки зрения, может быть как государственный орган, так и юридическое или физическое лицо. Работодатель по умолчанию выступает в роли оператора персональных данных и обязан исполнять все требования и запреты относительно обработки таких данных», — отметил юрист.
Как правило, инструменты, основанные на искусственном интеллекте, разрабатываются и поддерживаются сторонними компаниями. Передача личной информации третьим лицам обычно требует получения предварительного письменного согласия от владельца этой информации.
Тем не менее, существуют законодательные исключения, при которых согласие не требуется. К ним относятся ситуации, когда информация передается государственным учреждениям (например, в налоговую инспекцию или Социальный фонд) или когда имеется угроза для жизни или здоровья работника.
«Если проанализировать политику обработки персональных данных ведущих мировых платформ ИИ, станет очевидно, что такие компании не только охотно собирают персональные данные, но и активно используют их в своей деятельности. В 2020 году для разработки генеративной текстовой системы ИИ был проведен обзор миллионов страниц постов, книг и интернет-ресурсов в целом, включая персональные данные, которыми пользователи делятся в сети. В результате ChatGPT оказался под временным запретом в Италии, привлекая внимание контролирующих органов в сфере защиты данных. Таким образом, передача персональных данных, как умышленная, так и случайная, для обработки ИИ будет считаться нарушением законодательства», — уточнил Хаминский.
Единственным случаем, когда такая передача разрешена, является наличие письменного согласия самого работника.
«Таким образом, согласно ч. 8 ст. 13.11 КоАП РФ, невыполнение оператором при сборе персональных данных обязанности по обеспечению записи, систематизации, накопления и хранения персональных данных граждан с использованием баз данных, находящихся на территории Российской Федерации, влечет за собой наложение административного штрафа от одного миллиона до шести миллионов рублей. Если же должностное лицо компании неправомерно получит доступ к персональным данным работников и использует эти данные для передачи на платформы ИИ, ему грозит уголовная ответственность по ст. 272.1 УК РФ, предусматривающая наказание в виде лишения свободы на срок до шести лет и штраф до одного миллиона рублей», — подтвердил Хаминский.