Минцифры предлагает запретить манипуляцию людьми с помощью ИИ
Как ИИ манипулирует поведением пользователей
Минцифры разработало законопроект об искусственном интеллекте, который сейчас проходит межведомственное согласование. Согласно документу, разработчики систем ИИ будут обязаны сообщать пользователям о недопустимости применения нейросетей для манипулирования поведением и эксплуатации уязвимостей человека.
Под эксплуатацией уязвимостей в законе понимается использование различных состояний человека (возрастных, социально‑экономических, психологических и др.) для целенаправленного воздействия на поведение, принятие решений или несанкционированного доступа к информации.
Ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов поясняет: запрет распространяется прежде всего на операторов и разработчиков систем ИИ — организации и компании, внедряющие такие системы в сервисы, приложения или продукты. По его словам, система ИИ не должна проектироваться или использоваться так, чтобы сознательно подталкивать человека к решениям, которые он бы не принял без скрытого давления или манипуляции.
Ярослав Селиверстов отмечает, что ИИ способен влиять на поведение человека через анализ данных и персонализацию контента — например, подбирая сообщения, рекомендации или интерфейсы, которые повышают вероятность нужного действия. Такие технологии могут использоваться в рекламе, политических коммуникациях, рекомендательных системах или чат‑ботах для усиления доверия, срочности или эмоциональной реакции.
Какие риски видят эксперты
- Сервисы, реализующие товары и услуги, могут с помощью ИИ собирать информацию о предпочтениях пользователей и навязывать им ненужные вещи через открытую и скрытую рекламу (по словам гендиректора TelecomDaily Дениса Кускова).
- Агрегаторы такси могут использовать ИИ для манипуляции тарифами — например, выставлять завышенные цены для пассажиров, у которых заканчивается заряд смартфона.
- Злоумышленники или недобросовестные компании могут применять ИИ для гиперперсонализированного мошенничества: анализировать данные о человеке и генерировать идеально подобранные сообщения (дипфейки голоса родственника, «индивидуальные» предложения от лжебанка в момент уязвимости человека), отмечает председатель правления АНО «Центр беспилотных систем и технологий» (ЦБСТ) Андрей Безруков.
Международный опыт и сложности реализации
Вопрос ответственности разработчиков ИИ за поведение его пользователей обсуждается не только в России. В США, например, после инцидентов с доведением пользователей до самоубийства владельцев нейросетей обязывают внедрять родительский контроль и протоколы безопасности.
Однако эффективность таких мер в России может быть ограничена, если офисы соответствующих компаний находятся за рубежом, полагает руководитель направления «Разрешение IT&IP‑споров» фирмы «Рустам Курмаев и партнёры» Ярослав Шицле.
Эксперты указывают на сложности реализации запрета на манипуляцию поведением с помощью нейросетей:
- Бессчётное множество сценариев ответов и диалогов с пользователями, которые ведёт ИИ; ответы разнятся в зависимости от используемых моделей, и даже разработчики не могут на это повлиять (Денис Кусков).
- Законопроект содержит норму, обязывающую операторов включать в руководство по безопасности указание на недопустимость действий, способных причинить вред, но это не прямой законодательный запрет манипуляции как таковой (Андрей Безруков).
- Европейский AI Act прямо запрещает применение сублиминальных и манипулятивных техник, способных причинить вред или существенно исказить поведение человека, — санкции достигают €35 млн или 7 % мирового оборота компании. В российском законопроекте ИИ, используемый в сфере обороны и национальной безопасности, выводится из‑под регулирования, что создаёт риск использования «гражданских» наработок в манипулятивных военных технологиях без должного контроля (Андрей Безруков).
Мнения о балансе интересов
«Мы поддерживаем необходимость защиты граждан от реальных угроз, особенно когда речь идёт о вреде жизни и здоровью. Но важно отметить, что сфера рекомендательных сервисов уже получила необходимое правовое регулирование. Дальнейшее вмешательство в алгоритмы может привести к обратному эффекту — необъективности выдачи, ограничению доступа к информации и субъективности», — считает президент Ассоциации цифровых платформ Ораз Дурдыев.
Директор Института исследований интернета Карен Казарян рассуждает, что законопроект основан на презумпции виновности разработчиков ИИ за абстрактные нарушения, которые с его помощью совершают или могут совершить третьи лица. Он указывает на существование Уголовного кодекса, Кодекса об административных нарушениях и других законодательных актов, устанавливающих ответственность за конкретные правонарушения, и полагает, что вводить дополнительные обременения для разработчиков нецелесообразно.
Леонид Коник предупреждает: если законопроект будет принят и его начнут применять буквально, то всю персонализированную онлайн‑рекламу и рекомендательные алгоритмы придётся запретить как инструменты целенаправленного воздействия на принятие решения.
Денис Кусков считает, что регулирование рекомендаций с помощью ИИ нуждается в отдельном обсуждении: с одной стороны, неприятно, когда ИИ пытается всучить ненужный товар или услугу; с другой — когда человек целенаправленно ищет что‑то, нейросеть, подбирающая несколько предложений, оказывает помощь и облегчает выбор. В онлайн‑кинотеатрах такие алгоритмы, например, позволяют найти интересный фильм, удовлетворяющий вкусам зрителя.
