Минцифры предлагает запретить манипуляцию людьми с помощью ИИ

Как ИИ манипулирует поведением пользователей

Минцифры разработало законопроект об искусственном интеллекте, который сейчас проходит межведомственное согласование. Согласно документу, разработчики систем ИИ будут обязаны сообщать пользователям о недопустимости применения нейросетей для манипулирования поведением и эксплуатации уязвимостей человека.

Под эксплуатацией уязвимостей в законе понимается использование различных состояний человека (возрастных, социально‑экономических, психологических и др.) для целенаправленного воздействия на поведение, принятие решений или несанкционированного доступа к информации.

Ведущий эксперт в области ИИ «Университета 2035» Ярослав Селиверстов поясняет: запрет распространяется прежде всего на операторов и разработчиков систем ИИ — организации и компании, внедряющие такие системы в сервисы, приложения или продукты. По его словам, система ИИ не должна проектироваться или использоваться так, чтобы сознательно подталкивать человека к решениям, которые он бы не принял без скрытого давления или манипуляции.

Ярослав Селиверстов отмечает, что ИИ способен влиять на поведение человека через анализ данных и персонализацию контента — например, подбирая сообщения, рекомендации или интерфейсы, которые повышают вероятность нужного действия. Такие технологии могут использоваться в рекламе, политических коммуникациях, рекомендательных системах или чат‑ботах для усиления доверия, срочности или эмоциональной реакции.

Какие риски видят эксперты

  • Сервисы, реализующие товары и услуги, могут с помощью ИИ собирать информацию о предпочтениях пользователей и навязывать им ненужные вещи через открытую и скрытую рекламу (по словам гендиректора TelecomDaily Дениса Кускова).
  • Агрегаторы такси могут использовать ИИ для манипуляции тарифами — например, выставлять завышенные цены для пассажиров, у которых заканчивается заряд смартфона.
  • Злоумышленники или недобросовестные компании могут применять ИИ для гиперперсонализированного мошенничества: анализировать данные о человеке и генерировать идеально подобранные сообщения (дипфейки голоса родственника, «индивидуальные» предложения от лжебанка в момент уязвимости человека), отмечает председатель правления АНО «Центр беспилотных систем и технологий» (ЦБСТ) Андрей Безруков.

Международный опыт и сложности реализации

Вопрос ответственности разработчиков ИИ за поведение его пользователей обсуждается не только в России. В США, например, после инцидентов с доведением пользователей до самоубийства владельцев нейросетей обязывают внедрять родительский контроль и протоколы безопасности.

Однако эффективность таких мер в России может быть ограничена, если офисы соответствующих компаний находятся за рубежом, полагает руководитель направления «Разрешение IT&IP‑споров» фирмы «Рустам Курмаев и партнёры» Ярослав Шицле.

Эксперты указывают на сложности реализации запрета на манипуляцию поведением с помощью нейросетей:

  1. Бессчётное множество сценариев ответов и диалогов с пользователями, которые ведёт ИИ; ответы разнятся в зависимости от используемых моделей, и даже разработчики не могут на это повлиять (Денис Кусков).
  2. Законопроект содержит норму, обязывающую операторов включать в руководство по безопасности указание на недопустимость действий, способных причинить вред, но это не прямой законодательный запрет манипуляции как таковой (Андрей Безруков).
  3. Европейский AI Act прямо запрещает применение сублиминальных и манипулятивных техник, способных причинить вред или существенно исказить поведение человека, — санкции достигают €35 млн или 7 % мирового оборота компании. В российском законопроекте ИИ, используемый в сфере обороны и национальной безопасности, выводится из‑под регулирования, что создаёт риск использования «гражданских» наработок в манипулятивных военных технологиях без должного контроля (Андрей Безруков).

Мнения о балансе интересов

«Мы поддерживаем необходимость защиты граждан от реальных угроз, особенно когда речь идёт о вреде жизни и здоровью. Но важно отметить, что сфера рекомендательных сервисов уже получила необходимое правовое регулирование. Дальнейшее вмешательство в алгоритмы может привести к обратному эффекту — необъективности выдачи, ограничению доступа к информации и субъективности», — считает президент Ассоциации цифровых платформ Ораз Дурдыев.

Директор Института исследований интернета Карен Казарян рассуждает, что законопроект основан на презумпции виновности разработчиков ИИ за абстрактные нарушения, которые с его помощью совершают или могут совершить третьи лица. Он указывает на существование Уголовного кодекса, Кодекса об административных нарушениях и других законодательных актов, устанавливающих ответственность за конкретные правонарушения, и полагает, что вводить дополнительные обременения для разработчиков нецелесообразно.

Леонид Коник предупреждает: если законопроект будет принят и его начнут применять буквально, то всю персонализированную онлайн‑рекламу и рекомендательные алгоритмы придётся запретить как инструменты целенаправленного воздействия на принятие решения.

Денис Кусков считает, что регулирование рекомендаций с помощью ИИ нуждается в отдельном обсуждении: с одной стороны, неприятно, когда ИИ пытается всучить ненужный товар или услугу; с другой — когда человек целенаправленно ищет что‑то, нейросеть, подбирающая несколько предложений, оказывает помощь и облегчает выбор. В онлайн‑кинотеатрах такие алгоритмы, например, позволяют найти интересный фильм, удовлетворяющий вкусам зрителя.

Источник: iz.ru

Авторизация