Контент от нейросети предлагают маркировать



alttext



Названы сферы, где использование искусственного интеллекта нужно ограничить законом.

Решения суда, медицинские диагнозы, деление людей на категории с помощью распознавания лиц и биометрии — это сферы, где принятие решений с опорой на выводы искусственного интеллекта несет недопустимые риски для граждан и даже целых стран. Такие выводы эксперты представили 23 мая на заседании Комиссии Совета Федерации по информационной политике и взаимодействию со СМИ. Ее глава, сенатор Алексей Пушков считает, что, несмотря на всю сложность регулирования новой сферы, поправки в законодательство подготовят до конца 2024 года.

На службе у мошенников
По словам Пушкова, в социальной сфере тревожит прежде всего искажение информации, которая происходит компьютерном мозгу, — в своих выводах ИИ может доводить до абсурда данные, которые в него загружаются. Как это произошло, например, когда одна из нейросетевых платформ компании Google признала ошибку в определении пола трансгендера большей угрозой для человечества, чем начало ядерной войны. Как пояснил Пушков, эти парадоксы возможны, потому что ядерная война для ИИ — абстракция, а смена пола — то, что постоянно муссируется в медиа и поэтому воспринимается нейросетью более важным явлением.

Вторая сфера, где использование ИИ дает серьезные искажения, — это соблюдение прав человека. В первую очередь это касается технологий распознавания лиц, наблюдения и слежения за людьми. Третье направление связано с использованием ИИ в мошеннических целях. В том числе для телефонного мошенничества — мало нам своих аферистов, так еще на нашу страну буквально обрушились украинские. Известный специалист IT-индустрии член Совета при Президенте РФ по развитию гражданского общества и правам человека Игорь Ашманов прямо назвал украинские контакт-центры «индустрией государственного уровня» — из них делается от пяти до пятнадцати миллионов мошеннических звонков в Россию в день. И некоторые достигают цели. На это, считает Ашманов, работает несколько десятков тысяч людей на Украине, которые «непрерывно разводят наших граждан». И они уже начали применять ИИ.

Зона недопустимого риска
Пожалуй, самое страшное в использовании ИИ — то, что на основании данных, полученных с его помощью, могут быть приняты неверные решения с катастрофическими последствиями, считает сенатор Ирина Рукавишникова. Она привела пример, который у многих в России на слуху, — почти год потребовался, чтобы освободить ученого-геодезиста Александра Цветкова, заключенного под стражу в феврале 2023 года из-за ошибки нейросети, которая сравнила его портрет с фотороботом преступника, который совершил жесткие серийные убийства 20 лет назад и не был пойман. Искусственный интеллект решил, что лицо Цветкова на 55 процентов совпадает с изображением злодея, — в итоге ученый провел за решеткой десять месяцев, прежде чем ошибку признали.

Поэтому, рассказала Рукавишникова, в Совете Федерации попросили экспертов выявить сферы, где применение искусственного интеллекта несет недопустимые риски и должно быть жестко регламентировано. «По мнению экспертов, в эту группу попадает, в частности, биометрическая категоризация людей, распознавание человеческих эмоций на рабочем месте, система так называемого социального рейтинга. Сюда же стоит отнести выставление окончательных медицинских диагнозов и принятие решения о привлечении к уголовной ответственности и вынесении любых судебных решений, основанных исключительно на технологиях ИИ», — сообщила она.

В зону меньшего, но все-таки высокого риска эксперты относят применения ИИ при формировании образовательного контента, использование нейросетей на транспорте и в других системах, где здоровье и жизнь человека могут оказаться под угрозой. А вот сферы, где риск применения ИИ минимальный или даже отсутствующий, — это видеоигры, фильтры для спама, получение систематизированной информации при обработке баз данных.

Говоря о конкретных законодательных решениях, Рукавишникова предложила обязывать владельцев сервисов искусственного интеллекта маркировать контент, произведенный с его помощью. «Это поможет в регулировании сферы, если, конечно, будет установлена и соответствующая ответственность за нарушение данных правил», — заметила сенатор. При этом она подчеркнула: одним из обязательных направлений законодательной работы должны стать поддержка отечественных разработчиков нейросетей, а также требование использовать только отечественные разработки ИИ в критически значимых для страны областях.

Как сообщил Алексей Пушков «Парламентской газете», предложения законодателей о регулировании ИИ могут быть окончательно сформулированы до конца 2024 года.

Как у них
Сегодня самый жесткий подход к регулированию ИИ в странах Евросоюза — государство полностью контролирует все нейросети и области их применения. В законах стран ЕС предусмотрено тщательное тестирование и предварительное одобрение систем ИИ, допущенных к использованию.

Более мягкое регулирование в Великобритании, Японии, Южной Кореи, отчасти в США. Такой подход предполагает минимальные законодательные ограничения разработки и применения искусственного интеллекта, чтобы обеспечить технологическое превосходство страны и развитие инновационной экономики.

России, как говорят эксперты Совета Федерации, более подходит третий, гибридный, подход, когда законодатель пытается найти баланс между обеспечением развития технологий и безопасности их применения. «В этом случае ограничения носят точечный характер и государство стимулирует бизнес создавать внутренние механизмы самоконтроля и корпоративной этики в сфере искусственного интеллекта. По такому пути в настоящее время идет Китай», — рассказала Ирина Рукавишникова.

Мнение исполнительного директора ФПП Матвея Гончарова:

” С учетом современных вызовов и угроз необходимо активнее формировать законодательную базу не только в области использования искусственного интеллекта в России, но и в сфере противодействия использованию технологии дипфейк в преступных целях, поскольку в действующем законодательстве прямых запретов на ее использование нет.

В подпункте «б» пункта 19 «Национальной стратегии развития искусственного интеллекта на период до 2030 года», утвержденной Указом Президента РФ от 10.10.2019 490, указано на «недопустимость использования искусственного интеллекта в целях умышленного причинения вреда гражданам и организациям, предупреждение и минимизация рисков возникновения негативных последствий использования технологий искусственного интеллекта (в том числе несоблюдения конфиденциальности персональных данных и раскрытия иной информации ограниченного доступа)», однако в самой стратегии содержатся общие фразы о необходимости создания только к 2030 году в Российской Федерации гибкой системы нормативно-правового регулирования в данной области”.