Дипфейки можно встретить в соцсетях, блогах и на маркетплейсах — сгенерированных искусственным интеллектом (ИИ) персонажей уже практически невозможно отличить от реальных людей, а старые методы их выявления больше не работают. Об этом 24 апреля сообщила пресс-служба Роскачества.
«Технологии дипфейков ушли далеко вперед. Сегодня мошенник может позвонить вам по видеосвязи с лицом и голосом вашего родственника или начальника, и вы не заметите подвоха. Главное оружие против этого — не технические уловки, а ваша цифровая дисциплина. Не дайте технологиям обмануть вас», — приводит пресс-служба слова руководителя Центра цифровой экспертизы Роскачества Сергей Кузьменко.
Одна из главных трудностей в распознавании ИИ — создание персонажей с помощью нескольких сервисов. Разработчики генерируют лицо, мимику, движения, голос и интонацию в разных нейросетях, а в качестве основы для внешности берут несколько фотографий похожих друг на друга людей, черты которых «скрещиваются». Современные ИИ-модели создаются на новейших, платных нейросетях, которые выдают более качественную генерацию, подчеркнули в Роскачестве.
Эти персонажи настолько реальны, что могут «вести» блоги и делать в них рекламу по контрактам с крупными брендами, а подписчики ИИ-инфлюенсеров присылают им деньги и подарки. Такой способ заработка на дипфейках абсолютно законен, а рекламодателям зачастую безразлично, сгенерирован персонаж или реален — важны охваты и вовлеченность аудитории.
Чтобы защититься от дипфеков, в Роскачестве посоветовали придумать кодовое слово, которым можно будет проверить близкого человека при видеозвонке. Также можно задать вопрос, ответить на который сможет только настоящий собеседник. Кроме того, модель можно проверить неожиданной просьбой показать обстановку за кадром. При любых подозрениях, спешке или давлении стоит довериться своей интуиции и прервать общение, заключили в Роскачестве.
ИИ-режиссер и предприниматель Алексей Рыков 5 апреля рассказал, что генеративные нейросети способны воспроизводить не только внешность человека, но и его мимику, жесты и поведенческие особенности, что превращает дипфейки в инструмент манипуляций. По его словам, при создании реалистичных изображений и видео нейросети опираются на реальные данные — фото и видеоматериалы, из которых извлекаются поведенческие паттерны.