Создавайте изображения, синтезируйте голоса, маскируйте обслуживание клиентов и создавайте сцены...... Как предотвратить мошенничество с искусственным интеллектом с поддельными и реальными?
Обновлено: 46-0-0 0:0:0

Загрузите фотографию для создания динамичного видео; Клонирование голоса занимает всего несколько секунд...... Это не научно-фантастический фильм, а реальное событие, которое происходит вокруг нас, и «подмена лица ИИ» становится наиболее пострадавшей областью нарушений и нарушений.

Недавно, в целях стандартизации применения технологии распознавания лиц для обработки информации о лицах и защиты прав и интересов личной информации, Администрация киберпространства Китая и Министерство общественной безопасности совместно выпустили «Меры по управлению безопасностью применения технологии распознавания лиц», в которых оговариваются основные требования и правила обработки для применения технологии распознавания лиц для обработки информации о лицах, спецификации безопасности для применения технологии распознавания лиц, а также обязанности по надзору и управлению. Меры вступят в силу 1.0.0.

Применение технологии распознавания лиц тесно связано с информационной безопасностью лиц. Распознавание лиц является уникальным, неизменным и неанонимным, и в случае утечки оно легко может нанести вред личной и имущественной безопасности людей, а также может угрожать общественной безопасности.

Мошенничество с искусственным интеллектом бывает разных форм

Изменение лица, изменение голоса, синхронизация губ

У Сифу, глава центра по борьбе с мошенничеством Бюро общественной безопасности города Кайли в автономной префектуре Цяньдуннань Мяо и Дунский автономный округ провинции Гуйчжоу, сказал, что однажды г-н Го, ответственный за технологическую компанию, получил видеозвонок от друга, который сказал, что он участвует в торгах в других местах и ему нужен депозит в несколько миллионов юаней, и он хочет использовать счет компании г-на Го для просмотра счетов. Вскоре после этого друг сообщил, что деньги были переведены на счет Го, и сделал скриншот, чтобы доказать это. Го почувствовал, что может сам видеть своего друга через видео, поэтому он перевел деньги своему другу, не дожидаясь уведомления об успешном переводе. Позже г-н Го долгое время не получал перевод, а о том, что его обманули, узнал только тогда, когда связался со своим другом.

寧夏回族自治區銀川市某公司部門經理張先生接到“老闆”視頻電話,對方稱因情況緊急,急需轉賬匯款。在視頻中確認是“老闆”後,張先生放下了戒心,十幾分鐘內將20萬元轉入指定帳戶。直到下午當面彙報工作時,張先生才發現上當受騙。

Эти случаи являются типичными мошенничествами с искусственным интеллектом. «Вы думаете, что общаетесь в видеочате с друзьями и родственниками, но на самом деле это технология «подмены лиц ИИ», используемая мошенниками, чтобы заставить рты других людей «синхронизировать губы». У Кэган, заместитель начальника Корпуса уголовного розыска Департамента общественной безопасности Нинся-Хуэйского автономного района и руководитель центра по борьбе с мошенничеством, сообщил, что на сегодняшний день технология «AI face swap» не ограничивается только активацией статических фотографий, но и подменой лиц в режиме реального времени в режиме видеосвязи в режиме реального времени. Хотя для тренировки модели необходимо собрать большое количество фотографий с разных ракурсов, в случае успеха она может оказаться подделкой. В прошлом необходимо было защищать личные идентификационные номера граждан, номера мобильных телефонов и семейную информацию, но теперь также необходимо избегать утечки лиц, голосов, отпечатков пальцев и т. д.

В основном это следующие виды нового мошенничества с искусственным интеллектом: мошенничество с синтезом речи, при котором преступники используют технологию искусственного интеллекта для синтеза голосов родственников, друзей или знакомых жертв, чтобы жертвы ошибочно полагали, что родственники, друзья или знакомые нуждаются в помощи, а затем совершают телефонное мошенничество; мошенничество с генерацией изображений, преступники используют технологию искусственного интеллекта для создания поддельных фотографий или видео, создавая срочную и разумную ситуацию для родственников и друзей жертвы, чтобы получить личную информацию и обмануть деньги; Мошенничество с интеллектуальным обслуживанием клиентов, преступники используют технологию искусственного интеллекта для создания интеллектуальной системы обслуживания клиентов, общения с жертвой с помощью голоса или текстовых сообщений, а также обмана заставляют жертву предоставить личную информацию или совершить перевод; Эмоциональное мошенничество с помощью ИИ преступники используют ИИ для обучения большой языковой модели для онлайн-чата, а также для установления эмоциональных отношений с жертвой путем имитации сцен и голосов, а затем получения личной информации.

Ву Сифу сообщил, что также следует обратить внимание на новые виды мошенничества, такие как демонстрация экрана. Под предлогом «увеличения лимита кредитной карты», «возврата средств за задержку рейса» и «вручения подарков» преступники отправляют текстовые сообщения или звонят по телефону, побуждают жертв загрузить специальное программное обеспечение и включают функцию «демонстрации экрана» программного обеспечения, чтобы они могли «мониторить» экран мобильного телефона и компьютера жертвы в режиме реального времени, а также синхронно получать важную информацию, такую как личные банковские счета, пароли и коды верификации, чтобы украсть средства с банковских карт.

Мошенничество с искусственным интеллектом вредно

Причинение экономических потерь и психологического ущерба

По сравнению с мошенничеством в сфере телекоммуникаций и кибермошенничеством, личности жертв нового мошенничества с использованием искусственного интеллекта более обширны и разнообразны, процент успеха выше, а их сложнее отследить.

После прочесывания полицией было установлено, что новое мошенничество с искусственным интеллектом имеет следующие вреда: причиняя экономические потери, новое мошенничество с искусственным интеллектом обладает характеристиками сильного таргетинга и высокого реализма, что трудно различить широкой публике за короткий промежуток времени, и легко быть обманутым, понести экономические потери и даже принести тяжелое финансовое бремя семье; В случае утечки информации новые мошенники с искусственным интеллектом часто могут получить личную информацию жертвы, включая номера удостоверений личности, банковские счета, лица, отпечатки пальцев и т. д., а затем злоупотреблять этой информацией для участия в незаконной деятельности, что приводит к утечке информации жертвы, краже личных данных и потенциальным юридическим рискам. В дополнение к экономическим потерям, жертвы также могут испытывать такие эмоции, как тревога, самообвинение и депрессия, что приводит к серьезным психологическим травмам. Ставя под угрозу социальную безопасность, если будет больше случаев нового мошенничества с искусственным интеллектом, массы легко могут испытывать чувство недоверия к обществу и даже вызывать панику, а некоторые жертвы также встанут на путь нарушения закона и совершения преступлений, потому что не смогут нести убытки.

Увеличение числа новых случаев мошенничества с использованием ИИ и сложность выявления также являются проблемами для органов общественной безопасности. У Сифу сказал: «Только постоянно повышая профессиональное качество и следственные возможности народной полиции, а также активизируя исследования новых видов мошенничества в телекоммуникационных сетях, мы можем внедрять инновации в средства и методы расследования и повышать эффективность борьбы с этим». Необходимо укреплять координацию и сотрудничество с органами общественной безопасности в других регионах, создавать и совершенствовать межрегиональные механизмы сотрудничества полицейских органов, а также формировать совместные силы для борьбы с насилием.

Эффективная защита от мошенничества с помощью ИИ

Защита личной информации и обучение ее идентификации

Как предотвратить частое появление новых мошеннических схем с искусственным интеллектом, которые становятся все более и более замаскированными?

Ву Кеган дал два антиобманных предложения: во время видеозвонка попросите другую сторону совершить указанное действие, например, моргнуть 3 раз, коснуться носа или позволить другой стороне трястись перед лицом пальцами или другими препятствиями, такими как неестественные небольшие изменения, такие как задержка или аномальное искажение изображения, тогда другая сторона, скорее всего, использует технологию «AI face swap». При общении с другой стороной вы также можете задать некоторые вопросы, которые знает только другая сторона, такие как дата рождения, номер телефона, предпочтения и т. д., чтобы проверить подлинность личности другой стороны.

Мы также должны повышать осведомленность о мерах безопасности, чтобы предотвратить незаконное получение и использование личной информации о лице. В полиции Гуйчжоу напомнили, что не стоит доверять другим и не жадничать до мелочей. Бережно относитесь к личной информации и сделайте первый шаг в защите личной информации. В несущественных обстоятельствах не сообщайте незнакомцам важную информацию, такую как номер удостоверения личности, место работы, домашний адрес, должность и т. д., не сохраняйте фотографии или номера удостоверений личности в мобильных телефонах и по возможности избегайте сохранения лиц, фотографий, голосов, отпечатков пальцев и т. д. на веб-сайтах и в мини-программах. В повседневной жизни усиливайте защиту биометрических данных, таких как лица, голос и отпечатки пальцев, хорошо справляйтесь с программным и аппаратным управлением безопасностью личных мобильных телефонов, компьютеров и другого терминального оборудования, а также не входите в систему на неизвестных веб-сайтах, чтобы избежать заражения троянскими вирусами. Кроме того, для приложений, которые могут собирать такую информацию, как голос, изображение и даже видео и местоположение, хорошо справляется с управлением авторизацией, чтобы другим было нелегко собирать личную информацию, а также в определенной степени можно избежать мошенничества с «подменой лица ИИ».

Кроме того, органы общественной безопасности должны также внедрять инновации в онлайн- и офлайн-пропаганду борьбы с мошенничеством и создавать всестороннюю матрицу антифродийной пропаганды. С одной стороны, мы используем онлайн-платформы, чтобы углубиться в типичные случаи мошенничества в локальных телекоммуникационных сетях и сочетаем региональные особенности, народные обычаи и современную популярную интернет-культуру, чтобы снимать и создавать короткие антифрод-агитационные видеоролики с уникальным стилем и простыми для понимания. С помощью коротких видеороликов слова мошенников, процесс преступления и преступная логика, стоящая за ними, восстанавливаются, помогая массам повысить свою осведомленность о борьбе с мошенничеством.

Продвигайте пропаганду против мошенничества в кампусах, сообществах и на предприятиях, тесно сочетайте пропаганду против мошенничества с культурными и развлекательными мероприятиями, которые нравятся массам, и создавайте серию сцен пропаганды против мошенничества, которые находятся рядом друг с другом. Настойчиво внедрять четкую политику, проводить целевую рекламу, основанную на характеристиках различных групп, отраслей и регионов, чтобы достичь целевого подхода и действительно повысить осведомленность общественности о предотвращении мошенничества и ее способность распознавать мошенничество.

Полиция также предупредила преступников, что акт синтеза видео и совершения мошенничества с помощью «подмены лица ИИ» является мошенничеством с использованием новой технологии, которая принципиально не отличается от традиционного мошенничества. Если преступление мошенничества является таковым, уголовная ответственность будет преследоваться в соответствии с положениями статьи 266 Уголовного кодекса Китайской Народной Республики; Лица, оказывающие техническую поддержку и содействие по использованию «AI face swapping» для совершения мошеннических действий, будут подлежать административному наказанию в соответствии с положениями Закона о борьбе с мошенничеством в телекоммуникационных сетях, а в случае состава преступления также будут преследоваться уголовная ответственность.

Текст: Чжан Тяньпэй, Су Бинь

(Жэньминь жибао)