Почему российским менеджерам стоит опасаться технологии "Deepfake"
В ходе последней аферы с Deepfake (глубокая подделка) финансовый работник транснациональной фирмы в Гонконге был обманом вынужден выплатить 25 миллионов долларов мошенникам, выдававшим себя за финансового директора компании. Все, что потребовалось, – это фишинговое электронное письмо и видеозвонок.
Преступники использовали искусственный интеллект (ИИ) для манипуляции видео с помощью программы, симулировавшей внешность других сотрудников. Этого оказалось достаточно, чтобы убедить работника перейти по ссылке. Хотя сотрудник изначально был подозрителен, его сомнения развеялись после видеовызова. Люди на экране выглядели и говорили как его коллеги. Мошенничество было обнаружено только тогда, когда сотрудник связался с головным офисом компании.
Это не единственный случай мошенничества с глубокими подделками. Согласно опросу лаборатории Kaspersky, практически каждое третье предприятие стало жертвой подобных мошенничеств в 2023 году.
Мошенники с "Deepfake" обычно используют генеративный ИИ для обработки видео и изображений, способных симулировать внешность различных людей. При использовании генеративного ИИ используются технологии глубокого обучения для создания компьютерных голосов, изображений и видео. Таким образом подделывается то, что никогда не происходило в реальной жизни. Так получаются фото и видео материалы, запечатляющие поступки, которые человек никогда не совершал и слова, которые он никогда не говорил.
Что реально, а что нет
С развитием технологий искусственного интеллекта отличать подлинные СМИ от сфабрикованных становится все труднее.
Недавний опрос Kaspersky показал, что только 20% сотрудников Саудовской Аравии могут отличить глубокую подделку от реального изображения, хотя около 41% заявили, что могут отличить их друг от друга.
по словам экспертов есть некоторые явные признаки. Так, например, когда человек двигает головой из стороны в сторону, могут возникнуть проблемы, тон кожи также может выглядеть неестественным и неравномерным, и на видео, как правило, будет тусклое освещение. Однако все эти проблемы обычно скрываются теми, кто создает глубокие подделки. Например, они могут сказать, что у них медленное соединение, поэтому камера такая размытая и так далее.
Ответственность за выявление глубоких подделок должна лежать не только на сотрудниках, но и на процессах организации. В случае с примером из начала статьи, если сотрудник может перевести миллионы долларов только из-за телефонного звонка, то проблема не в его способности отличать реальное видео от сфабрикованного, а скорее в самом процессе. Когда речь идет о таких суммах денег, должны быть гораздо более строгие механизмы защиты.
По мере того, как искусственный интеллект становится широко доступным, угроза глубоких подделок, как ожидается, только возрастет. Несколько лет назад, до бума искусственного интеллекта, разработка моделей искусственного интеллекта считалась дорогостоящей, и для этого требовались техническая подготовка и навыки. Но поскольку технология становится дешевле и проще в использовании, теперь любой может получить доступ к таким возможностям и потенциально использовать их в злонамеренных целях.
Сегодня технологии становятся дешевле и доступнее, что открывает новые возможности не только для честных предпринимателей, но и для различного рода мошенников. В некоторых приложениях, разработанных за последние два года, вам не обязательно разбираться в искусственном интеллекте или обладать техническими навыками для создания такого видеоизображения или аудиозаписи, что превращает безобидную на первый взгляд программу в инструмент вымогателей.
Защита от Deepfakes
Поскольку риски, связанные с глубокими подделками, становятся очевидными, организации находят способы защитить себя от подобных угроз онлайн-безопасности. Так, эффективность "Deepfake" в значительной степени зависит от коммуникаций.
Хотя привычные меры безопасности необходимы, они уже недостаточны для защиты от угроз искусственного интеллекта. Организациям также необходимо повышать осведомленность и обучать работников – от сотрудников низшего звена до руководителей высшего звена – о росте числа глубоких подделок и их рисках.
Повышение осведомленности имеет решающее значение. Для людей может становиться все труднее обнаруживать глубокие подделки, особенно с тех пор, как те, кто их создает, прилагают усилия, для создания максимально правдоподобных фальсификаций. Вы должны знать, что даже видео можно подделать. Поэтому важно, чтобы люди понимали, что не все, что они видят на своих экранах, реально.
Платформы социальных сетей также играют роль в сдерживании роста "Deepfake". Поскольку большинство людей получают информацию по каналам социальных сетей или приложениям для обмена сообщениями, технологические компании должны обеспечивать соблюдение правил, требующих от людей раскрывать, был ли данный контент создан искусственным интеллектом. Нормативные акты должны применяться на платформах, где люди могут быть наиболее уязвимы. Опасность особенно велика, когда события могут стать вирусными. Новостные ленты требуют особого внимания, где людям особенно важно применять механизмы отслеживания контента, созданного генеративным ИИ.
Многие сейчас обращаются к нейросетям для обнаружения глубоких подделок. Генеративный ИИ и большие языковые модели могут анализировать аудио – или видеоконтент и прогонять его через свои алгоритмы, чтобы определить, является ли что-то реальным или было подстроено с помощью ИИ.
Рано или поздно всем крупным компаниям придётся использовать искусственный интеллект для обнаружения глубоких подделок. Потому что они придут к тому, что люди не смогут отличить одно от другого, но система искусственного интеллекта сможет сказать вам, является ли та или иная информация продуктом технологии "Deepfake".
Комментарии 0