Инфобез. Якутия

Угроза безопасности, создаваемая разработкой синтетических медиа

Развитие искусственного интеллекта

Стремительное развитие искусственного интеллекта (ИИ) стало одной из определяющих технологических революций нашего времени. Технологии, основанные на искусственном интеллекте, меняют подходы к бизнес-процессам предприятий. ИИ стал неотъемлемой частью нашей повседневной жизни, стимулируя инновации, создавая рабочие места и улучшая наше благосостояние. Вместе с тем, появление и быстрое развитие синтетических медиа, часто называемых "дипфейк"(deepfake), представляет собой значительную угрозу безопасности в современную цифровую эпоху.

Угрозы безопасности

Одной из наиболее серьезных угроз безопасности, создаваемых синтетическими медиа, является возможность проведения кампаний по дезинформации. Имея возможность создавать убедительные поддельные видео- и аудиозаписи, злоумышленники могут фабриковать речи, интервью или заявления общественных деятелей. Эти сфабрикованные медиаматериалы могут использоваться для распространения ложной информации, манипулирования общественным мнением и даже влияния на выборы. В эпоху, когда доверие к цифровым СМИ падает, подделки все больше затрудняют возможность отличить факт от вымысла.

Синтетические медиа - это реальная опасность

Как утверждают специалисты, угроза от «синтетических медиа», сильно возросла в последнее время. Мошенники и шпионы часто используют дипфейки для получения доступа к корпоративным системам, имитируя сотрудников компаний или обманывая клиентов.

Например, в 2019 году с помощью сгенерированного искусственным интеллектом голоса, была успешно проведена атака на руководителя энергетической компании, ущерб после такой атаки составил порядка 240 тыс. долларов.

В 2021 году в Китае с помощью технологий дипфейка и поддельных налоговых накладных злоумышленники обманули государственную систему по распознаванию лиц на более чем 70 млн. долларов.

По результатам исследования компании Sensity, проведенного в 2022 году, утверждается, что биометрические тесты, используемые банками и криптобиржами для проверки пользователей, можно обмануть при помощи технологий дипфейка.

Также в 2022 году прошла волна устройств на работу с использованием технологий дипфейка. Цель этой мошеннической схемы заключалась в том, что бы под прикрытием получить должность, связанную с информационными технологиями и программным обеспечением, для последующего нанесения ущерба компании.

В 2023 году количество атак с использованием технологий дипфейка и синтетических медиа только растет. При создании синтетических медиа с помощью технологий дипфейка, помимо голоса и внешнего вида, злоумышленники могут прибегать к разным имитациям, например, повторить интерьер комнаты.

Развитие синтетических медиа создает значительные угрозы безопасности для отдельных людей, организаций и общества в целом. Дезинформация, кража персональных данных, подрыв доверия, риски для национальной безопасности и нарушение неприкосновенности частной жизни - все это подчеркивает настоятельную необходимость решения данной проблемы. На данный момент генеративный искусственный интеллект занимает лидирующие места в списках главных политических и экономических рисков.

Для снижения угроз безопасности, создаваемых подделками, и обеспечения ответственного подхода к разработке и использованию синтетических медиатехнологий необходимы согласованные усилия правительств, технологических компаний и общественности. Невыполнение этой задачи может иметь глубокие и долгосрочные последствия для безопасности и стабильности нашего цифрового мира.


Просто о сложном мире информационных технологий и безопасности.
Подписывайся на нас и узнавай новости первым!

Страница ВКонтакте -Защита информации Якутии
Страница Одноклассники - Защита информации Якутии
Подписывайтесь на YouTube-канал - Защита информации Якутии
Rutube-канал - Защита информации Якутии
Telegrm канал - Защита информации Якутии
Полезно знать