Инфобез. Якутия

Угроза безопасности, создаваемая разработкой синтетических медиа

Полезно знать

Развитие искусственного интеллекта

Стремительное развитие искусственного интеллекта (ИИ) стало одной из определяющих технологических революций нашего времени. Технологии, основанные на искусственном интеллекте, меняют подходы к бизнес-процессам предприятий. ИИ стал неотъемлемой частью нашей повседневной жизни, стимулируя инновации, создавая рабочие места и улучшая наше благосостояние. Вместе с тем, появление и быстрое развитие синтетических медиа, часто называемых "дипфейк"(deepfake), представляет собой значительную угрозу безопасности в современную цифровую эпоху.

Угрозы безопасности

Одной из наиболее серьезных угроз безопасности, создаваемых синтетическими медиа, является возможность проведения кампаний по дезинформации. Имея возможность создавать убедительные поддельные видео- и аудиозаписи, злоумышленники могут фабриковать речи, интервью или заявления общественных деятелей. Эти сфабрикованные медиаматериалы могут использоваться для распространения ложной информации, манипулирования общественным мнением и даже влияния на выборы. В эпоху, когда доверие к цифровым СМИ падает, подделки все больше затрудняют возможность отличить факт от вымысла.

Синтетические медиа - это реальная опасность

Как утверждают специалисты, угроза от «синтетических медиа», сильно возросла в последнее время. Мошенники и шпионы часто используют дипфейки для получения доступа к корпоративным системам, имитируя сотрудников компаний или обманывая клиентов.

Например, в 2019 году с помощью сгенерированного искусственным интеллектом голоса, была успешно проведена атака на руководителя энергетической компании, ущерб после такой атаки составил порядка 240 тыс. долларов.

В 2021 году в Китае с помощью технологий дипфейка и поддельных налоговых накладных злоумышленники обманули государственную систему по распознаванию лиц на более чем 70 млн. долларов.

По результатам исследования компании Sensity, проведенного в 2022 году, утверждается, что биометрические тесты, используемые банками и криптобиржами для проверки пользователей, можно обмануть при помощи технологий дипфейка.

Также в 2022 году прошла волна устройств на работу с использованием технологий дипфейка. Цель этой мошеннической схемы заключалась в том, что бы под прикрытием получить должность, связанную с информационными технологиями и программным обеспечением, для последующего нанесения ущерба компании.

В 2023 году количество атак с использованием технологий дипфейка и синтетических медиа только растет. При создании синтетических медиа с помощью технологий дипфейка, помимо голоса и внешнего вида, злоумышленники могут прибегать к разным имитациям, например, повторить интерьер комнаты.

Развитие синтетических медиа создает значительные угрозы безопасности для отдельных людей, организаций и общества в целом. Дезинформация, кража персональных данных, подрыв доверия, риски для национальной безопасности и нарушение неприкосновенности частной жизни - все это подчеркивает настоятельную необходимость решения данной проблемы. На данный момент генеративный искусственный интеллект занимает лидирующие места в списках главных политических и экономических рисков.

Для снижения угроз безопасности, создаваемых подделками, и обеспечения ответственного подхода к разработке и использованию синтетических медиатехнологий необходимы согласованные усилия правительств, технологических компаний и общественности. Невыполнение этой задачи может иметь глубокие и долгосрочные последствия для безопасности и стабильности нашего цифрового мира.


Просто о сложном мире информационных технологий и безопасности.
Подписывайся на нас и узнавай новости первым!

Страница ВКонтакте -Защита информации Якутии
Страница Одноклассники - Защита информации Якутии
Подписывайтесь на YouTube-канал - Защита информации Якутии
Rutube-канал - Защита информации Якутии
Telegrm канал - Защита информации Якутии