Исследователи из Университетского колледжа Лондона обнаружили, что люди не могут отличить до 25-27% аудио-дипфейков, созданных с использованием нейронных сетей, от реальных голосовых записей.
Специалисты Лондонского колледжа провели эксперимент, в котором приняли участие 500 испытуемых, разделенных на две группы. Первую группу долгое время учили распознавать аудиодипфейки, в то время как вторая группа испытуемых никак не готовилась к эксперименту.
Ученые записали образцы голосов нескольких мужчин и женщин, говоривших на английском и китайском языках, и использовали их для обучения специальной генерирующей нейросети (VITS). С помощью этой же нейросети было сгенерировано 50 коротких аудиодорожек, которые исследователи предложили прослушать испытуемым.
Участникам эксперимента нужно было попытаться ответить, является ли запись настоящей или синтезированной искусственным интеллектом. Те же аудиодорожки исследователи загрузили в нейросетевой алгоритм (LFCC-LCNN), специально созданный для выявления дипфейков.
Как оказалось, и подготовленные участники эксперимента, и простые обыватели не смогли корректно выявить до 25–27% дипфейков. Такие результаты были примерно одинаковыми как для англоязычных испытуемых, так и для носителей китайского языка. Тем временем алгоритм LFCC-LCNN смог корректно распознать все синтезированные искусственным интеллектом аудиодорожки.
Как уже известно, дипфейки делаются с помощью машинного обучения и технологий искусственного интеллекта, для производства звуковых дипфейков необходимо специализированное ПО, алгоритмы для обработки и синтеза голоса, для создания же правдоподобных дипфейков необходима высокая техническая компетенция и достаточное количество исходного материала надлежащего качества. При наличии перечисленного выше, созданные нейросетями аудио, могут воссоздавать уникальные характеристики и интонации конкретного человека, что может использоваться в самых разных целях.
Что касается мошенничества, то по словам экспертов угроза в плане использования звуковых дипфейков мошенниками на сегодняшний день - "не массовая":
Специалисты Лондонского колледжа провели эксперимент, в котором приняли участие 500 испытуемых, разделенных на две группы. Первую группу долгое время учили распознавать аудиодипфейки, в то время как вторая группа испытуемых никак не готовилась к эксперименту.
Ученые записали образцы голосов нескольких мужчин и женщин, говоривших на английском и китайском языках, и использовали их для обучения специальной генерирующей нейросети (VITS). С помощью этой же нейросети было сгенерировано 50 коротких аудиодорожек, которые исследователи предложили прослушать испытуемым.
Участникам эксперимента нужно было попытаться ответить, является ли запись настоящей или синтезированной искусственным интеллектом. Те же аудиодорожки исследователи загрузили в нейросетевой алгоритм (LFCC-LCNN), специально созданный для выявления дипфейков.
Как оказалось, и подготовленные участники эксперимента, и простые обыватели не смогли корректно выявить до 25–27% дипфейков. Такие результаты были примерно одинаковыми как для англоязычных испытуемых, так и для носителей китайского языка. Тем временем алгоритм LFCC-LCNN смог корректно распознать все синтезированные искусственным интеллектом аудиодорожки.
Как уже известно, дипфейки делаются с помощью машинного обучения и технологий искусственного интеллекта, для производства звуковых дипфейков необходимо специализированное ПО, алгоритмы для обработки и синтеза голоса, для создания же правдоподобных дипфейков необходима высокая техническая компетенция и достаточное количество исходного материала надлежащего качества. При наличии перечисленного выше, созданные нейросетями аудио, могут воссоздавать уникальные характеристики и интонации конкретного человека, что может использоваться в самых разных целях.
Что касается мошенничества, то по словам экспертов угроза в плане использования звуковых дипфейков мошенниками на сегодняшний день - "не массовая":
"Все немногочисленные случаи применения дипфейк-технологий злоумышленниками, по сути, сводятся к приемам социальной инженерии, когда мошенники, выдавая себя за других людей, пытаются выманить у жертв деньги или личные данные" — об этом в беседе с «Известиями» говорит руководитель российского исследовательского центра «Лаборатории Касперского» Дмитрий Галов
По мнению экспертов, созданные нейросетями аудиозаписи могут стать опасным оружием в руках преступников.
Как защититься?
Чтобы защититься от различных дипфейков, специалисты советуют критически относиться к любой информации и перепроверять все сомнительные сообщения. Важно не гадать, кто вам звонит, а сломать сценарий злоумышленников и перезвонить самостоятельно. Так вы будете уверены, что действительно общаетесь с тем, кем представился звонящий, что особенно актуально на фоне роста числа случаев телефонного мошенничества.
Технологии развиваются быстрыми темпами, а для создания убедительных дипфейков всё реже требуется наличие продвинутых навыков. Поэтому нельзя исключать, что в будущем объемы мошенничества с их использованием увеличатся.
Технологии развиваются быстрыми темпами, а для создания убедительных дипфейков всё реже требуется наличие продвинутых навыков. Поэтому нельзя исключать, что в будущем объемы мошенничества с их использованием увеличатся.
- Подробнее о том, что такое дипфейк и как его распознать?
Просто о сложном мире информационных технологий и безопасности.
Подписывайся на нас и узнавай новости первым!
Страница ВКонтакте -Защита информации Якутии
Страница Одноклассники - Защита информации Якутии
Подписывайтесь на YouTube-канал - Защита информации Якутии
Rutube-канал - Защита информации Якутии
Telegrm канал - Защита информации Якутии
Подписывайся на нас и узнавай новости первым!
Страница ВКонтакте -Защита информации Якутии
Страница Одноклассники - Защита информации Якутии
Подписывайтесь на YouTube-канал - Защита информации Якутии
Rutube-канал - Защита информации Якутии
Telegrm канал - Защита информации Якутии