Искусственный интеллект

Используя искусственный интеллект, преступник клонирует голос девушки, чтобы вымогать деньги у ее матери


Мошенники используют инструменты клонирования голоса с помощью искусственного интеллекта, чтобы вымогать деньги у своих жертв. Они создают впечатление, что близкий человек находится в опасности или похищен, используя его голос: трудно не попасться на эту аферу, которая может стоить вам несколько тысяч рублей.

Когда искусственный интеллект используется для клонирования голоса ваших близких и мошенничества… Представьте себе сцену: вам звонят с неизвестного номера. На другом конце линии: ваш ребенок умоляет вас помочь ему. Его только что похитили, и похититель требует несколько тысяч долларов. Именно это произошло с Дженнифер ДеСтефано, американкой, живущей в Аризоне. Подняв трубку, мать услышала, как ее 15-летняя дочь со слезами на глазах говорит, что она “сделала глупость”, а затем услышала слова мужчины: “Ваша дочь у меня. Вот как это произойдет. Если вы позвоните в полицию, если вы позвоните кому угодно, я буду пичкать ее наркотиками. Я сделаю с ней все, что захочу, и высажу ее в Мексике”. Мужчина требовал миллион долларов, но потом снизил сумму выкупа до 50 000 долларов.

Для Дженнифер ДеСтефано все ясно. Ее дочь похитили. “Это был полностью ее голос. Это была ее интонация. Это было то, как бы она плакала. Я ни на секунду не сомневалась, что это она“, — сказала она телеканалу AZ Family 10 апреля. Но на линии была не ее 15-летняя дочь. Это был ее голос, клонированный искусственным интеллектом. К счастью, жертва этого вымогательства поняла это до того, как дело зашло дальше. Пока она разговаривала с похитителем, у одного из ее знакомых, ставшего свидетелем разговора, хватило ума позвонить ее мужу. Через несколько минут она получила подтверждение, что ее дочь в безопасности.

Сколько людей получили подобный звонок, используя голосовой клон и заявляя о чрезвычайной ситуации в семье или о фиктивном похищении? Никто не знает, но они происходят относительно часто. Настолько, что 20 марта Федеральная торговая комиссия (FTC), организация, отвечающая за защиту прав потребителей в США, уже предупреждала об этих особенно тревожных звонках. FTC объяснила, что мошенники часто просят жертв перевести деньги, отправить криптовалюту или заплатить выкуп подарочными картами. После перевода денег или номеров подарочных карт получить их обратно практически невозможно.

Именно это произошло с канадской семьей несколько недель назад, сообщила 5 марта газета Washington Post. Человек, выдававший себя за адвоката, сообщил пожилым родителям, что их сын совершил автомобильную аварию, убил американского дипломата, находится в тюрьме и нуждается в деньгах для оплаты судебных издержек. Затем он дал трубку их сыну – клонированным голосом – и убедил родителей выслать 15 000 долларов, которые они так и не получили обратно.

Вы больше не можете доверять своим ушам“, — сказал Суббарао Камбхампати, профессор информатики из Университета штата Аризона в США, в интервью американскому телеканалу. По словам этого специалиста, клонирование голоса больше не требует многочасовой записи. Отныне достаточно трех секунд. И результат поражает. “Большинству голосовых клонов удается имитировать тон и эмоции. Чем больше размер образца, тем лучше имитация. Очевидно, что если вы говорите нормальным голосом, я не обязательно смогу клонировать ваш голос, когда вы расстроены, но если у меня есть три секунды вашего расстроенного голоса, то все возможно“, — добавляет он.

Back to top button