Когда пожилой человек слышит в телефоне голос внука, который отчаянно умоляет о помощи, то маловероятно, что откажет близкому человеку. Вот только голос этот может принадлежать вовсе не родственнику, а искусственному интеллекту, притворяющемуся внуком.
Искусственный интеллект в настоящее время больше всего ассоциируется с рисованием картинок и написанием все более качественных текстов. Однако некоторые мошшеники уже осваивают и другие доступные функции, например, имитацию голоса.
Новый технологически изощренный подход описывает издание The Washington Post. Мошенникам достаточно получить несколько фраз аудиозаписи человека, которую они записывают, например, во время непрошенного телефонного звонка или из социальной сети. Для продвинутых алгоритмов требуется около трех секунд записи. И на основе такой записи мошенники создают имитацию голоса конкретных людей, с помощью которой затем обманывают их пожилых родственников. Эффект получается весьма убедительный.
Благодаря искусственному интеллекту, теперь мошенник может выдать себя за близкого родственника пожилого человека. Притворившись, что попал в беду, мошшенки выманивают денежные средства у пожилых людей. Осуществить аферу совсем несложно, ведь пенсионеры так напуганы и растеряны, что высылают своим «родственникам» большие деньги, пишет издание. Например, одна семейная пара пенсионеров отправила мошеннику 15 000 долларов (около 336 000 крон) через биткойн-терминал, полагая, что разговаривает со своим сыном. Голос, сгенерированный искусственным интеллектом, сказал им, что ему нужно оплатить судебные издержки после того, как он попал в автомобильную аварию.
Очень реалистично звучащие человеческие голоса, созданные искусственным интеллектом, в сочетании с поддельными видео вызывают гораздо больше проблем. Например, в начале этого года на сервере 4chan появились голоса знаменитостей, созданные с помощью этой технологии дипфейков, которые произносили расистские, оскорбительные или насильственные заявления.