Фото: freepik.com/ wirestock
Искусственный интеллект плотно заходит в мир цифровых технологий. Однако аферисты не дремлют. Директор направления кибербезопасности Edge Центр Артем Избаенков предупредил, что мошенники начали использовать голосовой фишинг.
Как объяснил IT-эксперт, речь идет об имитации голоса знакомого для жертвы человека. Это могут быть голоса коллег или родственников. ИИ генерирует голоса, а мошенник при звонке использует его для того, чтобы человек поверил и последовал командам.
Таким образом любой россиянин может попасться на уловки аферистов и лишиться денег. При этом Избаенков рассказал, что преступнику придется изрядно потрудиться и потратить некоторое время для создания голоса. Но в ближайшем будущем они могут автоматизировать этот процесс, предупредил он.
Ранее Вести Московского региона сообщали, что в российском вузе запустили программу обучения медиаполицейских.
В Москве совершено покушение на высокопоставленного офицера. Вечером 6 февраля в подъезде жилого дома на…
ФБР США обнародовало новые детали об обстоятельствах смерти финансиста Джеффри Эпштейна. Аналитики ведомства изучили записи…
В результате обстрела на территории Белгородской области повреждены объекты энергетического комплекса. О последствиях ночного обстрела…
Сбербанк и АО «ИКС КАР ГРУПП» в рамках соглашения о стратегическом сотрудничестве завершили технологическую интеграцию…
Федеральная служба исполнения наказаний привела подробности по делу о мошенничестве с участием певицы Ларисы Долиной.…
На строительстве нового терминала в аэропорту Благовещенска произошел несчастный случай. В среду, 4 февраля, погибла…