Фото: freepik.com/free-photo
Несмотря на стремительно развивающиеся технологии реального человека невозможно скопировать в Сети. Речь идет о популярных сейчас дипфейках в видео. Искусственный интеллект научился генерировать изображение человека и даже его движения и голос.
На первый взгляд, можно не отличить персонаж от реального героя. Этим начали пользоваться мошенники. Однако, каким бы реалистичным не показался человек на экране, можно разоблачить дипфейк.
В этом уверен член комитета ГД по информполитике Антон Немкин. В беседе с РИА Новости он рассказал, что дипфейк можно распознать по движению глаз, цвету кожи и волос, а также контуру овала лица. Можно также уловить интонацию человека. Причем изображение зачастую бывает размытым, добавил депутат.
Подозрение может вызвать просьба человека на экране. Если он просит деньги или что-то другое, то это, скорее всего, происки мошенников, отметил Немкин. Поэтому он призвал доверять, но проверять.
Можно всегда выйти на связь с реальным человеком и спросить, не он ли выходил с обращением или обратиться к специалистам, чтобы выявить подделку.
Ранее Вести Московского региона сообщали, что выступление Зеленского в парламенте Франции прошло в полупустом зале.
Экс-глава подмосковного города Долгопрудный Владислав Юдин, который ранее находился под арестом, отправился в зону проведения…
В порту города Темрюк, расположенном в Краснодарском крае, вспыхнуло возгорание. Пожар начался вследствие удара беспилотного…
В Московской области правоохранительные органы задержали персонал двух частных реабилитационных центров. Восемь сотрудников учреждений подозреваются…
Следователи в Москве возбудили уголовное дело по факту угроз в адрес студентки МГИМО. Инцидент произошел…
Правоохранители в центре Екатеринбурга нагрянули в заведение на Первомайской улице. Помещение, расположенное прямо напротив здания…
С 1 января 2026 года в российский паспорт можно будет внести дополнительную отметку. Речь идет…