Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
Сотрудники ФСБ задержали жительницу Ставрополя, которая планировала совершить теракт. Она готовила взрыв автомобиля офицера Министерства…
Автомобиль певицы Ларисы Долиной попал в ДТП в Москве. Авария произошла в районе Строгино примерно…
Рабочий-мигрант ранил своего бригадира ножом во время ссоры о зарплате. Инцидент случился в ночь на…
Московский банк Сбербанка и компания Fresh Food реализовали комплексное решение для международных расчётов с использованием…
Социальный фонд России изменит график выплат пенсий за январь. Большинство пенсионеров получат деньги раньше обычного…
Московская городская дума утвердила поправки в Кодекс об административных правонарушениях. Закон ужесточает наказания для пассажиров,…