Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
11 мая в парке Победы в Москве стартовал традиционный автопробег «Офицеры России — дорогами Памяти»,…
Сегодня утром, 9 мая, в самом центре Москвы на Красной площади прошел торжественный марш в…
Мэр столицы Сергей Собянин записал видеоролик для ветеранов и всех москвичей. Градоначальник отметил, что с…
Владимир Путин встретился с лидером Узбекистана Шавкатом Мирзиеевым накануне Дня Победы. Президент России назвал приезд…
Столичные власти ввели жесткие требования для всех доставщиков. Перед каждой сменой курьеры теперь обязаны подтверждать…
Мэр Москвы Сергей Собянин сообщил об уничтожении очередных трех беспилотников, направлявшихся к столице. Их сбили…