Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
Известного венчурного инвестора и основателя фонда Almaz Capital Partners Александра Галицкого допросили в рамках проверки…
Синоптики рассказали, какая погода ждет жителей центральной части России в ближайшие дни. Начиная с пятницы,…
Член комитета Госдумы по вопросам семьи Татьяна Буцкая выступила с инициативой запретить доступ к порносайтам…
Правоохранительные органы смогли выяснить, кто стрелял в первого заместителя начальника ГРУ генерала Владимира Алексеева в…
В ночь на 9 февраля в одном из жилых комплексов в деловом центре Москва-Сити группа…
В Москве совершено покушение на высокопоставленного офицера. Вечером 6 февраля в подъезде жилого дома на…