Фото: freepik.com
С развитием искусственного интеллекта в Сети можно легко подделать изображение человека и даже дать ему речь его же голосом. Такие видео- и аудио ролики называются дипфейками. Этой технологией часто пользуются мошенники, чтобы ввести в заблуждение жертву и выманить у него деньги или другую личную информацию.
Однако любой человек при внимательном изучении видео может распознать нейросеть. Об этом москвичей предупредили в Управлении по организации борьбы с противоправным использованием информационно-коммуникационных технологий (УБК) МВД России.
Как передает ТАСС, в первую очередь, нужно внимательно посмотреть на изображение человека. Дипфейк могут выдать глаза и рот, которые могут двигаться не синхронно речи и мимике. Второе, на что следует обратить внимание, — это на саму речь. Она моет быть слишком роботизированной.
Ранее Вести Московского региона сообщали, что москвичи активно начали арендовать дачи в Подмосковье.
С 1 апреля в России начнут действовать новые правила оплаты коммунальных услуг. Изменения коснутся формы…
В Московской области полицейские проверили склады и точки общепита. Рейд прошел в рамках мероприятия «Антикриминал».…
После налета беспилотников в подмосковном Можайске пострадали два строения. Глава муниципального округа Денис Мордвинцев сообщил,…
Президент Владимир Путин дал старт строительству нового здания Национального центра «Россия». Церемония прошла в Москве,…
В Нижнем Новгороде на международной конференции в ННГУ имени Лобачевского российские ученые заявили, что готовы…
В Москве полицейские задержали двоих мужчин, которые насильно усадили девушку в машину и увезли в…