Россия планирует применить технологию "дипфейк" – методику синтеза изображения человека, которая базируется на искусственном интеллекте, с использованием лица президента Украины Владимира Зеленского, чтобы распространять дезинформацию о сдаче государственных интересов. Об этом заявили в Главном управлении разведки Минобороны.
На практике это означает, что компьютерные алгоритмы научились «оживлять» фотографии, синтезировать голос человека, заменять лицо на определенном видео. В итоге появляется контент, который снаружи практически не различается от настоящего.
"Когда в начале февраля 2022 года конфликт с Россией начал набирать обороты, она активизировала все доступные ей инструменты гибридной войны, а именно информационного влияния, начиная друг за другом фабриковать видеоролики, очень "дешевые" по своему качеству: то детсад якобы ВСУ обстреляли в Станице Луганской, то якобы ВСУ готовит химическую диверсию на территории ОРДЛО, то так называемые "ЛНР" и "ДНР" начинают массовую эвакуацию населения", - напомнили в ведомстве.
В ГУР отмечают, что РФ может использовать такую технологию, когда сочтет Украину истощенной и готовой сдаться.
"Но во-первых, этого никогда не произойдет, а во-вторых, ГУР владеет разведданными, которые говорят о том, что в подобном видео может быть использовано лицо президента Украины Владимира Зеленского. Поэтому знайте: подобное видео будет фейком, цель которого посеять панику, дезориентировать, отчаяться, склонить наши войска к капитуляции", - подчеркнули в разведке.