Ударное оружие цифровой войны
Самой опасной новой технологией в IT-сфере аналитики дружно называют технологию deep fake. Поэтому, например, в Китае с января 2020 года запрещено публиковать синтезированные deep fake-фото и видео без особой пометки. В США в октябре 2019 года Калифорния стала первым штатом, вообще запретившим выкладывать в Сеть ролики с политическими кандидатами за 60 дней и менее до выборов. Именно из-за опасений подделок.
Технология deep fake действительно может стать ударным оружием киберподразделений разведок и спецслужб в цифровой войне. «Армейский стандарт» поговорил о deep fake с военными экспертами и политологами. Их вывод неутешителен: если спровоцировать глобальный конфликт, используя deep fake, пока вряд ли получится, то локальные войны или революции — без проблем.
Что же такое deep fake? Имя технология получила от сочетания deep learning («глубокое обучение») и fake («подделка»). В основе технологии deep fake лежат нейронные сети, работающие по генеративно-состязательному принципу. Один алгоритм обучается на представленных фото и видео создавать подмену лица. Второй проверяет полученный результат — сравнивает созданную копию с реальным изображением. Если ложный образ неудачен, возвращает данные для нового обучения первого алгоритма. И так до тех пор, пока сама нейронная сеть не начнет путать, где созданная копия, а где оригинал. Это позволяет моделировать поведение и внешность человека на видеозаписи.
Естественно, как только технология появилась, первым делом в «звезд порноиндустрии» стали превращать знаменитостей типа Скарлетт Йоханссон, Тейлор Свифт, Эммы Уотсон и Кэти Перри. Актера Николаса Кейджа, прославившегося неразборчивостью в выборе ролей, стали вставлять ради развлечения в эпизоды культовых фильмов. В фильме «Изгой один: Звездные войны» режиссер для одного эпизода «воскресил» с помощью технологии deep fake актера Питера Кушинга, скончавшегося в 1994 году. Дошло и до политиков. Например, был сгенерирован ролик, в котором Барак Обама кроет матом Дональда Трампа.
Зафиксирован и случай использования deep fake мошенниками. Британскую энергетическую компанию ограбили на 220 тысяч евро, когда на связь с финансовым отделом вышел «клон» управляющего из Германии и потребовал перевести деньги.
Легко представить, какие возможности дает эта технология политтехнологам. Именно поэтому появляются запреты, аналогичные введенным в Китае и США.
В мире сейчас генерируется в среднем около 20 тысяч deep fake-видео каждый месяц. Внимательный зритель теоретически может различить подделку. В первую очередь можно обратить внимание, что синтезированные лица на видео не моргают. Дело в том, что обучение нейронных сетей проходит по выложенным в Сеть картинкам. Но многие ли пользователи выкладывают свои фото с закрытыми глазами?
Впрочем, аналитики полагают, что эта недоработка скоро будет устранена. И тогда «разоблачать» deep fake смогут только другие алгоритмы. Но смогут ли? Сейчас лучшие программы, предназначенные для этого, могут гарантировать 97% точности. Кроме того, появляются все новые и новые программы для еще более глубоких подделок. Так, приложение Neural Rendering, разработанное специалистами университетов Принстона, Макса Планка и Стэнфорда, «заставляет» изображение человека своим голосом произносить любой текст на любом языке.
И зарубежные, и российские IT-специалисты считают, что технология deep fake может стать самой опасной в цифровой сфере. И не только в глобальном плане — для провокации конфликтов. Ее развитие без сдерживающих факторов может привести к тому, что, например, видеодоказательства не смогут быть аргументами в суде.
Ведущий российский военный эксперт Алексей Леонков считает, что добиться возникновения военного конфликта с помощью провокаций с использованием технологии deep fake вполне реально в странах, где сильны родо-племенные отношения:
«В умелых руках такие технологии позволяют подделать что угодно. Пока такого рода технологии появляются в виде развлечений. Например, когда в известные фильмы ставят других актеров. И выглядит очень правдоподобно. А теперь представьте. Раньше были такие форматы скандальные — «лицо, похожее на некоего политика» совершило некое аморальное действие. Но там на записи еле просматривается что-то. А в «цифре» такого рода «доказательства» будут настолько реалистичными, что, например, перед выборами скомпрометируют политика. Покажут, скажем, его якобы встречу с криминалитетом.
Фантазировать тут можно долго. Понятно, что для создания таких подделок нужны соответствующие вычислительные мощности. Это не сложно для развитых стран и создает проблемы для не развитых. Если помните, все «цветные революции» проходили в цифровом формате — через мессенджеры собирали людей, сообщали им какие-то невероятные вещи. Эти перевороты иногда удавались, иногда не удавались. Не удавались тогда, когда отключалась всякая возможность цифрового общения. Собрать толпу, которая могла что-то натворить, благодаря группам внедрения, которые в нее попали, сложно. Использование мессенджеров приводило к печальным последствиям. Даже относительно развитые и благополучные страны, например Ливия, приходили в полный упадок.
А теперь представьте, что будут распространяться не текстовые сообщения, видеоконтент. Людей приучили к такому сервису по распространению видеоконтента, как YouTube. Многие именно там получают новости. И, кстати, на этом же сервисе публикуются разоблачения. Если какие-то недобросовестные телеканалы делают фейк-ньюс, то разоблачители как раз находятся на YouTube, а не на телевидении.
Теперь складываем одно с другим и получаем, что на каналах, где есть многомиллионная аудитория подписчиков, которым доверяют, начнут вбрасываться deep fake. Что будет в результате? С помощью провокаций с использованием deep fake можно добиться военного конфликта. Особенно в странах, где сильны родо-племенные отношения и где на публичное оскорбление принято отвечать не словами, а оружием.
Конечно, технология пока несовершенна. Видна неестественность, можно заметить подделку. Особенно в тех же фильмах, когда ты знаешь, какой был оригинал. А если ты не знаешь оригинала? Там только специалист может определить подделку. Так что формировать общественное мнение можно. Корпорация RAND, эдакое теневое ЦРУ, недавно выпустила очередные рекомендации правительству США, что им делать с Россией. Они как раз делают ставку на внутренние противоречия у нас, раскачивание этих проблем. Представьте, что по нашим сетям начнут гулять соответствующего содержания ролики. Главное — разжечь конфликт».
Алексей Макаркин, заместитель директора Центра политических технологий, придерживается мнения, что в первую очередь под удар нечистоплотных политтехнологов могут попасть страны Востока:
«У нас глобальный мир. Интернет — это глобальный мир. Но в рамках этого глобального мира есть разные культуры. Например, если мы берем Европу, Америку, то там большинство людей относятся к вброшенной информации с подозрением. Кто-то не поверит, кто-то поверит. Но те, кто поверит, смогут как-то проверить информацию, перед тем как принимать решение. Поэтому в европейской и американской культуре я больших проблем, связанных с deep fake, не вижу.
А вот для стран Востока, где гораздо более серьезно относятся к слову, это проблема. Если помните, аятолла Хомейни приговорил к смерти поэта Салмана Рушди всего лишь за книгу «Сатанинские стихи». Сейчас в Пакистане молодого преподавателя приговорили к смертной казни за якобы оскорбление ислама. Поэтому если мы говорим о странах Востока, то здесь какие-либо оскорбительные слова в отношении религии, национальности, которые могут быть вложены с помощью deep fake в уста конкретного человека, многие просто не будут проверять.
Что может стать основанием для очень серьезных осложнений. А потом доказывай, что ты этого не говорил. Конфликт-то уже вспыхнул. Какой-то неуравновешенный человек может решить убить отступника или позволившего кощунственное для верующего высказывание, а потом выяснится, что это deep fake.
Тем не менее пока попытки ввести общество в заблуждение хоть и могут быть удачными, но оборачиваются негативом для тех, кто это делает. В Америке, например, был огромный консенсус в начале иракской войны. Когда казалось, что есть доказательства того, что Саддам Хуссейн разрабатывает оружие массового поражения. Забавно, что Колин Пауэлл сам верил в ту самую пробирку, которой потрясал как доказательством. Но когда выяснилось, что это не так, то это сильнейшим образом ударило по репутации Джорджа Буша-младшего, по репутации республиканского истеблишмента. В Англии это сильно ударило по позиции Блэра, хотя он был одним из самых удачливых премьер-министров. После всех этих вещей подобные «доказательства» в Европе и Америке будут тщательно проверяться. Но еще раз повторюсь, среди людей, которые часто действуют на эмоциях, deep fake очень опасны. Они могут спровоцировать локальный конфликт, межнациональный конфликт, конфликт на религиозной почве».