Взрыв у Пентагона оказался фейком, созданным нейросетью
Некоторые российские издания и Telegram-каналы вечером 22 мая опубликовали сообщение о мощном взрыве в Вашингтоне около здания Пентагона, сопровождавшееся соответствующим снимком. В течение нескольких минут выяснилось, что никакого взрыва не было — в районе здания американского министерства все спокойно. Фотография, вероятнее всего, была сгенерирована нейросетью на базе снимка 2001 года — на это указывают некоторые артефакты изображения. «Газета.Ru» вспоминает самые яркие фейк-ньюс последних месяцев, созданные искусственным интеллектом (и не только).
Около 17:00 мск в ряде Telegram-каналов и СМИ появилось сообщение о мощном взрыве, прогремевшем в Вашингтоне неподалеку от здания Пентагона. Оно сопровождалось фотографией с клубами дыма. После проверки стало понятно, что это фейк.
Изначально снимок с дымом начал распространяться на консервативных американских страницах в Facebook (владелец компания Meta признана в России экстремистской и запрещена). Потом сообщение подхватили российские военкоры, а также другие новостные Telegram-каналы, в том числе «Раньше всех, ну почти», у которого почти 1,5 млн подписчиков. Спустя примерно 20 минут отдельные журналисты и каналы написали, что изображение фейковое и относится, скорее всего, к 2001 году.
В подтверждение этому журналист Washington Post Юнус Паксой выложил фотографию, сделанную на авеню Пенсильвания Нортвест рядом с Международным торговым центром им. Рональда Рейгана. На снимке виден характерный купол центра, монумент Вашингтона и панорама правого берега реки Потомак, где расположено здание Пентагона. На фото нет никаких признаков взрыва.
Корреспондент РИА Новости также выложил видеозапись с круговой панорамой окрестностей Пентагона, где нет никаких свидетельств взрыва или пожара.
Еще через несколько минут служба безопасности оборонного ведомства США официально сообщила, что не фиксировала каких-либо происшествий рядом со зданием министерства.
Журналисты, внимательно изучившие первоначальный снимок с клубами дыма, предположили, что он был сгенерирован нейросетью на основе реальной фотографии атаки на Пентагон 11 сентября 2001 года, когда в здание министерства врезался один из угнанных террористами самолетов.
На искусственность фотографии указывают несколько элементов: смещение фонаря уличного освещения относительно своего основания, продолжение части ограды на тротуаре. Подобные артефакты нередко возникают на снимках, сделанных камерами с углом обзора в 360 градусов — их мы можем видеть в режиме просмотра улиц на онлайн-картах. Или же в случаях, когда изображение сгенерировано нейросетью.
Фейковые новости, в том числе в крупных изданиях (или от их лица) все чаще становятся поводом для беспокойства общественности и дестабилизации обстановки.
Одним из недавних примеров подобных вбросов стало сообщение в Twitter-аккаунте британской газеты The Guardian о смерти королевы Елизаветы II 8 сентября 2022 года. Выяснилось, что аккаунт издания был фейковым, на реальных страницах этой и других британских газеты не было никаких постов о смерти монарха. Королева действительно умерла в этот день, однако на момент фейковой публикации Букингемский дворец еще не делал официального заявления, было известно лишь о плохом самочувствии Елизаветы.
Спустя несколько дней стало известно, что королева скончалась в 15:10 по местному времени, общественности об этом официально сообщили в 18:30. Пост о смерти в фейковом аккаунте The Guardian появился как раз в этот временной промежуток, то есть по факту сообщение не было ложным.
В последние месяцы мировые политики, СМИ и общественность неоднократно поднимали проблему фейков, созданных искусственным интеллектом или на базе сгенерированного им контента. Например, в марте 2023-го нейросеть Midjourney сгенерировала фотографии «разрушительного наводнения 2001 года, которое обрушилось на западное побережье США», сделанные в формате репортажа и опубликованные на форуме Reddit.
Фейковые снимки, на которых были не только разрушения, но и реальные люди (в том числе тогдашний президент страны Джордж Буш-младший), быстро разошлись в американском сегменте интернета. Они вызвали множество комментариев в соцсетях: молодые люди, родившиеся после 2001-го, ужасались масштабам разрушений, а старшее поколение недоумевало, поскольку не помнило такого наводнения.
Тогда же, в марте, по сети разлетелись фейковые фотографии ареста экс-президента США Дональда Трампа. На них политик убегает от толпы полицейских, которые в итоге жестко его скручивают. В связи с распространением сгенерированных нейросетью снимков полиции Нью-Йорка пришлось делать официальное заявление, что они не арестовывали Трампа.
В апреле немецкий фотограф Борис Эльдагсен, получивший премию Sony World Photography Awards-2023 в номинации «Свободное творчество», признался, что снимок под названием «Псевдоамнезия: Электрик» был полностью сгенерирован ИИ. Оргкомитет позже оправдывался, что знал о применении нейросети для создания кадра, но считал, что это совместное творчество живого автора и искусственного интеллекта. Сам Эльдагсен сразу же отказался от премии и объяснил, что работы нейросетей не являются фотографией. А заявку на конкурс он подал как раз для того, чтобы привлечь внимание к проблеме использования ИИ в творческих сферах деятельности.