Среди фотографий разбомбленных домов и разрушенных улиц Газы некоторые выглядели особенно ужасно: окровавленные, брошенные младенцы. Эти изображения, просмотренные в Интернете миллионы раз с начала войны Израиля против ХАМАСа, представляют собой дипфейки, созданные с помощью искусственного интеллекта, указывается в статье международного информагентства “Ассошиэйтед Пресс”.
“Если присмотреться, то можно увидеть подсказки: пальцы, которые сгибаются странным образом, или глаза, мерцающие неестественным светом — все это явные признаки цифрового обмана”, — утверждается в материале.
Однако возмущение, которое спровоцировали эти изображения, вполне реально, отметили журналисты.
Фотографии войны Израиля и ХАМАСа ярко и болезненно проиллюстрировали потенциал искусственного интеллекта как инструмента пропаганды, используемого для создания реалистичных изображений резни. С тех пор, как в прошлом месяце началась война, распространенные в социальных сетях цифровые измененные изображения использовались для ложных заявлений об ответственности Израиля за жертвы, или для введения в заблуждение людей по поводу жестокости израильтян, которой никогда не было.
Хотя большинство неправдивых утверждений о войне, распространяющихся в Интернете, были созданы без использования искусственного интеллекта и поступали из более привычных источников, технологический прогресс идет все дальше, чего не скажешь о контроле над ним. Это совершенно очевидно делает потенциал искусственного интеллекта еще одной формой оружия и дает представление о том, что может происходить в ходе будущих конфликтов, выборов и других крупных событий.
“Все будет хуже – гораздо хуже – прежде чем станет лучше. Изображения, видео и аудио, созданные с помощью генеративного ИИ – это будет эскалация, с которой вы еще не знакомы”, – утверждает Жан-Клод Гольденштейн, генеральный директор CREOpoint – технологической компании, расположенной в Сан-Франциско и Париже, использующей ИИ для оценки обоснованности онлайн-претензий. Эта компания создала базу данных наиболее вирусных дипфейков, появлявшихся в Газе.
В некоторых случаях за новые выдавались фотографии других конфликтов или катастроф. В других — генеративные программы искусственного интеллекта использовались для создания изображений с нуля, например изображение плачущего среди обломков бомбардировки ребенка, которое стало вирусным в первые дни конфликта.
Другие примеры созданных искусственным интеллектом изображений включают видео, на которых изображены якобы израильские ракетные удары, или танки, катящиеся через разрушенные кварталы, или семьи, разбирающие руины в поисках выживших.
Во многих случаях подделки разработаны для того, чтобы вызвать сильную эмоциональную реакцию, поэтому содержат “тела” младенцев, детей или целых семей. В первые кровавые дни войны поклонники ХАМАСа утверждали, что другая сторона убивает детей и младенцев. В качестве доказательств предлагались дипфейки – изображения плачущих младенцев.
Пропагандисты, создающие такие образы, умело работают с глубинными импульсами, чувствительности и страхам людей, говорит Имран Ахмед, генеральный директор Центра противодействия цифровой ненависти, некоммерческой организации, отслеживающей дезинформацию во время войны. Независимо от того — это дипфейк ребенка, или настоящий образ младенца из другого конфликта, эмоциональное влияние на зрителя одинаково.
Чем отвратительнее изображение, тем выше вероятность того, что пользователь запомнит его и поделится им, невольно распространяя дезинформацию дальше.
“Людям прямо сейчас говорят: посмотрите на это фото ребенка. Дезинформация разработана, чтобы заставить вас приобщиться к ней”, — объясняет Ахмед.
Подобный обманчивый контент, созданный ИИ, начал распространяться после того, как Россия вторглась на Украину в 2022 году. Тогда появилось измененное видео, на котором показано, как президент Украины Владимир Зеленский приказывает украинцам сдаться. Такие заявления продолжали распространяться и на прошлой неделе, показывая, насколько устойчива может быть даже легко развенчанная дезинформация.
Каждый новый конфликт или сезон выборов предоставляют новые возможности для распространителей дезинформации продемонстрировать последние достижения ИИ. Поэтому многие эксперты по искусственному интеллекту и политологи предупреждают о рисках в следующем году, когда в нескольких странах состоятся масштабные выборы, в том числе в США, России, Индии, Пакистане, Тайване, Индонезии и Мексике.
По всему миру ряд технологических компаний начинают работают над новыми программами, которые могут выискивать дипфейки, прикреплять к изображениям водяные знаки, чтобы подтвердить их происхождение, или сканировать текст, чтобы проверить любые подозрительные утверждения, возможно, сделанные с использованием ИИ.
“Следующей волной искусственного интеллекта будет: как мы можем проверить содержимое, обнаружить дезинформацию, проанализировать текст, чтобы определить, заслуживает ли он доверия?”, — говорит Мария Амели, соучредитель Factiverse, норвежской компании, создавшей программу искусственного интеллекта, которая может сканировать содержимое на наличие неточностей или предвзятости, внесенных другими программами искусственного интеллекта.
Такие программы вызывают непосредственный интерес у преподавателей, журналистов, финансовых аналитиков и других, заинтересованных в искоренении лжи, плагиата или мошенничества. Подобные программы разрабатываются для обнаружения поддельных фотографий или видео.
По словам Дэвида Доэрманна — ученого, который возглавляет усилия в Агентстве передовых оборонных исследовательских проектов по реагированию на созданные обработанными ИИ изображениями угрозы национальной безопасности, несмотря на то, что эта технология является многообещающей, но те, кто использует искусственный интеллект, остаются на шаг впереди.
Доэрманн считает, что эффективный ответ на политические и социальные вызовы, связанные с дезинформацией искусственного интеллекта, потребует как лучших технологий, так и лучших нормативных актов, добровольных отраслевых стандартов и значительных инвестиций в программы цифровой грамотности, чтобы помочь пользователям Интернета найти способы отличить правду от фантазии.
“Каждый раз, когда мы выпускаем обнаруживающий это инструмент, наши враги могут использовать искусственный интеллект, чтобы скрыть доказательства. Выявление и попытка уничтожить фейковый материал больше не являются решением. Нам нужно найти гораздо более масштабное средство”, – отметил Доэрманн.