Искусственный интеллект проиграл выборы: почему он не способен влиять на них
Интрига с выборами в США, которые называют главными в этом году, разрешилась. В ожесточенной борьбе победил кандидат от Республиканской партии Дональд Трамп. Исход голосования был непредсказуем: все предварительные опросы давали Трампу и его сопернице Камале Харрис примерно равные шансы на победу, изменить хрупкий баланс в ту или иную сторону могла любая мелочь. Поэтому особый интерес вызывает вопрос: какую роль на выборах играет сейчас новый фактор — революция искусственного интеллекта?
Технологический Армагеддон
Революция генеративного ИИ началась всего два года назад, после запуска первого общедоступного чат-бота ChatGPT от OpenAI в ноябре 2022 года. Это значит, что нынешние президентские выборы в США — первые «послереволюционные».
Технология очень быстро развивается и уже влияет на многие стороны нашей жизни. Например, путём создания трудноотличимых от реальности иллюзий, так называемых дипфейков. Ту же OpenAI, например, актриса Скарлетт Йоханссон недавно обвинила в создании имитации собственного голоса, неотличимого от настоящего, для озвучки новой версии ChatGPT-4o.
Лауреат Нобелевской премии мира, филиппинская журналистка Мария Ресса назвала стремительное распространение ложной информации, усугубленное появлением генеративного ИИ, «технологическим Армагеддоном». «Если у вас нет фактов, у вас не может быть правды. Без правды не может быть доверия. Без этих трёх составляющих у нас нет общей реальности, нет верховенства закона — у нас нет демократии», — сказала она в 2023 году.
Год супервыборов
Тревога усилилась в связи с тем, что 2024-й — «супервыборный» год. По данным Statista, в общей сложности в этом году выборы уже прошли или пройдут в 60 странах, в них примут участие 2 млрд человек — около четверти населения мира. Такого никогда прежде не случалось.
Весной опасения, казалось, начали сбываться. Индийский политтехнолог Девендра Сингх Джадун, специализирующийся на создании так называемых «санкционированных дипфейков», которые делаются по просьбе человека, который в них изображается, рассказал The Washington Post, что сотни политиков обращались за его услугами, и более половины просили о «неэтичных» вещах. Кандидаты требовали подделывать аудиозаписи конкурентов, или накладывать лица соперников на порнографические изображения. Некоторые действовали хитрее — запрашивали поддельные видео низкого качества с участием своего кандидата, которые могли быть опубликованы, чтобы поставить под сомнение любые настоящие изобличающие видео, которые могут появиться во время выборов. Сам он утверждал, что отказывается от неэтичных запросов, однако выразил сомнение, что все будут столь же щепетильны.
Другой тревожный звоночек — мэр Лондона Садик Хан рассказал BBC, что фейковая аудиозапись с его голосом едва не стала причиной массовых беспорядков в столице Великобритании.
Ещё одно опасение относительно ИИ связано с так называемым микротаргетингом — тонкой настройкой политического сообщения под вкусы и предпочтения конкретного человека. Некоторые эксперименты показывают, что ИИ умеет довольно эффективно переубеждать людей, склоняя их к своей точке зрения.
Что случилось в Америке
На этом фоне неудивительно, что аналитики особенно пристально следили за президентской гонкой в США, как из-за влиятельности этой страны в мире, так и из-за крайне напряженного характера борьбы между кандидатами.
Агентство по кибербезопасности и защите инфраструктуры США в служебной записке предупредило должностных лиц избирательных комиссий, что генеративный ИИ может использоваться для усиления кампаний по иностранному влиянию на выборы. Инструменты ИИ могут также позволить злоумышленникам выдавать себя за сотрудников избирательных комиссий, распространяя неверную информацию о том, как голосовать, или о честности избирательного процесса, предупредили в министерстве.
По данным опроса Pew Research, 57% взрослых американцев в сентябре были очень обеспокоены тем, что люди или организации, стремящиеся повлиять на выборы, будут использовать ИИ для создания и распространения ложной или вводящей в заблуждение информации о кандидатах и кампаниях.
Один из самых скандальных случаев использования дипфейков устроил сам Дональд Трамп — в августе он опубликовал в своей соцсети Truth Social несколько изображений суперпопулярной певицы Тейлор Свифт и её поклонниц (они называют себя «свифтис»), якобы призывающих голосовать за него. Изображения оказались ИИ-фейками, а Трамп оправдывался тем, что ничего об этом не знал и просто перепостил чьи-то фото. Разумеется, Свифт и не думала его поддерживать. «Это событие пробудило во мне страхи по поводу ИИ и опасности распространения дезинформации», — написала она в своём Instagram.
О том, как дешево и просто сейчас можно изготовить дипфейк, говорит и другой случай. В январе 2024 года американский политтехнолог Стив Крамер организовал примерно 5000 аудиозвонков избирателям штата Нью-Гэмпшир, в которых голос, неотличимый от голоса действующего президента США Джо Байдена, призывал их не ходить на праймериз (предварительные партийные выборы по отбору кандидатов на президентские) и «поберечь свой голос до ноября». Это первый известный случай использования дипфейка в американской национальной политике. Он вызвал беспокойство регулирующих органов и побудил Федеральную комиссию по коммуникациям запретить нежелательные автоматические звонки, в которых используются голоса, созданные с помощью ИИ, пишет CNBC.
По данным CNBC, Крамер действовал в интересах конкурента Байдена по праймериз Дина Филлипса, хотя впоследствии утверждал, что «просто хотел привлечь внимание к опасности ИИ в политике». Примечательно, что дипфейковое аудио с голосом президента сделал по просьбе Крамера уличный фокусник из Нового Орлеана всего за $150, а вся кампания, по его словам, обошлась примерно в $500. «За $500 я получил действий на $5 млн, будь то внимание СМИ или действия регулирующих органов», — хвастался Крамер CNBC. За такую самодеятельность ему теперь грозит штраф $6 млн и пара уголовных дел.
В июле этого года в ходе драматического поворота событий Джо Байден отказался от участия в избирательной гонке в пользу вице-президента Камалы Харрис. Grok, ИИ-чат-бот принадлежащей Илону Маску соцсети X, немедленно создал пост, в котором утверждал, что срок внесения нового претендента в избирательные бюллетени уже прошел в девяти штатах, и, следовательно, Харрис не сможет в них избираться. Это было полной неправдой, но пост провисел более недели и ложную информацию увидели миллионы людей, прежде чем ошибка была исправлена, пишет Quartz. В данном случае примечательно то, что ИИ создал ложный пост по собственной инициативе — даже участия человека не потребовалось. Он что, решил сам захватить власть? От ИИ скандалиста Маска всего можно ждать.
Армагеддон откладывается
Спешу вас успокоить — этой осенью были опубликованы несколько обзоров электоральной практики, которые пришли к утешительному для человечества выводу: несмотря на все опасения и скандалы, технологии ИИ пока не оказывают серьёзного влияния на выборные процессы.
«Существует множество кампаний и организаций, так или иначе использующих ИИ. Но, на мой взгляд, он не достиг того уровня воздействия, которого люди ожидали или опасались», — приводит Time слова Бетси Гувер, основательницы Higher Ground Labs, венчурного фонда, инвестирующего в политические технологии.
«Согласно нашему исследованию, из 112 национальных выборов, которые либо состоялись с января 2023 года, либо состоятся в 2024 году, только 19 были идентифицированы как демонстрирующие вмешательство ИИ. По состоянию на май 2024 года доказательства не демонстрируют явных признаков существенных изменений в результатах политических кандидатов по сравнению с ожидаемыми на основе данных опросов», — вторит ей британский Институт Алана Тьюринга.
Дело в том, что политика появилась не вчера, и различные партии много лет тратят огромное количество усилий на попытки использовать технологии массового убеждения избирателей. Однако научные данные показывают, что, как правило, эти усилия имеют незначительный эффект. Особенно в таких супернапряженных избирательных кампаниях, как выборы президента США, в которых сталкивается множество разнообразных факторов, что снижает влияние любой отдельной попытки убеждения, отмечают авторы бюллетеня Массачусетского технологического института (MIT).
Кроме того, огромное количество информационного шума, который только усиливается с помощью инструментов ИИ, препятствует тому, чтобы информация достигала своей целевой аудитории. Некоторые люди из-за перегрузки просто «отключаются» от инфопотока, что ещё сильнее снижает охват сообщений, неважно, созданных с помощью ИИ или людьми.
И, наконец, по данным исследований, люди, оказывается, неплохо научились отличать чрезмерно индивидуализированные сообщения, и более того, они им активно не нравятся, пишет The International Journal of Press/Politics. Что на корню хоронит идею микротаргетинга.
«Если вы поговорите с профессионалами в области политических кампаний, они с готовностью признают, что используют ИИ, но в основном для оптимизации «обыденных» задач, таких как сбор средств, усилия по привлечению избирателей и общие операции, а не для создания нового высокоадаптированного контента», — пишет бюллетень MIT.
Чрезмерная шумиха вокруг ИИ на выборах может иметь и другие причины, помимо искренней обеспокоенности судьбами человечества. «Для некоторых политиков может быть проще указать пальцем на ИИ, чем столкнуться с критикой или взять на себя обязательство улучшить демократические институты, которые могли бы призвать их к ответу», — полагают авторы обзора MIT.
Что ж, в это можно поверить. ИИ — это нечто новое, а вот на что способны политики, мы знаем уже давно.