Интересные новости
Ultimate magazine theme for WordPress.

Дипфейки ИИ обманывают избирателей и политиков в преддверии выборов в США в 2024 году: «Я думал, что это правда»

0 5

Дипфейки ИИ обманывают избирателей и политиков в преддверии выборов в США в 2024 году: «Я думал, что это правда»

Граждане Нью-Гэмпшира получили необычный политический запрос в выходные 20-21 января. Звонки от роботов, которые многим напоминали голос президента США Джо Байдена, призывали их не голосовать на праймериз 23 января.

Автоматизированные сообщения, очевидно, были созданы с помощью инструмента искусственного интеллекта (ИИ) для создания дипфейков с очевидной целью вмешательства в президентские выборы 2024 года.

Согласно аудиозаписям, записанным NBC, жителям было приказано оставаться дома во время праймериз:

«Голосование в этот вторник только позволит республиканцам снова избрать Дональда Трампа. Ваш голос будет иметь значение в ноябре, а не в этот вторник».

Генеральная прокуратура штата опубликовала заявление, в котором назвала эти звонки дезинформацией, добавив, что «избиратели Нью-Гэмпшира должны полностью игнорировать содержание этого сообщения». Между тем, представитель бывшего президента Дональда Трампа отрицал какую-либо причастность кандидата от Республиканской партии или его предвыборной кампании.

Связанный: Трамп «никогда не допустит» CBDC и «полностью отдает должное» Вивеку Рамасвами

Следователи, похоже, еще не определили источник звонков роботов, но расследование продолжается.

Из новостей по теме: еще один политический скандал, связанный с дипфейковым аудио, разразился на выходных, когда 21 января появился сгенерированный искусственным интеллектом аудио, имитирующий лидера демократов Манхэттена Кита Райта..

Согласно сообщению Politico, некоторые сочли аудиозапись фальшивкой, но по крайней мере один политический инсайдер на мгновение убедился, что она настоящая.

Демократ Манхэттена и бывший спикер городского совета Мелисса Марк-Виверито рассказала Politico, что сначала они думали, что фейки заслуживают доверия:

«Я подумал: «Ох, дерьмо». Я думал, что это реально».

Эксперты полагают, что злоумышленники предпочитают аудиофейки видео, потому что потребители, как правило, более разборчивы, когда дело доходит до визуальной фальшивки. Как недавно рассказал Financial Times консультант по искусственному интеллекту Генри Эйдер, «все привыкли к Photoshop или, по крайней мере, знают, что он существует».

На момент публикации этой статьи не существовало какого-либо универсального метода, с помощью которого можно было бы обнаружить или предотвратить дипфейки. Эксперты рекомендуют проявлять осторожность при использовании средств массовой информации из неизвестных или сомнительных источников, особенно когда речь идет о чрезвычайных заявлениях.

Источник: cryptohamster.org

Оставьте ответ

Ваш электронный адрес не будет опубликован.