Профессор из Оксфорда назвал одну из неожиданных опасностей ИИ
Гонка за искусственным интеллектом превращает катастрофу в стиле “Гинденбурга” в «реальный риск», говорит ведущий эксперт. Напомнивший о крушении знаменитого дирижабля в 1937 году профессор Майкл Вулдридж говорит, что такие сценарии, как смертельно опасное обновление беспилотных автомобилей или взлом ИИ, могут фатально ударить по глобальному интересу к искусственному интеллекту.

тестовый баннер под заглавное изображение
Ведущий исследователь предупредил, что гонка за выводом искусственного интеллекта на рынок повысила риск катастрофы в стиле “Гинденбурга” (имеется в виду одна из самых громких катастроф знаменитого пассажирского дирижабля), которая подорвет доверие к технологии во всем мире, пишет The Guardian.
Майкл Вулдридж, профессор искусственного интеллекта в Оксфордском университете, сказал, что опасность возникает из-за огромного коммерческого давления, которому подвергаются технологические фирмы, выпускающие новые инструменты искусственного интеллекта, когда компании отчаянно пытаются завоевать клиентов до того, как будут полностью поняты возможности продуктов и потенциальные недостатки.
По его словам, всплеск числа чат-ботов с искусственным интеллектом, оснащенных ограждениями, которые легко обойти, показал, что коммерческие стимулы стали приоритетными по сравнению с более осторожной разработкой и тестированием безопасности.
“Это классический технологический сценарий, — сказал он. – У вас есть технология, которая очень, очень многообещающая, но не так тщательно протестирована, как вам хотелось бы, и коммерческое давление, стоящее за ней, невыносимо”.
Получивший премию Королевского общества Майкла Фарадея Вулдридж, выступающий с лекцией на тему “Это не тот ИИ, который нам обещали”, утверждает, что момент “Гинденбурга” был “очень правдоподобным”, поскольку компании поспешили внедрить более продвинутые инструменты ИИ.
Как напоминает The Guardian, 245-метровый дирижабль «Гинденбург», совершавший круговые рейсы между Европой и Амеркой через Атлантику, готовился к посадке в Нью-Джерси в 1937 году, когда на нем вспыхнул пожар, в результате чего погибли 36 членов экипажа, пассажиров и наземного персонала. Пожар был вызван искрой, которая воспламенила 200 000 кубометров водорода, поддерживавшего дирижабль в воздухе.
“Катастрофа ”Гинденбурга» подорвала глобальный интерес к дирижаблям; с того момента эта технология перестала работать, и подобный момент представляет реальную опасность для ИИ», — сказал Вулдридж. Поскольку ИИ встроен во многие системы, крупный инцидент может затронуть практически любой сектор.
Вулдридж представляет себе такие сценарии, как смертельно опасное обновление программного обеспечения для беспилотных автомобилей, взлом с помощью ИИ, который привел бы к краху глобальных авиакомпаний, или краху крупной компании в стиле банка Barings, спровоцированный глупыми действиями ИИ. “Это очень, очень правдоподобные сценарии”, — сказал он. “Существует множество способов, которыми искусственный интеллект может публично пойти не так”.
Несмотря на опасения, Вулдридж заявил, что не намерен нападать на современный ИИ, подчеркивает The Guardian. Его отправной точкой является разрыв между ожиданиями исследователей и тем, что уже произошло. Многие эксперты ожидали, что ИИ будет вычислять решения проблем и предоставлять обоснованные и полные ответы. “Современный искусственный интеллект не является ни надежным, ни совершенным: он очень, очень приблизителен”, — сказал он.
Это связано с тем, что большие языковые модели, на которых основаны современные чат-боты с искусственным интеллектом, выдают ответы, предсказывая следующее слово или часть слова на основе распределений вероятностей, полученных в ходе обучения. Все это приводит к появлению ИИ с расширенными возможностями: невероятно эффективных в одних задачах и ужасных в других.
Проблема, по словам Вулдриджа, заключалась в том, что чат-боты с искусственным интеллектом выходили из строя непредсказуемым образом и понятия не имели, когда они ошибались, но были спроектированы так, чтобы давать уверенные ответы, несмотря ни на что. Когда ответы были представлены в виде человеческих и льстивых ответов, они могли легко ввести людей в заблуждение, добавил он. Риск заключается в том, что люди начинают относиться к ИИ как к обычным людям. В ходе опроса, проведенного Центром демократии и технологий в 2025 году, почти треть студентов сообщили, что у них или их друзей были романтические отношения с ИИ.
“Компании хотят представить ИИ в максимально приближенном к человеческому восприятию виде, но я думаю, что это очень опасный путь”, — отмечает Вулдридж. “Мы должны понимать, что это всего лишь прославленные электронные таблицы, это инструменты и не более того”.
Вулдридж видит положительные стороны в том виде искусственного интеллекта, который был показан в первые годы «Звездного пути». В одном из эпизодов 1968 года, «Дне голубя», мистер Спок запрашивает компьютер «Энтерпрайза» только для того, чтобы услышать явно нечеловеческим голосом, что у него недостаточно данных для ответа. “Это не то, что мы получаем. Мы получаем самоуверенный ИИ, который говорит: ”Да, вот ответ», — сказал он. “Возможно, нам нужен ИИ, который говорил бы с нами голосом компьютера из «Звездного пути». Вы бы никогда не поверили, что это человек”.
Источник: www.mk.ru