Ученые сравнили влияние ИИ-ботов на мышление с контролем из романа Оруэлла «1984»
Новое исследование, проведенное учеными из США, выявило тревожную тенденцию: массовое использование больших языковых моделей (LLM) ведет к унификации языка и мышления. Авторы доклада не боятся громких аналогий: они прямо сравнивают происходящее с лингвистическим контролем «новояза» из романа Джорджа Оруэлла «1984».

тестовый баннер под заглавное изображение
Многие интернет-пользователи уверены, что безошибочно узнают текст, сгенерированный нейросетью. Однако наука говорит об обратном: люди правильно определяют происхождение текста лишь в половине случаев. Детекторы ИИ становятся все совершеннее, но и сами языковые модели эволюционируют с пугающей скоростью. В результате более 6 миллиардов человек ежедневно сталкиваются с контентом, созданным алгоритмами, часто даже не подозревая об этом.
Команда под руководством специалиста по информатике Живара Сурати проанализировала более 130 исследований в области лингвистики, психологии, когнитивистики и компьютерных наук. Вывод, опубликованный в журнале Trends in Cognitive Sciences, однозначен: тексты, созданные ИИ, значительно беднее и однообразнее человеческих. В них отсутствуют уникальные языковые обороты, индивидуальные ценности и разнообразные стили рассуждения.
«Когда эти различия объясняются одними и теми же LLM, их особый лингвистический стиль, точка зрения и стратегии рассуждения становятся однородными, что приводит к стандартизации выражений и мыслей пользователей», — поясняет Сурати.
Проблема усугубляется тем, что LLM обучаются на огромных массивах данных, отражающих лишь узкий и зачастую искаженный срез человеческого опыта. Они улавливают статистические закономерности и воспроизводят их, выдавая усредненный, «безопасный» результат. Но этот результат, будучи приемлемым по качеству, постепенно становится нормой. Люди, регулярно потребляющие такой контент, невольно подстраивают под него свои собственные мысли и высказывания. Возникает эффект группового мышления. Исследователи подчеркивают, что когнитивное разнообразие это источник креативности и способности человечества решать сложные проблемы.
Особенно тревожно, что это влияние коснется даже тех, кто сознательно отказывается от использования ИИ. В мире, где большинство думает и говорит одинаково, любое отклонение начинает восприниматься как странное или ошибочное. Социальное давление подталкивает к конформизму.
«Если бы многие люди вокруг меня думали и говорили определенным образом, а я поступал бы по-другому, я бы почувствовал необходимость присоединиться к ним, потому что это казалось бы более надежным или социально приемлемым способом выражения моих идей», — констатирует Сурати.
Авторы исследования не призывают отказаться от технологий, но настаивают на срочных мерах. Важно изменить способы взаимодействия человека и машины, поощряя критическое мышление, а не слепое доверие к сгенерированному тексту.
«Мы рискуем получить мир, где коллективный разум человечества, лишенный разнообразия, утратит способность к адаптации и творчеству — и это будет поражение, которое мы нанесем себе сами, добровольно и с комфортом», — заключают исследователи.
Источник: www.mk.ru