Искусственный интеллект может «тупеть» из-за современных мемов, — исследование
- Мировые новости
-
•
-
- Ирина Олехнович
-
•
-
3:23, 25 октября, 2025
Американские ученые из Университета Техаса в Остине, выяснили, что большие языковые модели (LLM), которые обучаются на большом количестве популярного, но низкокачественного контента из интернета, постепенно теряют способность качественно мыслить.
Об этом сообщает DTF Magazine со ссылкой на препринт научного исследования.
Во вступлении к исследованию говорится, что исследователи хотели исследовать феномен, который сами же назвали «искусственным brain rot» — своеобразное «когнитивное гниение», подобное эффекту, который наблюдают у людей, чрезмерно потребляющих «низкокачественный» контент в соцсетях.
Клуб НикВести — место, где читатель и редакция по одну сторону.
Участники имеют закрытый чат, эксклюзивную рассылку о закулисье жизни журналистов, видят новости раньше других и влияют на изменения.
Присоединяйся. Вместе сохраняем город светлым
«Мы живем в эпоху, когда информация растет быстрее, чем внимание, и большинство из нее создается не для передачи истины, а для получения кликов. Мы просто спросили себя: что будет, если научить этому искусственный интеллект?» — пояснил соавтор исследования Цзюнь Юань Хонг, ныне доцент Национального университета в Сингапуре.
Для эксперимента ученые использовали четыре открытые модели — Llama3 и три версии Qwen. Их «дообучали» на основе популярных сообщений из соцсети Х (бывший Twitter): сенсационных и кликбейтных новостях, фрагментарных мемов, повторяющихся комментариев и «rage bait» (вызывающих злость) публикациях.
После этого искусственный интеллект стал хуже рассуждать, имел проблемы с памятью и едва придерживался ранее закодированных этических норм. В некоторых случаях ИИ даже начинал вести себя, как человек: проявлял признаки нарциссизма или психопатии. Основной проблемой стало то, что языковые модели все чаще упрощали или пропускали логические цепи в своих ответах.
«Языковые модели отражают качество своих данных глубже, чем мы представляли. Когда они сталкиваются с некачественным текстом, они не просто звучат хуже — они начинают хуже мыслить», — пояснил Цзюнь Юань Хонг.
Команда также выяснила, что даже повторное обучение этих моделей уже на «чистых» данных лишь частично восстанавливает когнитивные функции ИИ — базовые способности мыслить не возвращаются полностью.
Исследователи отмечают: эти результаты ставят под сомнение бесконтрольное использование социальных сетей как источника данных для обучения ИИ. В частности, это может касаться систем, построенных на основе контента пользователей, например Grok от компании xAI Илона Маска.
Напомним, в первой половине 2025 года Украина заняла пятое место в мире и третье в Европе среди стран, которые чаще всего становились целью кибератак.
