Штучний інтелект може «тупішати» через сучасні меми, — дослідження
- Новини світу
-
•
-
- Ірина Олехнович
-
•
-
3:23, 25 жовтня, 2025
Американські науковці з Університету Техасу в Остіні, з’ясували, що великі мовні моделі (LLM), які навчаються на великій кількості популярного, але низькоякісного контенту з інтернету, поступово втрачають здатність якісно мислити.
Про це повідомляє DTF Magazine із посиланням на препринт наукового дослідження.
У вступі до дослідження йдеться, що дослідники хотіли дослідити феномен, який самі жназвали «штучним brain rot» — своєрідне «когнітивне гниття», подібне до ефекту, який спостерігають у людей, що надмірно споживають «низькоякісний» контент у соцмережах.
Клуб МикВісті — місце, де читач і редакція по один бік.
Учасники мають закритий чат, ексклюзивну розсилку із залаштунків життя журналістів, бачать новини раніше й впливають на зміни.
Приєднуйся. Разом тримаємо місто світлим
«Ми живемо в епоху, коли інформація зростає швидше, ніж увага, і більшість із неї створюється не для передачі істини, а для отримання кліків. Ми просто спитали себе: що буде, якщо навчити цьому штучний інтелект?» — пояснив співавтор дослідження Цзюнь Юань Хонг, нині доцент Національного університету в Сінгапурі.
Для експерименту вчені використали чотири відкриті моделі — Llama3 та три версії Qwen. Їх «донавчали» на основі популярних дописів із соцмережі Х (колишній Twitter): сенсаційних та клікбейтних новинах, фрагментарних мемів, повторюваних коментарів і «rage bait» (викликаючі злість) публікаціях.
Після цього штучний інтелект став гірше міркувати, мав проблеми з пам’яттю та ледве дотримувався раніше закодованих етичних норм. У деяких випадках ШІ навіть починав поводитися, як людина: проявляв ознаки нарцисизму чи психопатії. Основною проблемою стало те, що мовні моделі дедалі частіше спрощували або пропускали логічні ланцюги у своїх відповідях.
«Мовні моделі віддзеркалюють якість своїх даних глибше, ніж ми уявляли. Коли вони стикаються з неякісним текстом, вони не просто звучать гірше — вони починають гірше мислити», — пояснив Цзюнь Юань Хонг.
Команда також з’ясувала, що навіть повторне навчання цих моделей вже на «чистих» даних лише частково відновлює когнітивні функції ШІ — базові здібності мислити не повертаються повністю.
Дослідники наголошують: ці результати ставлять під сумнів безконтрольне використання соціальних мереж як джерела даних для навчання ШІ. Зокрема, це може стосуватися систем, побудованих на основі контенту користувачів, як-от Grok від компанії xAI Ілона Маска.
Нагадаємо, у першій половині 2025 року Україна посіла п’яте місце у світі та третє в Європі серед країн, які найчастіше ставали ціллю кібератак.
