Дивитись повну версію

Штучний інтелект може «тупішати» через сучасні меми, — дослідження

Штучний інтелект може «тупішати» через сучасні меми. Фото: digidayШтучний інтелект може «тупішати» через сучасні меми. Фото: digiday

Американські науковці з Університету Техасу в Остіні, з’ясували, що великі мовні моделі (LLM), які навчаються на великій кількості популярного, але низькоякісного контенту з інтернету, поступово втрачають здатність якісно мислити.

Про це повідомляє DTF Magazine із посиланням на препринт наукового дослідження.

У вступі до дослідження йдеться, що дослідники хотіли дослідити феномен, який самі жназвали «штучним brain rot» — своєрідне «когнітивне гниття», подібне до ефекту, який спостерігають у людей, що надмірно споживають «низькоякісний» контент у соцмережах.

«Ми живемо в епоху, коли інформація зростає швидше, ніж увага, і більшість із неї створюється не для передачі істини, а для отримання кліків. Ми просто спитали себе: що буде, якщо навчити цьому штучний інтелект?» — пояснив співавтор дослідження Цзюнь Юань Хонг, нині доцент Національного університету в Сінгапурі.

Для експерименту вчені використали чотири відкриті моделі — Llama3 та три версії Qwen. Їх «донавчали» на основі популярних дописів із соцмережі Х (колишній Twitter): сенсаційних та клікбейтних новинах, фрагментарних мемів, повторюваних коментарів і «rage bait» (викликаючі злість) публікаціях.

Після цього штучний інтелект став гірше міркувати, мав проблеми з пам’яттю та ледве дотримувався раніше закодованих етичних норм. У деяких випадках ШІ навіть починав поводитися, як людина: проявляв ознаки нарцисизму чи психопатії. Основною проблемою стало те, що мовні моделі дедалі частіше спрощували або пропускали логічні ланцюги у своїх відповідях.

«Мовні моделі віддзеркалюють якість своїх даних глибше, ніж ми уявляли. Коли вони стикаються з неякісним текстом, вони не просто звучать гірше — вони починають гірше мислити», — пояснив Цзюнь Юань Хонг.

Команда також з’ясувала, що навіть повторне навчання цих моделей вже на «чистих» даних лише частково відновлює когнітивні функції ШІ — базові здібності мислити не повертаються повністю.

Дослідники наголошують: ці результати ставлять під сумнів безконтрольне використання соціальних мереж як джерела даних для навчання ШІ. Зокрема, це може стосуватися систем, побудованих на основі контенту користувачів, як-от Grok від компанії xAI Ілона Маска.

Нагадаємо, у першій половині 2025 року Україна посіла п’яте місце у світі та третє в Європі серед країн, які найчастіше ставали ціллю кібератак.

Дивитись повну версію