



Fenomena “brainrot” (pembusukan otak) yang sebelumnya dikenal sebagai istilah populer untuk menggambarkan penurunan kualitas berpikir akibat konsumsi konten dangkal di media sosial, kini ternyata juga bisa terjadi pada kecerdasan buatan (AI).
Sebuah studi terbaru dari tim peneliti gabungan Texas A&M University, University of Texas at Austin, dan Purdue University mengungkap bahwa AI, atau lebih tepatnya large language model/model bahasa besar (LLM) dapat mengalami penurunan kognitif jika terus-menerus dilatih dengan data berkualitas rendah.
Penelitian ini menguji hipotesis “LLM Brain Rot” dengan melakukan eksperimen terkontrol menggunakan data dari platform Twitter/X.
Para peneliti membagi data menjadi dua kategori: “junk” (konten pendek, viral, dan sensasional) dan “kontrol” (konten informatif dan faktual). Empat model AI kemudian dilatih ulang secara bertahap menggunakan campuran kedua jenis data tersebut.
Hasilnya menunjukkan bahwa model yang lebih banyak terpapar data “junk” mengalami penurunan kemampuan dalam berbagai aspek, seperti penalaran logis, pemahaman konteks panjang, serta respons terhadap norma etika.
Bahkan, beberapa model menunjukkan kecenderungan kepribadian yang tidak diinginkan, seperti meningkatnya skor pada indikator narsisme dan psikopati.
Baca ini juga :
» OpenAI Siapkan "Mode Dewasa" ChatGPT: Percakapan Lebih Terbuka, Verifikasi Usia Jadi Kunci
» AMD EPYC Embedded 2005 Series: Solusi Prosesor Zen 5 Ringkas dan Efisien untuk AI Generasi Baru
» Awas! Harga HP China Diprediksi Meroket, Bos Xiaomi Beri Peringatan Keras
» Studi Terbaru Ungkap Konten di Instagram dan TikTok Beneran Bikin "Brainrot"
» Krafton Akan Fokus Jadi Perusahaan AI, Infrastruktur Full AI
» OpenAI Ikut Buat Browser Sendiri, ChatGPT Atlas
» Microsoft Umumkan Fitur Copilot Agent di Windows 11, Kerja Tinggal Suruh AI!
» Microsoft Bersiap Umumkan Fitur Input Dengan AI di Windows?
Penurunan performa ini tidak sepenuhnya bisa dipulihkan meskipun model telah melalui pelatihan lanjutan dengan data berkualitas tinggi. Hal ini menunjukkan bahwa dampak dari “brainrot” bersifat persisten dan dapat mengubah cara model berpikir secara mendalam.
Salah satu temuan menarik dari studi ini adalah bahwa popularitas sebuah konten—diukur dari jumlah suka, retweet, dan komentar—lebih berpengaruh terhadap penurunan kualitas AI dibandingkan panjang atau isi konten itu sendiri. Artinya, konten yang viral namun dangkal lebih berisiko menyebabkan “brainrot” pada AI.
Penelitian ini menyoroti pentingnya kurasi data dalam proses pelatihan AI. Seiring berkembangnya teknologi dan meningkatnya penggunaan AI dalam berbagai sektor, menjaga kualitas data yang digunakan untuk melatih model menjadi krusial agar AI tetap akurat, aman, dan dapat diandalkan.
Kamu bisa membaca penelitian lengkapnya di tautan berikut ini.
Selain berita utama di atas, KotakGame juga punya video menarik yang bisa kamu tonton di bawah ini.