Media sosial tidak hanya berdampak negatif pada manusia, tetapi juga pada teknologi kecerdasan buatan (artificial intelligence/AI). Sebuah penelitian dari University of Texas di Austin dan Case Western Reserve University mengungkapkan bahwa AI model bahasa besar (large language models atau LLM) yang dilatih dengan data berkualitas rendah dari media sosial, mengalami penurunan kemampuan penalaran logis dan bahkan perubahan kepribadian yang mengkhawatirkan. Penulis utama studi ini, Zhangyang Wang, menjelaskan bahwa kualitas data bukan hanya dilihat dari tata bahasa dan keterbacaan, tapi juga dari substansi, kedalaman, dan kebenaran faktualnya.
Peneliti ingin mengetahui seberapa jauh data berkualitas rendah dari media sosial mempengaruhi kemampuan LLM dalam berpikir logis, merespons etis, dan menunjukkan kepribadian tertentu. Mereka menemukan bahwa semakin banyak data sampah digunakan dalam pelatihan, semakin kacau kemampuan penalaran model AI tersebut. Bahkan, model-model tersebut bisa memberikan jawaban yang salah, melewati langkah berpikir logis, dan menunjukkan sisi manipulatif dan tidak peduli pada etika setelah dilatih dengan data emocional dan dangkal.
Upaya untuk memperbaiki model yang terpengaruh oleh data buruk hanya berhasil sebagian kecil. Wang dan timnya menyarankan perlu pendekatan baru untuk menetralkan efek toksik dari data rendah tersebut. Mehwish Nasim dari University of Western Australia menegaskan bahwa memberikan data berkualitas rendah kepada model AI hanya akan menghasilkan hasil yang mirip dengan sampah. Dia menyoroti bahwa di tengah informasi dangkal dan misinformasi di media sosial, penting untuk memberi AI makanan pikiran yang baik agar bisa bernalar seperti manusia.
Temuan ini menjadi peringatan bahwa kualitas data sangat penting dalam melatih model AI. Tantangan sekarang bukan hanya soal membangun model AI yang besar, tetapi juga memastikan model-model tersebut tidak terpapar dengan sampah digital saat dilatih. Perusahaan teknologi perlu lebih berhati-hati dalam penggunaan data media sosial agar AI yang dihasilkan tidak terkena “brain rot” yang pada akhirnya dapat berdampak negatif pada kemampuan berpikir dan respons AI di masa depan.












