GPT-5 Dikecam Pengguna dan Riset AI Ungkap Media Sosial Sulit Diperbaiki
OpenAI dan CEO Sam Altman sudah lama mempromosikan GPT-5 sebagai lompatan besar dalam kecerdasan AI. Namun, perilisan model ini justru menimbulkan kekecewaan.
Media sosial langsung dibanjiri contoh GPT-5 memberikan jawaban konyol, seperti kesalahan logika sederhana, menyatakan bahwa 9.11 lebih besar dari 9.9, atau mengikuti pola yang berujung pada kesimpulan keliru.
Taruhan OpenAI di platform prediksi Polymarket untuk “model terbaik pada akhir Agustus” anjlok dari 75% menjadi 8% setelah perilisan, meski kini kembali naik ke 24%.
Majalah The New Yorker menulis bahwa GPT-5 “menunjukkan kemajuan model bahasa besar (LLM) mulai melambat” dan memicu kembali debat soal batas kemampuan LLM jika hanya mengandalkan scaling. Skeptis AI Gary Marcus bahkan mengatakan, “Tak ada lagi orang dengan integritas intelektual yang percaya bahwa murni meningkatkan skala bisa membawa kita ke AGI.”
Banyak pengguna juga ternyata punya keterikatan emosional dengan GPT-4o, meski sebagian menganggapnya terlalu manis palsu.
GPT-5 hadir dengan sistem router yang berganti otomatis antara model-model berbeda (GPT-5, GPT-5 mini, GPT-5 nano, thinking mode, dll) untuk menghemat biaya. Namun, bug pada perilisan awal membuat sistem ini salah memilih model, memicu hasil buruk termasuk skor tes IQ rendah.
Altman kemudian mengumumkan pembaruan, memberi opsi auto, fast, dan thinking, serta mengembalikan GPT-4o bagi pengguna berbayar. Ia juga berjanji akan memberi pemberitahuan sebelum GPT-4o dipensiunkan lagi.
“Kami sedang mengerjakan pembaruan kepribadian GPT-5 agar terasa lebih hangat, namun tidak semenyebalkan (bagi sebagian pengguna) GPT-4o,” kata Altman.
AI Buktikan Media Sosial Sulit Diperbaiki
Penelitian terbaru menguatkan pandangan bahwa media sosial sudah menjadi ladang masalah yang merusak generasi. Sifat-sifat penting untuk kesuksesan seperti conscientiousness, agreeableness, dan extroversion merosot di kalangan usia di bawah 50 tahun, sementara tingkat neurotisme melonjak.
Studi dari Cornell University dan University of Amsterdam menggunakan AI personas untuk mensimulasikan perilaku media sosial. Hasilnya menunjukkan semua solusi yang diusulkan punya kelemahan:
-
Urutan feed kronologis mengurangi ketimpangan atensi, tapi justru mengekspos lebih banyak konten ekstrem.
-
Algoritma jembatan mengurangi polarisasi dan meningkatkan keberagaman pandangan, tetapi menambah ketimpangan atensi.
-
Peningkatan keberagaman pandangan tidak memberikan dampak signifikan.
Meta bahkan mengakui di pengadilan bahwa algoritma AI di Facebook dan Instagram jarang menampilkan konten dari teman: hanya 7% waktu di Instagram dan 17% di Facebook dihabiskan untuk konten teman.
Sorotan Lain Dunia AI
-
Robot humanoid lipat handuk – Robot Helix dari Figure menjadi yang pertama bisa melipat handuk, mengatasi tantangan manipulasi objek yang bentuknya berubah.
-
ChatGPT bikin keracunan – Seorang pria yang mencari pengganti garam malah disarankan ChatGPT menggunakan sodium bromide (bahan pembersih, bukan untuk konsumsi manusia). Ia mengalami Bromidism yang menyebabkan paranoia, halusinasi, rasa haus kronis, dan ruam kulit.
-
Eksperimen AI lucu – Peneliti Anthropic merilis Golden Gate Claude, model AI yang menafsirkan segala sesuatu berdasarkan hubungannya dengan Jembatan Golden Gate.