Waspada Pakai Grok AI, Jawabannya Semaunya Elon Musk
Banyak pakar AI menyebut jawaban Grok AI adalah cerminan pandangan Elon Musk.
Grok, mesin AI di X milik Elon Musk menuai kritik. Kritikan itu terkait dengan jawaban yang dilontarkan Grok dianggap sebagai bias politik.
Masalah bermula ketika Grok di platform X menjawab pertanyaan tentang kekerasan politik dengan menyebut bahwa sejak 2016, kekerasan politik lebih banyak berasal dari kelompok kanan. Jawaban itu mengutip data lembaga pemerintah AS, termasuk Departemen Keamanan Dalam Negeri.
Melihat banyak orang berkomentar kontra soal jawaban Grok itu, Elon pun ikut meradang. Lewat unggahan di X, ia menuduh Grok hanya mengulang omongan media lama dan berjanji akan merombak model tersebut secara menyeluruh.
Musk bahkan meminta pengguna X mengirimkan fakta-fakta memecah belah yang menurutnya tidak sesuai arus utama tapi faktual untuk membantu melatih ulang Grok. Ia menyebut terlalu banyak “sampah” dalam model dasar yang dilatih dari data tidak terkoreksi. Tak lama kemudian, Musk mengumumkan versi baru, Grok 4, akan segera dirilis tak lama setelah 4 Juli nanti.
Langkah Musk langsung memicu kekhawatiran kalangan pakar. David Evan Harris, peneliti AI di UC Berkeley, menilai ini membuka pertanyaan besar tentang bagaimana AI seharusnya bekerja: apakah AI wajib netral dan faktual, atau boleh diarahkan sesuai pandangan politik pemiliknya.
“Ini awal dari pertarungan panjang tentang apakah AI harus memberi informasi faktual, atau apakah pembuatnya boleh sesuka hati membelokkannya sesuai preferensi politik,” kata Harris.
Kekhawatiran itu kian dalam karena Grok terhubung langsung dengan platform X, salah satu media sosial terbesar di dunia. Sejak diakuisisi Musk, X diketahui telah menghapus sejumlah pagar pengaman lama terhadap misinformasi, sehingga perubahan cara kerja Grok dikhawatirkan memperparah penyebaran narasi bias di platform tersebut.
Kontroversi soal bias Grok bukan yang pertama. Mei lalu, pengguna melaporkan bahwa chatbot itu tiba-tiba menyinggung klaim “genosida kulit putih” di Afrika Selatan saat menjawab pertanyaan yang tak terkait.
Musk sendiri, yang lahir di Afrika Selatan, pernah mendukung narasi kontroversial itu. xAI belakangan mengakui ada “modifikasi tidak sah” yang membuat Grok memberikan jawaban itu pada jam-jam tertentu, menyebutnya melanggar kebijakan perusahaan.
Nick Frosst, salah satu pendiri perusahaan AI Cohere, menilai langkah Musk jelas menunjukkan keinginan membentuk Grok sesuai pandangan pribadinya.
“Dia mencoba membuat model yang mencerminkan pandangan dia. Itu jelas membuat modelnya jadi lebih buruk bagi pengguna—kecuali kalau pengguna kebetulan setuju 100% dengan dia,” kata Frosst dikutip CNN, Selasa (1/7).
Ia juga memperingatkan bahwa upaya menghapus jawaban yang tak disukai Musk dan melatih ulang Grok dari nol bisa sangat mahal, memakan waktu, dan menurunkan kualitas model.
Pakar AI Dan Neely menjelaskan Musk sebenarnya tak harus melatih ulang Grok sepenuhnya. Pengembang bisa mengubah apa yang disebut “prompt” atau “weights” di kode model untuk memaksa jawaban tertentu sesuai preferensi.
Prompt memungkinkan pengembang mengarahkan model pada topik spesifik, sementara weights memengaruhi cara AI mengambil keputusan. Menurut Neely, kemungkinan besar Musk akan memilih penyesuaian lebih detail di area yang dianggap bermasalah.
“AI tidak punya semua data yang benar. Saat dikasih data yang lengkap, dia bisa kasih gambaran lebih baik. Tapi konten di internet sendiri sudah bias, mau tak mau,” ujar dia.