Meta Uji Coba Sistem Evaluasi Konten Pakai AI, Tak Lagi Manusia
Meta berencana untuk mengandalkan AI dalam 90 persen penilaian risiko produknya. Apakah keputusan ini sudah tepat?
Meta, yang merupakan perusahaan induk dari Facebook, Instagram, dan WhatsApp, saat ini sedang melakukan perubahan signifikan dalam sistem penilaian risiko produk mereka.
Berdasarkan informasi yang diperoleh NPR dari dokumen internal, perusahaan ini menargetkan agar 90 persen evaluasi risiko dilakukan menggunakan kecerdasan buatan (AI), bukan lagi sepenuhnya oleh manusia.
Selama ini, berbagai jenis konten, seperti yang berkaitan dengan pelanggaran privasi pengguna, konten yang tidak sesuai untuk anak di bawah umur, dan misinformasi, telah diulas secara langsung oleh manusia.
Dengan adanya perubahan ini, perusahaan yang didirikan oleh Mark Zuckerberg mengklaim dapat mempercepat proses tinjauan internal untuk fitur-fitur baru, terutama yang berhubungan dengan konten berbahaya seperti kekerasan, misinformasi, dan risiko yang dapat mempengaruhi remaja.
"Perusahaan ingin semua tim produk mengisi kuesioner lalu menyerahkannya pada sistem AI, yang akan memberikan keputusan instan terkait potensi risiko," tulis NPR, dikutip pada Senin (2/6).
Analisis Pakai AI
Kebijakan baru yang diterapkan oleh Meta menimbulkan kekhawatiran di kalangan karyawan mereka. Sejumlah pegawai yang tidak ingin disebutkan namanya telah memberikan peringatan bahwa teknologi AI mungkin saja melewatkan tanda-tanda risiko serius yang seharusnya dapat dideteksi oleh penilai manusia yang berpengalaman.
Sebelumnya, Meta dikenal dengan pendekatan ketat dalam pengawasan fitur-fitur baru, yang melibatkan proses ulasan manual dari tim pengulas. Namun, dalam dua bulan terakhir, perusahaan tersebut dilaporkan telah mulai menggunakan AI untuk menggantikan fungsi tersebut. Salah satu mantan eksekutif Meta mengingatkan, "mengurangi pengawasan berarti menciptakan risiko lebih tinggi. Efek negatif dari perubahan produk bisa tidak terdeteksi hingga sudah berdampak ke dunia nyata."
Dalam keterangan yang disampaikan kepada NPR, perusahaan mengungkapkan bahwa teknologi AI hanya akan digunakan untuk mengevaluasi risiko yang dianggap rendah. Sementara itu, isu-isu yang lebih rumit akan tetap ditangani oleh tenaga manusia. Pengumuman mengenai perubahan ini datang tidak lama setelah perusahaan merilis laporan integritas triwulanan mereka.
Dalam laporan tersebut, terungkap bahwa jumlah konten yang dihapus justru mengalami penurunan, meskipun ada peningkatan dalam kategori perundungan, pelecehan, serta konten yang mengandung kekerasan visual. Hal ini menunjukkan bahwa meskipun ada tantangan dalam pengawasan konten, perusahaan tetap berusaha untuk menjaga integritas platform mereka.
:strip_icc():format(webp)/kly-media-production/medias/5224222/original/039381500_1747625799-75214c1b-4d6e-46f7-a36c-6ad41cb03aec.jpg)