Malang Posco Media – Meta dilaporkan membubarkan tim Responsible AI (RAI) mereka, karena mereka beralih untuk lebih fokus pada pengembangan kecerdasan buatan generatif. Berita ini disampaikan oleh The Information, Minggu (19/11), dengan merujuk pada unggahan internal yang mereka akses.
Berdasarkan laporan tersebut, sebagian besar anggota tim RAI diharapkan akan bergabung dengan tim produk kecerdasan buatan generatif perusahaan, sementara yang lain akan terlibat dalam pengembangan infrastruktur kecerdasan buatan di Meta.
Perusahaan ini secara konsisten menyatakan komitmennya untuk mengembangkan kecerdasan buatan secara bertanggung jawab, bahkan memiliki halaman yang khusus didedikasikan untuk janji tersebut. Pada halaman tersebut, perusahaan merinci “pilar-pilar kecerdasan buatan yang bertanggung jawab,” yang melibatkan akuntabilitas, transparansi, keamanan, privasi, dan aspek lainnya.
Dalam laporan The Information, Jon Carvill, yang mewakili Meta, menyatakan bahwa perusahaan akan tetap memprioritaskan dan menginvestasikan sumber daya dalam pengembangan kecerdasan buatan yang aman dan bertanggung jawab.
Dia menambahkan bahwa meskipun perusahaan memecah tim itu, anggota tersebut akan terus mendukung upaya lintas-Meta yang relevan dalam pengembangan dan penggunaan kecerdasan buatan yang bertanggung jawab.
Meta tidak menanggapi permintaan komentar hingga waktu pemberitaan ini disusun.
Tim ini telah mengalami restrukturisasi pada awal tahun ini, yang dilaporkan oleh Business Insider mencakup pemotongan tenaga kerja yang membuat RAI “menjadi tim yang hampir tidak berdaya”.
Laporan tersebut, selanjutnya menyatakan bahwa tim RAI, yang telah ada sejak 2019, memiliki sedikit otonomi dan inisiatifnya harus melalui negosiasi pihak terkait yang panjang sebelum dapat diimplementasikan.
RAI dibentuk untuk mengidentifikasi masalah dengan pendekatan pelatihan kecerdasan buatan, termasuk apakah model perusahaan dilatih dengan informasi yang cukup beragam, dengan tujuan mencegah masalah moderasi di platformnya.
Sistem otomatis pada platform sosial Meta telah menyebabkan masalah seperti masalah terjemahan Facebook yang menyebabkan penangkapan palsu, generasi stiker AI WhatsApp yang menghasilkan gambar yang bias ketika diberikan beberapa perintah tertentu, dan algoritma Instagram yang membantu orang menemukan materi pelecehan seksual anak.
Langkah-langkah seperti yang dilakukan Meta dan langkah serupa oleh Microsoft pada awal tahun ini muncul ketika pemerintah di seluruh dunia berlomba-lomba membuat pagar pengaman regulasi untuk pengembangan kecerdasan buatan.
Pemerintah AS masuk ke dalam perjanjian dengan perusahaan kecerdasan buatan dan Presiden Amerika Serikat Joe Biden kemudian mengarahkan lembaga pemerintah untuk membuat aturan keamanan kecerdasan buatan.
Sementara itu, Uni Eropa telah menerbitkan prinsip-prinsip kecerdasan buatan dan masih berjuang untuk meloloskan Undang-Undang kecerdasan buatannya. Demikian disiarkan The Verge, Minggu (19/11) waktu setempat.(ntr/mpm)