Karena semakin banyak masalah dengan AI yang muncul, termasuk bias seputar ras, jenis kelamin, dan usia, banyak perusahaan teknologi telah memasang tim “AI etis” yang seolah-olah berdedikasi untuk mengidentifikasi dan memitigasi masalah tersebut.
Unit META Twitter lebih progresif daripada kebanyakan dalam menerbitkan element masalah dengan sistem AI perusahaan, dan memungkinkan peneliti luar untuk menyelidiki algoritmenya untuk masalah baru.
Tahun lalu, setelah pengguna Twitter memperhatikan bahwa algoritme pemangkasan foto tampaknya mendukung wajah putih saat memilih cara memangkas gambar, Twitter mengambil keputusan yang tidak biasa untuk membiarkan unit META menerbitkan element bias yang terungkap. Grup tersebut juga meluncurkan salah satu kontes “hadiah bias” yang pertama, yang memungkinkan peneliti luar menguji algoritme untuk masalah lain. Oktober lalu, tim Chowdhury juga menerbitkan rincian bias politik yang tidak disengaja di Twitter, menunjukkan bagaimana sumber berita berhaluan kanan sebenarnya dipromosikan lebih dari yang berhaluan kiri.
Banyak peneliti luar melihat PHK sebagai pukulan, tidak hanya untuk Twitter tetapi juga untuk upaya meningkatkan AI. “Sungguh sebuah tragedi,” tulis Kate Starbird, seorang profesor di College of Washington yang mempelajari disinformasi on-line, menulis di Twitter.
konten Twitter
Konten ini juga dapat dilihat di situs itu berasal dari.
“Tim META adalah satu-satunya studi kasus yang bagus dari perusahaan teknologi yang menjalankan grup etika AI yang berinteraksi dengan publik dan akademisi dengan kredibilitas substansial,” kata Ali Alkhatib, direktur Pusat Etika Knowledge Terapan di Universitas San Francisco.
Alkhatib mengatakan Chowdhury dianggap sangat baik dalam komunitas etika AI dan timnya melakukan pekerjaan yang benar-benar berharga dengan meminta pertanggungjawaban Large Tech. “Tidak banyak tim etika perusahaan yang layak ditanggapi dengan serius,” ujarnya. “Ini adalah salah satu karya yang saya ajarkan di kelas.”
Mark Riedl, seorang profesor yang mempelajari AI di Georgia Tech, mengatakan algoritme yang digunakan Twitter dan raksasa media sosial lainnya berdampak besar pada kehidupan manusia, dan perlu dipelajari. “Apakah META berdampak di dalam Twitter sulit dilihat dari luar, tapi janji itu ada,” katanya.
Riedl menambahkan bahwa membiarkan orang luar menyelidiki algoritme Twitter adalah langkah penting menuju transparansi dan pemahaman yang lebih baik tentang masalah seputar AI. “Mereka menjadi pengawas yang dapat membantu kita semua memahami bagaimana AI memengaruhi kita,” katanya. “Para peneliti di META memiliki kredensial yang luar biasa dengan sejarah panjang dalam mempelajari AI untuk kepentingan sosial.”
Adapun ide Musk tentang open supply algoritma Twitter, kenyataannya akan jauh lebih rumit. Ada banyak algoritme berbeda yang memengaruhi cara informasi ditampilkan, dan sulit untuk memahaminya tanpa knowledge waktu nyata yang diberikan dalam bentuk tweet, tampilan, dan suka.
Gagasan bahwa ada satu algoritme dengan kecenderungan politik eksplisit mungkin terlalu menyederhanakan sistem yang dapat menyimpan bias dan masalah yang lebih berbahaya. Mengungkap ini adalah jenis pekerjaan yang dilakukan grup META Twitter. “Tidak banyak kelompok yang secara ketat mempelajari bias dan kesalahan algoritme mereka sendiri,” kata Alkhatib di College of San Francisco. “META melakukan itu.” Dan sekarang, tidak.
New Replace : [randomize]