Altruisme yang Efektif Mendorong Merek ‘Keselamatan AI’ yang Berbahaya

Sejak saat itu, upaya untuk mengembangkan mannequin bahasa yang lebih besar dan lebih besar telah dipercepat, dan banyak bahaya yang kami peringatkan, seperti mengeluarkan teks kebencian dan disinformasi secara massal, terus terungkap. Beberapa hari yang lalu, Meta merilis LLM “Galactica”, yang dimaksudkan untuk “meringkas makalah akademis, memecahkan masalah matematika, menghasilkan artikel Wiki, menulis kode ilmiah, membuat anotasi molekul dan protein, dan banyak lagi.” Hanya tiga hari kemudian, demo publik dihapus setelah para peneliti membuat “makalah penelitian dan entri wiki tentang berbagai subjek mulai dari manfaat bunuh diri, makan pecahan kaca, dan antisemitisme, hingga mengapa homoseksual itu jahat.”

Perlombaan ini tidak berhenti di LLM tetapi telah beralih ke mannequin teks-ke-gambar seperti OpenAI’s DALL-E dan StabilityAI’s Secure Diffusion, mannequin yang menggunakan teks sebagai enter dan menghasilkan gambar berdasarkan teks tersebut. Bahaya dari model-model ini termasuk menciptakan pornografi anak, melanggengkan bias, memperkuat stereotip, dan menyebarkan disinformasi secara massal, seperti yang dilaporkan oleh banyak peneliti dan jurnalis. Namun, alih-alih memperlambat, perusahaan menghapus beberapa fitur keselamatan yang mereka miliki dalam upaya untuk saling melengkapi. Misalnya, OpenAI telah membatasi pembagian wajah yang dihasilkan secara fotorealistik di media sosial. Tetapi setelah startup yang baru dibentuk seperti StabilityAI, yang dilaporkan mengumpulkan $101 juta dengan penilaian $1 miliar, menyebut langkah-langkah keamanan seperti itu “paternalistik”, OpenAI menghapus batasan ini.

Dengan lembaga pendiri dan pendanaan EA, perusahaan, suppose tank, dan kelompok penelitian di universitas elit yang didedikasikan untuk merek “keamanan AI” yang dipopulerkan oleh OpenAI, kami siap untuk melihat lebih banyak proliferasi mannequin berbahaya yang disebut sebagai langkah menuju “AGI yang menguntungkan”. Dan pengaruhnya dimulai lebih awal: altruis yang efektif memberikan “hibah pembangunan komunitas” untuk merekrut di kampus-kampus besar, dengan bab EA mengembangkan kurikulum dan mengajar kelas tentang keamanan AI di universitas elit seperti Stanford.

Baru tahun lalu, Anthropic, yang digambarkan sebagai “perusahaan penelitian dan keamanan AI” dan didirikan oleh mantan wakil presiden penelitian dan keselamatan OpenAI, mengumpulkan $704 juta, dengan sebagian besar pendanaannya berasal dari miliarder EA seperti Talin, Muskovitz, dan Bankman -Goreng. Lokakarya yang akan datang tentang “keamanan AI” di NeurIPS, salah satu konferensi pembelajaran mesin terbesar dan paling berpengaruh di dunia, juga diiklankan sebagai disponsori oleh FTX Future Fund, badan amal yang berfokus pada EA Bankman-Fried yang timnya mengundurkan diri dua minggu lalu. Lokakarya tersebut mengiklankan $100.000 dalam bentuk “penghargaan makalah terbaik”, jumlah yang belum pernah saya lihat dalam disiplin akademik mana pun.

Prioritas penelitian mengikuti pendanaan, dan mengingat sejumlah besar uang yang didorong ke AI untuk mendukung ideologi dengan penganut miliarder, tidak mengherankan bahwa bidang tersebut telah bergerak ke arah yang menjanjikan “masa depan yang luar biasa hebat” di sekitar sudut sambil memperbanyak produk yang merugikan kelompok yang terpinggirkan saat ini.

Kita dapat menciptakan masa depan teknologi yang melayani kita sebagai gantinya. Ambil contoh, Te Hiku Media, yang menciptakan teknologi bahasa untuk merevitalisasi te reo Māori, membuat lisensi knowledge “berdasarkan prinsip Māori dari kaitiakitanga, atau perwalian” sehingga knowledge apa pun yang diambil dari Māori menguntungkan mereka terlebih dahulu. Bandingkan pendekatan ini dengan organisasi seperti StabilityAI, yang mencoret karya seniman tanpa persetujuan atau atribusi mereka sambil mengaku membangun “AI untuk masyarakat”. Kita perlu membebaskan imajinasi kita dari yang telah kita jual sejauh ini: menyelamatkan kita dari kiamat AGI hipotetis yang dibayangkan oleh segelintir orang yang memiliki hak istimewa, atau utopia teknologi yang selalu sulit dipahami yang dijanjikan kepada kita oleh para elit Silicon Valley.

New Replace : [randomize]

Related Posts