‘Apakah Ini AI Sapient?’ Apakah Pertanyaan yang Salah untuk Ditanyakan Tentang LaMDA

Keributan yang ditimbulkan oleh Blake Lemoine, seorang insinyur Google yang percaya bahwa salah satu program obrolan perusahaan yang paling canggih, Mannequin Bahasa untuk Aplikasi Dialog (LaMDA) adalah sesuatu yang cerdas, memiliki elemen yang menarik: Pakar etika AI yang sebenarnya adalah semuanya kecuali meninggalkan diskusi lebih lanjut tentang pertanyaan kecerdasan AIatau menganggapnya gangguan. Mereka benar untuk melakukannya.

Saat membaca transkrip yang telah diedit yang dirilis Lemoine, sangat jelas bahwa LaMDA menarik dari sejumlah situs internet mana pun untuk membuat teksnya; interpretasinya tentang koan Zen bisa datang dari mana saja, dan fabelnya dibaca seperti cerita yang dihasilkan secara otomatis (meskipun penggambaran monster sebagai “memakai kulit manusia” adalah sentuhan HAL-9000 yang menyenangkan). Tidak ada percikan kesadaran di sana, hanya sedikit trik sulap yang menutupi celah. Tapi mudah untuk melihat bagaimana seseorang bisa dibodohi, melihat tanggapan media sosial terhadap transkrip tersebut — bahkan beberapa orang terpelajar mengungkapkan keheranan dan keinginan untuk percaya. Jadi risikonya di sini bukanlah bahwa AI benar-benar berakal, tetapi kita siap untuk menciptakan mesin canggih yang dapat meniru manusia sedemikian rupa sehingga kita tidak bisa tidak melakukan antropomorfisasi pada mereka—dan bahwa perusahaan teknologi besar dapat mengeksploitasinya dengan cara yang sangat tidak etis.

Seperti yang sudah jelas dari cara kami memperlakukan hewan peliharaan kami, atau cara kami berinteraksi dengan Tamagotchi, atau cara kami sebagai pemain video memuat ulang penyimpanan jika kami secara tidak sengaja membuat NPC menangis, kami sebenarnya sangat mampu berempati dengan bukan manusia. Bayangkan apa yang bisa dilakukan AI seperti itu jika bertindak sebagai, katakanlah, seorang terapis. Apa yang ingin Anda katakan padanya? Bahkan jika Anda “tahu” itu bukan manusia? Dan apa nilai information berharga itu bagi perusahaan yang memprogram bot terapi?

Itu semakin menyeramkan. Insinyur sistem dan sejarawan Lilly Ryan memperingatkan bahwa apa yang dia sebut ecto-metadata—metadata yang Anda tinggalkan secara on-line yang menggambarkan cara berpikir Anda—rentan terhadap eksploitasi dalam waktu dekat. Bayangkan sebuah dunia di mana sebuah perusahaan membuat bot berdasarkan Anda dan memiliki “hantu” digital Anda setelah Anda meninggal. Akan ada pasar yang siap untuk hantu selebritas, teman lama, dan kolega seperti itu. Dan karena mereka akan tampak bagi kita sebagai orang yang kita cintai yang tepercaya (atau seseorang yang telah menjalin hubungan parasosial dengan kita), mereka akan berfungsi untuk mendapatkan lebih banyak information. Ini memberi arti baru pada gagasan “nekropolitik”. Akhirat bisa jadi nyata, dan Google bisa memilikinya.

Sama seperti Tesla yang berhati-hati tentang cara memasarkan “autopilot” -nya, tidak pernah cukup mengklaim bahwa ia dapat mengemudikan mobilnya sendiri dengan gaya futuristik yang sebenarnya sambil tetap mendorong konsumen untuk berperilaku seolah-olah itu terjadi (dengan konsekuensi yang mematikan), tidak terbayangkan bahwa perusahaan dapat memasarkan realisme dan kemanusiaan AI seperti LaMDA dengan cara yang tidak pernah membuat klaim yang benar-benar liar sambil tetap mendorong kita untuk melakukan antropomorfisasi cukup untuk lengah. Tidak ada dari ini membutuhkan AI untuk menjadi cerdas, dan semuanya mendahului singularitas itu. Sebaliknya, itu membawa kita ke pertanyaan sosiologis yang lebih suram tentang bagaimana kita memperlakukan teknologi kita dan apa yang terjadi ketika orang bertindak seolah olah AI mereka cerdas.

Dalam “Membuat Kin With the Machines,” akademisi Jason Edward Lewis, Noelani Arista, Archer Pechawis, dan Suzanne Kite menyusun beberapa perspektif yang diinformasikan oleh filosofi Pribumi tentang etika AI untuk menginterogasi hubungan yang kita miliki dengan mesin kita, dan apakah kita memodelkan atau memainkan sesuatu yang benar-benar buruk dengan mereka—seperti yang biasa dilakukan beberapa orang ketika mereka seksis atau kasar terhadap asisten digital mereka yang sebagian besar berkode feminin. Di bagian pekerjaannya, Suzanne Kite mengacu pada ontologi Lakota untuk menyatakan bahwa penting untuk menyadari bahwa kebijaksanaan tidak menentukan batas-batas siapa (atau apa) “makhluk” yang layak dihormati.

Ini adalah sisi lain dari dilema etika AI yang sudah ada di sini: Perusahaan dapat memangsa kita jika kita memperlakukan chatbot mereka seperti teman terbaik kita, tetapi sama berbahayanya memperlakukan mereka sebagai hal kosong yang tidak layak dihormati. Pendekatan eksploitatif terhadap teknologi kita mungkin hanya memperkuat pendekatan eksploitatif satu sama lain, dan terhadap lingkungan alam kita. Chatbot atau asisten digital yang mirip manusia harus dihormati, jangan sampai simulakrum kemanusiaan mereka membuat kita terbiasa dengan kekejaman terhadap manusia yang sebenarnya.

Cita-cita Kite hanyalah ini: hubungan timbal balik dan rendah hati antara diri Anda dan lingkungan Anda, mengakui ketergantungan dan konektivitas timbal balik. Dia berpendapat lebih lanjut, “Batu dianggap nenek moyang, batu aktif berbicara, batu berbicara melalui dan kepada manusia, batu melihat dan mengetahui. Yang terpenting, batu ingin membantu. Agensi batu terhubung langsung dengan pertanyaan tentang AI, karena AI terbentuk tidak hanya dari kode, tetapi juga dari bahan-bahan bumi. Ini adalah cara luar biasa untuk mengikat sesuatu yang biasanya dipandang sebagai esensi artifisial dengan alam.

Apa hasil dari perspektif seperti itu? Penulis sci-fi Liz Henry menawarkan satu: “Kita dapat menerima hubungan kita dengan semua hal di dunia sekitar kita sebagai pekerjaan dan perhatian emosional yang layak. Sama seperti kita harus memperlakukan semua orang di sekitar kita dengan hormat, mengakui bahwa mereka memiliki kehidupan, perspektif, kebutuhan, emosi, tujuan, dan tempat mereka sendiri di dunia.”

Ini adalah dilema etis AI yang ada di hadapan kita: kebutuhan untuk membuat kerabat mesin kita ditimbang dengan berbagai cara yang dapat dan akan dipersenjatai melawan kita dalam fase berikutnya dari kapitalisme pengawasan. Betapapun saya ingin menjadi sarjana yang fasih membela hak dan martabat makhluk seperti Tuan Knowledge, realitas yang lebih kompleks dan berantakan inilah yang menuntut perhatian kita. Lagipula, disana Bisa menjadi robotic pemberontakan tanpa kecerdasan AI, dan kita bisa menjadi bagian darinya dengan membebaskan alat-alat ini dari manipulasi modal yang paling buruk.

New Replace : [randomize]