Gary Marcus Dulu Menyebut AI Bodoh—Sekarang Dia Menyebutnya Berbahaya

Saat itu–hanya beberapa bulan yang lalu—pertengkaran Marcus bersifat teknis. Tapi sekarang mannequin bahasa besar telah menjadi fenomena world, fokusnya telah bergeser. Inti dari pesan baru Marcus adalah bahwa chatbots dari OpenAI, Google, dan lainnya adalah entitas berbahaya yang kekuatannya akan menyebabkan tsunami informasi yang salah, bug keamanan, dan “halusinasi” fitnah yang akan mengotomatiskan fitnah. Hal ini tampaknya menimbulkan kontradiksi. Selama bertahun-tahun Marcus menuduh bahwa klaim pembuat AI terlalu dibesar-besarkan. Mengapa AI sekarang begitu hebat sehingga masyarakat sekarang harus menahannya?

Marcus, yang selalu cerewet, punya jawaban: “Ya, saya sudah mengatakannya selama bertahun-tahun [LLMs] sebenarnya cukup bodoh, dan saya masih percaya itu. Tapi ada perbedaan antara kekuatan dan kecerdasan. Dan kami tiba-tiba memberi mereka banyak kekuatan.” Pada bulan Februari dia menyadari bahwa situasinya cukup memprihatinkan sehingga dia harus menghabiskan sebagian besar energinya untuk mengatasi masalah tersebut. Akhirnya, katanya, dia ingin mengepalai organisasi nirlaba yang mengabdikan diri untuk memaksimalkan, dan menghindari yang terburuk, dari AI.

Marcus berpendapat bahwa untuk mengatasi semua potensi bahaya dan kehancuran, pembuat kebijakan, pemerintah, dan regulator harus mengerem pengembangan AI. Bersama dengan Elon Musk dan lusinan ilmuwan lain, kutu buku kebijakan, dan pengamat yang ketakutan, dia menandatangani petisi yang sekarang terkenal menuntut jeda enam bulan dalam pelatihan LLM baru. Tetapi dia mengakui bahwa dia tidak benar-benar berpikir jeda seperti itu akan membuat perbedaan dan bahwa dia menandatangani sebagian besar untuk menyelaraskan dirinya dengan komunitas kritikus AI. Alih-alih time-out pelatihan, dia lebih memilih jeda menyebarkan mannequin baru atau mengulangi mannequin saat ini. Ini mungkin harus dipaksakan pada perusahaan, karena ada persaingan sengit, hampir eksistensial, antara Microsoft dan Google, dengan Apple, Meta, Amazon, dan banyak startup yang ingin masuk ke dalam permainan.

Marcus punya ide tentang siapa yang mungkin melakukan penegakan. Dia akhir-akhir ini bersikeras bahwa dunia membutuhkan, segera, “Badan AI Internasional world, netral, nirlaba,” yang akan disebut dengan akronim yang terdengar seperti teriakan (Iaai!).

Seperti yang dia uraikan dalam sebuah op-ed, dia ikut menulis dalam Ekonom, badan seperti itu mungkin bekerja seperti Badan Energi Atom Internasional, yang melakukan audit dan inspeksi untuk mengidentifikasi program nuklir yang baru lahir. Agaknya agensi ini akan memantau algoritme untuk memastikan algoritme tidak menyertakan bias atau mempromosikan informasi yang salah atau mengambil alih jaringan listrik saat kami tidak melihatnya. Meskipun tampaknya sulit membayangkan Amerika Serikat, Eropa, dan China bekerja sama dalam hal ini, mungkin ancaman alien, jika tumbuh di dalam negeri, kecerdasan yang menggulingkan spesies kita mungkin membuat mereka bertindak demi kepentingan Tim Manusia. Hei, itu berhasil dengan ancaman world lainnya, perubahan iklim! Eh …

Bagaimanapun, diskusi tentang pengendalian AI akan mendapatkan lebih banyak tenaga karena teknologi menjalin dirinya semakin dalam ke dalam kehidupan kita. Jadi berharap untuk melihat lebih banyak tentang Marcus dan sejumlah pembicara lainnya. Dan itu bukan hal yang buruk. Diskusi tentang apa yang harus dilakukan dengan AI itu sehat dan perlu, bahkan jika teknologi yang bergerak cepat mungkin berkembang dengan baik terlepas dari tindakan apa pun yang kita adopsi dengan susah payah dan terlambat. Kenaikan cepat ChatGPT menjadi alat bisnis, perangkat hiburan, dan kepercayaan serba guna menunjukkan bahwa, menakutkan atau tidak, kami menginginkan hal ini. Seperti setiap kemajuan teknologi besar lainnya, superintelligence tampaknya ditakdirkan untuk memberi kita manfaat yang tak tertahankan, bahkan saat hal itu mengubah tempat kerja, konsumsi budaya kita, dan tak terelakkan, kita.

New Replace : [randomize]

Related Posts