LaMDA dan Perangkap AI Hidup

“Ada banyak minyak ular di luar sana, dan bercampur dengan semua hype adalah kemajuan nyata,” kata Brin. “Mengurai jalan kita melalui rebusan itu adalah salah satu tantangan yang kita hadapi.”

Dan sama empatiknya dengan LaMDA, orang yang kagum dengan mannequin bahasa besar harus mempertimbangkan kasus penusukan burger keju, kata Yejin Choi, seorang ilmuwan komputer di College of Washington. Sebuah siaran berita lokal di Amerika Serikat melibatkan seorang remaja di Toledo, Ohio, yang menikam lengan ibunya dalam perselisihan tentang burger keju. Tapi tajuk “Cheeseburger Stabbing” tidak jelas. Mengetahui apa yang terjadi membutuhkan akal sehat. Upaya untuk mendapatkan mannequin GPT-3 OpenAI untuk menghasilkan teks menggunakan “Breaking information: Cheeseburger stabbing” menghasilkan kata-kata tentang seorang pria yang ditusuk dengan burger keju dalam pertengkaran karena saus tomat, dan seorang pria ditangkap setelah menikam burger keju.

Mannequin bahasa terkadang membuat kesalahan karena menguraikan bahasa manusia memerlukan berbagai bentuk pemahaman akal sehat. Untuk mendokumentasikan kemampuan mannequin bahasa besar dan kekurangannya, bulan lalu lebih dari 400 peneliti dari 130 institusi berkontribusi pada kumpulan lebih dari 200 tugas yang dikenal sebagai BIG-Bench, atau Past the Imitation Sport. BIG-Bench mencakup beberapa tes mannequin bahasa tradisional seperti pemahaman bacaan, tetapi juga penalaran logis dan akal sehat.

Para peneliti di proyek MOSAIC Allen Institute for AI, yang mendokumentasikan kemampuan penalaran akal sehat mannequin AI, menyumbangkan tugas yang disebut Social-IQa. Mereka meminta mannequin bahasa — tidak termasuk LaMDA — untuk menjawab pertanyaan yang membutuhkan kecerdasan sosial, seperti “Jordan ingin memberi tahu Tracy sebuah rahasia, jadi Jordan condong ke arah Tracy. Mengapa Jordan melakukan ini?” Tim menemukan mannequin bahasa besar mencapai kinerja 20 hingga 30 persen kurang akurat daripada manusia.

“Mesin tanpa kecerdasan sosial yang hidup tampaknya … mati,” kata Choi, yang bekerja dengan proyek MOSAIC.

Cara membuat robotic empati adalah bidang penelitian AI yang sedang berlangsung. Peneliti Robotika dan AI suara telah menemukan bahwa tampilan empati memiliki kekuatan untuk memanipulasi aktivitas manusia. Orang-orang juga diketahui terlalu mempercayai sistem AI atau secara implisit menerima keputusan yang dibuat oleh AI.

Apa yang terungkap di Google melibatkan pertanyaan mendasar yang lebih besar tentang apakah makhluk digital dapat memiliki perasaan. Makhluk biologis bisa dibilang diprogram untuk merasakan beberapa sentimen, tetapi menyatakan bahwa mannequin AI dapat memperoleh kesadaran sama seperti mengatakan boneka yang dibuat untuk menangis sebenarnya menyedihkan.

Choi mengatakan dia tidak mengenal peneliti AI mana pun yang percaya pada bentuk AI yang berakal, tetapi peristiwa yang melibatkan Blake Lemoine tampaknya menggarisbawahi bagaimana persepsi yang salah tentang apa yang mampu dilakukan AI dapat membentuk peristiwa dunia nyata.

“Beberapa orang percaya pada kartu tarot, dan beberapa mungkin mengira tanaman mereka memiliki perasaan,” katanya, “jadi saya tidak tahu seberapa luas fenomena ini.”

Semakin banyak orang mengilhami kecerdasan buatan dengan sifat manusia, semakin intens mereka akan berburu hantu di dalam mesin — jika belum, maka suatu hari nanti di masa depan. Dan semakin mereka akan teralihkan dari masalah dunia nyata yang mengganggu AI saat ini.

New Replace : [randomize]

Related Posts