Pertarungan Tentang Penggunaan AI yang Harus Dilarang Eropa
Molnar, seorang pengacara imigrasi, mengatakan bahwa orang sering menghindari kontak mata dengan petugas perbatasan atau migrasi karena alasan yang tidak berbahaya—seperti budaya, agama, atau trauma—tetapi melakukan hal itu terkadang salah dibaca sebagai tanda bahwa seseorang menyembunyikan sesuatu. Manusia sering bergumul dengan komunikasi lintas budaya atau berbicara dengan orang yang mengalami trauma, katanya, jadi mengapa orang percaya mesin bisa berbuat lebih baik?
Draf pertama Undang-Undang AI yang dirilis pada April 2021 mencantumkan skor kredit sosial dan penggunaan pengenalan wajah secara real-time di tempat umum sebagai teknologi yang akan langsung dilarang. Itu memberi label pengenalan emosi dan pendeteksi kebohongan AI untuk perbatasan atau penegakan hukum sebagai risiko tinggi, yang berarti penyebaran harus terdaftar di daftar publik. Molnar mengatakan itu tidak cukup, dan teknologinya harus ditambahkan ke daftar terlarang.
Dragoș Tudorache, salah satu dari dua pelapor yang ditunjuk oleh anggota Parlemen Eropa untuk memimpin proses amandemen, mengatakan anggota parlemen mengajukan amandemen bulan ini, dan dia mengharapkan pemungutan suara pada akhir 2022. Pelapor parlemen pada bulan April merekomendasikan untuk menambahkan kebijakan prediktif ke dalam daftar teknologi yang dilarang, dengan mengatakan bahwa hal itu “melanggar praduga tidak bersalah serta martabat manusia,” tetapi tidak menyarankan untuk menambahkan poligraf perbatasan AI. Mereka juga merekomendasikan sistem pengkategorian untuk triase pasien dalam perawatan kesehatan atau memutuskan apakah orang mendapatkan asuransi kesehatan atau jiwa sebagai risiko tinggi.
Sementara Parlemen Eropa melanjutkan proses amandemen, Dewan Uni Eropa juga akan mempertimbangkan amandemen UU AI. Di sana, pejabat dari negara-negara termasuk Belanda dan Prancis telah mengajukan pengecualian keamanan nasional untuk UU AI, menurut dokumen yang diperoleh dengan permintaan kebebasan informasi oleh Pusat Eropa untuk Not-for-Revenue Regulation.
Vanja Skoric, direktur program organisasi tersebut, mengatakan pengecualian keamanan nasional akan menciptakan celah bahwa sistem AI yang membahayakan hak asasi manusia—seperti poligraf AI—dapat lolos dan jatuh ke tangan polisi atau lembaga perbatasan.
Langkah-langkah terakhir untuk mengesahkan atau menolak undang-undang tersebut dapat dilakukan pada akhir tahun depan. Sebelum anggota Parlemen Eropa mengajukan amandemen mereka pada 1 Juni, Tudorache mengatakan kepada WIRED, “Jika kami mendapatkan ribuan amandemen seperti yang diantisipasi beberapa orang, pekerjaan untuk benar-benar menghasilkan kompromi dari ribuan amandemen akan sangat besar.” Dia sekarang mengatakan sekitar 3.300 proposal amandemen UU AI telah diterima tetapi berpikir proses legislasi UU AI dapat diselesaikan pada pertengahan 2023.
Kekhawatiran bahwa prediksi berbasis information dapat menjadi diskriminatif tidak hanya teoretis. Algoritme yang digunakan oleh otoritas pajak Belanda untuk mendeteksi potensi penipuan tunjangan anak antara 2013 hingga 2020 ditemukan telah merugikan puluhan ribu orang, dan menyebabkan lebih dari 1.000 anak ditempatkan di panti asuhan. Sistem yang cacat menggunakan information seperti apakah seseorang memiliki kewarganegaraan kedua sebagai sinyal untuk penyelidikan, dan berdampak tidak proporsional pada imigran.
Skandal manfaat sosial Belanda mungkin dapat dicegah atau dikurangi seandainya otoritas Belanda membuat penilaian dampak untuk sistem, seperti yang diusulkan oleh UU AI, yang dapat menimbulkan tanda bahaya, kata Skoric. Dia berpendapat bahwa undang-undang harus memiliki penjelasan yang jelas tentang mengapa mannequin mendapatkan label tertentu, misalnya ketika pelapor memindahkan kebijakan prediktif dari kategori berisiko tinggi ke larangan yang direkomendasikan.
New Replace : [randomize]