Liuzzo mengakui “ada banyak pekerjaan yang harus dilakukan untuk membuat bidang pengembangan perangkat lunak lebih beragam dan inklusif, dan Stack Overflow memiliki peran besar dalam pekerjaan itu.” Dia mengatakan organisasi telah menerbitkan kode etik baru yang lebih inklusif dalam beberapa minggu terakhir dan telah merombak proses mengajukan pertanyaan di platform. Dia berharap ini akan mengurangi hambatan untuk masuk, yang secara historis mungkin menyebabkan kelompok yang kurang terwakili menjauh dari situs tersebut. “Kami menyadari masih banyak yang harus dilakukan, dan kami berkomitmen untuk melakukan pekerjaan untuk membuat perubahan terjadi,” katanya.
Namun, itu sedikit kenyamanan bagi Kate Devlin, seorang pembaca kecerdasan buatan dan masyarakat di King’s School, London. “Sudah menjadi rahasia umum bahwa teknologi memiliki masalah gender,” katanya. “Jika kita serius ingin meningkatkan keragaman dalam teknologi, maka kita perlu tahu seperti apa bentang alamnya.” Devlin menunjukkan bahwa sulit untuk mengukur kemajuan—atau regresi—tanpa dasar knowledge.
Apa pun alasan untuk menghapus pertanyaan kunci tentang siapa yang menggunakan platform, hasil survei — atau kekurangannya — menyoroti masalah dengan demografi pengguna Stack Overflow, dan masalah yang lebih luas di seluruh teknologi: Peserta non-pria sangat kurang terwakili.
“Menghapus gender dari survei tahunan adalah penghapusan yang mengerikan dari masalah kesenjangan gender yang melingkupi industri teknologi. Dan lebih buruk lagi, ini menghilangkan konteks penting untuk knowledge yang dikorek dan dimasukkan ke dalam mannequin bahasa besar,” kata Catherine Flick, sarjana komputasi dan tanggung jawab sosial di De Montfort College. “Tanpa konteks itu, bias kumpulan knowledge tidak diketahui, dan terdokumentasi dengan baik bahwa bias gender sering dibangun ke dalam teknologi, dari nama variabel hingga bidang bentuk hingga asumsi tentang pekerjaan, peran, dan kemampuan.”
Semakin banyak wanita yang mengambil, dan mendapatkan, kualifikasi tingkat sarjana dalam sains, teknologi, teknik, dan matematika, menurut Nationwide Science Basis—meskipun proporsi wanita yang mendapatkan gelar sarjana ilmu komputer telah turun hampir 20 poin persentase di melewati 40 tahun. (Porsi gelar grasp dalam ilmu komputer yang diberikan kepada wanita telah meningkat sedikit.) Tetapi bahkan jika saluran sedang diperbaiki, mempertahankan wanita di sektor teknologi itu rumit. Separuh dari wanita yang memasuki industri ini putus sekolah pada usia 35 tahun, menurut knowledge dari Accenture.
Masalahnya menjadi lebih mendesak karena teknologi ada di mana-mana dalam hidup kita, dan cara kecerdasan buatan khususnya diatur untuk diintegrasikan ke dalam segala hal yang kita lakukan dan berinteraksi. Manusia di belakang platform teknologi membuat keputusan yang tak terhitung jumlahnya—besar dan kecil—tentang produk dan alat mereka yang dapat merugikan orang-orang yang tidak menyukainya.
“Dengan kode non-AI, Anda dapat men-debug-nya, mendapatkan pandangan kedua dari demografis yang berbeda, dan memeriksanya secara langsung,” kata Luccioni. “Tetapi jika Anda memiliki kode AI, semua keputusan yang mendorong knowledge atau arsitektur mannequin ini, mereka akan dimasukkan.”
Ambil versi awal ChatGPT: Alat tersebut memberikan tanggapan yang menyarankan sistem kepercayaannya dikodekan dengan gagasan itu ilmuwan yang baik adalah orang kulit putih, dan orang lain tidak. Masalah itu telah diperbaiki, dan CEO OpenAI Sam Altman tanya pengguna untuk membantu melatih mannequin dengan menandai respons semacam itu di masa mendatang—menandainya dengan tombol jempol ke bawah—tetapi masalah yang lebih luas terus berlanjut.
“Bagian dari warisan mereka yang telah mengembangkan dan menerapkan AI dalam dua dekade terakhir adalah ikut bertanggung jawab atas langkah mundur yang mengkhawatirkan dalam kesetaraan gender,” kata Carissa Véliz, profesor di Institute for Ethics in AI di College of Oxford.
Véliz khawatir bahwa ketidakseimbangan gender dalam merancang dan membuat kode platform utama—dari media sosial hingga alat AI generatif baru yang kami gunakan sekarang—berdampak negatif pada cara perempuan diperlakukan oleh platform tersebut. “Dari cara media sosial menyakiti wanita hingga mempekerjakan algoritme yang menawarkan lebih banyak peluang bagi pria dan mendiskriminasi wanita, para teknisi telah mengembalikan budaya beracun yang tidak hanya buruk bagi wanita, tetapi juga bagi masyarakat pada umumnya,” katanya.
Flick khawatir bahwa tanpa knowledge yang jelas tentang siapa yang mengkode alat yang kemungkinan besar akan kita gunakan setiap hari, bias yang mungkin akan dikodekan ke dalamnya “pasti akan direplikasi dalam hasil yang LLM [large language model] menghasilkan, memperkuatnya lebih jauh.”
Sangat penting bahwa itu berubah — cepat, terutama saat melihat AI. “Sampai itu terjadi,” kata Veliz, “hanya ada sedikit harapan bahwa kita akan memiliki AI etis.”
New Replace : [randomize]