Dan di tingkat organisasi, seluruh proses harus didukung oleh pendekatan untuk membangun AI yang mewujudkan nilai-nilai perusahaan yang ada. Di sinilah Mills dan BCG sering berperan. BCG bekerja dengan beragam perusahaan—mulai dari bisnis kecil yang sederhana hingga pemimpin industri seperti Microsoft—untuk mengembangkan sumber daya dan protokol yang menciptakan budaya penggunaan AI yang bertanggung jawab. Mereka menghindari proses baru kecuali jika diperlukan, alih-alih memastikan ada langkah konkret di bawah operasi, filosofi, dan tata kelola risiko masing-masing organisasi yang ada.
Sekarang tambahkan semuanya: Ketika sebuah organisasi berfokus pada niat, mempertimbangkan risiko dan rencana mitigasi, dan menyelaraskan pekerjaan dengan tujuan dan nilai perusahaan, hal-hal seperti peraturan sudah menjadi batasan minimal. Secara sosial, itu adalah langkah besar ke arah yang benar.
Manfaat untuk garis bawah
Namun, beberapa organisasi belum sepenuhnya mengadopsi cara berpikir ini. Untuk melangkah lebih jauh dalam perubahan budaya ini, Mills dan BCG yakin banyak perusahaan perlu melihat manfaat yang lebih nyata dari AI yang bertanggung jawab. Tapi bagi Mills, kasus itu sudah jelas. “Saya benar-benar berpikir Anda harus mengukur pada intinya,” katanya. “Saya tidak setuju bahwa beroperasi secara tidak etis lebih menguntungkan. Ada manfaat bisnis nyata yang berasal dari AI yang bertanggung jawab.”
Dengan kata lain, membangun AI secara tidak bertanggung jawab bukanlah keuntungan bisnis; itu lebih seperti jalan pintas yang tidak membuahkan hasil. Menurut laporan gabungan BCG dan MIT-SMR baru-baru ini, perusahaan yang memiliki kerangka kerja AI yang bertanggung jawab hanya mengalami tingkat kegagalan 23 persen, dibandingkan dengan tingkat kegagalan 32 persen dari mereka yang tidak memilikinya. Dari perspektif dolar dan sen, itu tidak diragukan lagi merupakan masalah. Dan organisasi dengan program AI yang matang dan bertanggung jawab sudah melihat inovasi yang lebih cepat, kepercayaan pelanggan yang lebih kuat, profitabilitas yang lebih tinggi, budaya inovasi yang bertanggung jawab, dan perekrutan dan retensi karyawan yang lebih baik.
Kenyataan pahitnya adalah AI yang tidak etis juga menimbulkan risiko organisasi yang besar—dalam persepsi merek, regulasi, dan litigasi. Dunia mungkin masih berjuang untuk mempelajari cara membuat AI dengan benar, tetapi pemerintah dan badan hukum dengan cepat meningkatkan kemampuan dan kemauan mereka untuk memberikan sanksi kepada mereka yang tidak melakukannya. Apa yang dulunya Wild West menjadi semakin diteliti, dan dengan alasan yang bagus. Dalam beberapa hal, risiko persepsi merek bisa menjadi yang paling substansial: Perusahaan mungkin memiliki keharusan bisnis untuk membangun AI, tetapi mereka membutuhkan kepercayaan pelanggan untuk menggunakannya. Dan ketika sebuah perusahaan melanggar kepercayaan publik, akan sangat sulit untuk memenangkannya kembali.
“Kegagalan terjadi,” kata Gupta. “Tapi yang mengikis kepercayaan adalah jika Anda tidak transparan tentangnya, mencoba menyembunyikannya, dan berpura-pura itu bukan masalah. Jika Anda terbuka dan berkata, ‘Kami salah, begini caranya,’ atau ‘Ini yang akan kami lakukan untuk memperbaikinya,’ itu akan membangun lebih banyak kepercayaan.”
Jadi bagaimana, pada akhirnya, Anda mengukur kesuksesan? Tentu, jumlah kegagalan yang tertangkap adalah penanda yang baik; kecanggihan dan kelancaran percakapan seputar tangkapan itu bahkan lebih baik. Namun ujian sebenarnya kembali ke versi dari semua ini yang telah diperjuangkan oleh Mills dan timnya sejak awal: versi di mana hal-hal yang kita bukan yang dibicarakan dalam percakapan semacam ini adalah konsep AI yang bertanggung jawab itu sendiri, karena itu sealami bernapas. Ketika kita sampai di sana, saat itulah kita akan mengetahui bahwa pendekatannya telah menjadi sangat mendasar.
Tanggung jawab untuk perubahan
Untuk saat ini, tugas langsung BCG tetap membantu lebih banyak organisasi memulai atau terus menanamkan AI yang bertanggung jawab ke dalam operasi mereka. Baris yang panjang untuk dicangkul, tetapi karena percakapan semacam ini berlipat ganda, itu adalah bukti bahwa kita berada di jalan yang benar.
Keuntungan menyebabkan pergeseran budaya asli menuju AI yang bertanggung jawab jelas bagi Mills dan Gupta, dan itu adalah tanggung jawab yang mereka anggap serius. Mereka ingin melihat masyarakat di mana AI ada sebagai alat yang ampuh, di mana AI digunakan secara bertanggung jawab secara default, dan di mana teknologi dipasangkan dengan manusia untuk memanfaatkan kekuatan keduanya—menggabungkan pengenalan pola AI dengan kreativitas manusia dan kemampuan untuk merasakan nuansa intuisi.
Yang terpenting, mereka ingin “AI yang bertanggung jawab” menjadi istilah yang berlebihan: Jika sebuah perusahaan menggunakan AI, mereka telah lama memikul tanggung jawab yang menyertainya. Jika BCG dapat membantu membuat itu kenyataan yang tersebar luas, akhirnya mungkin untuk mengatasi beberapa masalah yang lebih sulit saat ini, dari perumahan yang setara hingga kredit yang adil dan perekrutan yang tidak memihak. Dan dalam pengertian itu, apa yang coba dibangun oleh para pendukung AI yang bertanggung jawab ini bukan hanya organisasi yang lebih memahami—ini adalah dunia yang lebih inklusif, mendapatkan lisensi sosial dari pemangku kepentingan untuk mengoperasikan sistem AI.
“Inilah mengapa penting untuk melakukan percakapan yang lebih luas tentang AI yang bertanggung jawab. Masalah yang dapat kami tangani tidak selalu hitam-putih dengan benar dan salah yang jelas,” kata Mills. “Semakin kita dapat berdialog dengan konsumen dan perusahaan serta pemangku kepentingan untuk memulai normalisasi ini, semakin kita dapat fokus pada hal-hal seperti masalah sistemik yang dapat dibantu oleh pembuat kebijakan dan bagaimana kita mengambil keputusan di zona abu-abu.
“Sebagai masyarakat, penting untuk mengadakan diskusi ini,” katanya. “Kita sebagai konsumen memiliki kekuatan lebih dari yang kita sadari.”
Artikel ini diproduksi oleh WIRED Model Lab untuk Boston Consulting Group.
New Replace : [randomize]