Bagaimana Mengambil Pendekatan Berhati-hati untuk AI Mengurangi Kumpulan Data yang Bias

Kumpulan Data Bias dan AI Etis

Solusi bertenaga AI membutuhkan kumpulan data agar efektif. Dan pembuatan kumpulan data tersebut penuh dengan masalah bias implisit pada tingkat yang sistematis. Semua orang menderita bias (baik sadar maupun tidak sadar). Bias dapat mengambil sejumlah bentuk: geografis, linguistik, sosial-ekonomi, seksis, dan rasis. Dan bias sistematis tersebut dimasukkan ke dalam data, yang dapat menghasilkan produk AI yang melanggengkan dan memperbesar bias. Organisasi membutuhkan pendekatan yang penuh perhatian untuk mengurangi bias yang merayap ke dalam kumpulan data.

Contoh yang Menggambarkan Masalah Bias

Salah satu contoh penting dari bias kumpulan data ini yang mengumpulkan banyak pers negatif pada saat itu adalah solusi membaca resume yang lebih menyukai kandidat pria daripada wanita. Ini karena kumpulan data alat rekrutmen telah dikembangkan menggunakan resume selama dekade terakhir ketika mayoritas pelamar adalah laki-laki. Data itu bias dan hasilnya mencerminkan bias itu. 

Contoh lain yang dilaporkan secara luas: Pada konferensi pengembang Google I/O tahunan, Google membagikan pratinjau alat bantu dermatologi bertenaga AI yang membantu orang memahami apa yang terjadi dengan masalah yang berkaitan dengan kulit, rambut, dan kuku mereka. Asisten dermatologi menggarisbawahi bagaimana AI berkembang untuk membantu perawatan kesehatan – tetapi juga menyoroti potensi bias untuk masuk ke AI setelah kritik bahwa alat tersebut tidak memadai untuk orang kulit berwarna.

Ketika Google mengumumkan alat tersebut, perusahaan mencatat:

Untuk memastikan kami membangun untuk semua orang, model kami memperhitungkan faktor-faktor seperti usia, jenis kelamin, ras, dan jenis kulit — dari kulit pucat yang tidak kecokelatan hingga kulit cokelat yang jarang terbakar.

Google, Menggunakan AI untuk membantu menemukan jawaban atas kondisi kulit umum

Tetapi sebuah artikel di Vice mengatakan Google gagal menggunakan kumpulan data inklusif:

Untuk menyelesaikan tugas tersebut, para peneliti menggunakan dataset pelatihan dari 64,837 gambar dari 12,399 pasien yang berlokasi di dua negara bagian. Namun dari ribuan kondisi kulit yang digambarkan, hanya 3.5 persen yang berasal dari pasien dengan jenis kulit Fitzpatrick V dan VI—yang masing-masing mewakili kulit cokelat dan cokelat tua atau hitam. 90 persen dari database terdiri dari orang-orang dengan kulit putih, kulit putih lebih gelap, atau kulit coklat muda, menurut penelitian tersebut. Sebagai hasil dari pengambilan sampel yang bias, ahli kulit mengatakan aplikasi itu bisa membuat diagnosis berlebihan atau kurang pada orang yang tidak berkulit putih.

Wakil, Aplikasi Dermatologi Baru Google Tidak Dirancang untuk Orang Dengan Kulit Lebih Gelap

Google menanggapi dengan mengatakan akan memperbaiki alat sebelum merilisnya secara resmi:

Alat bantu dermatologi bertenaga AI kami adalah puncak dari penelitian selama lebih dari tiga tahun. Sejak pekerjaan kami ditampilkan di Nature Medicine, kami terus mengembangkan dan menyempurnakan teknologi kami dengan menggabungkan kumpulan data tambahan yang mencakup data yang disumbangkan oleh ribuan orang, dan jutaan lebih banyak gambar masalah kulit yang dikurasi.

Google, Menggunakan AI untuk membantu menemukan jawaban atas kondisi kulit umum

Sebanyak yang kita harapkan AI dan program pembelajaran mesin dapat mengoreksi bias ini, kenyataannya tetap: mereka hanya sebagai pintar karena kumpulan data mereka bersih. Dalam pembaruan pepatah pemrograman lama sampah masuk sampah keluar, solusi AI hanya sekuat kualitas set data mereka sejak awal. Tanpa koreksi dari pemrogram, kumpulan data ini tidak memiliki pengalaman latar belakang untuk memperbaiki dirinya sendiri – karena mereka tidak memiliki kerangka acuan lain.

Membangun kumpulan data secara bertanggung jawab adalah inti dari semuanya kecerdasan buatan etis. Dan orang-orang adalah inti dari solusi. 

AI yang Penuh Perhatian adalah AI yang Etis

Bias tidak terjadi dalam ruang hampa. Kumpulan data yang tidak etis atau bias berasal dari mengambil pendekatan yang salah selama tahap pengembangan. Cara untuk memerangi kesalahan bias adalah dengan mengadopsi pendekatan yang bertanggung jawab, berpusat pada manusia, yang disebut oleh banyak orang di industri sebagai AI Mindful. AI yang sadar memiliki tiga komponen penting:

1. AI yang Penuh Perhatian Berpusat pada Manusia

Sejak awal proyek AI, dalam tahap perencanaan, kebutuhan manusia harus menjadi pusat dari setiap keputusan. Dan itu berarti semua orang – bukan hanya sebagian. Itulah mengapa pengembang perlu mengandalkan tim beragam yang terdiri dari orang-orang berbasis global untuk melatih aplikasi AI agar inklusif dan bebas bias.

Crowdsourcing kumpulan data dari tim global yang beragam memastikan bias diidentifikasi dan disaring lebih awal. Orang-orang dari berbagai etnis, kelompok usia, jenis kelamin, tingkat pendidikan, latar belakang sosial ekonomi, dan lokasi dapat lebih mudah melihat kumpulan data yang mendukung satu kumpulan nilai di atas yang lain, sehingga menyingkirkan bias yang tidak diinginkan.

Lihatlah aplikasi suara. Saat menerapkan pendekatan AI yang penuh perhatian, dan memanfaatkan kekuatan kumpulan bakat global, pengembang dapat memperhitungkan elemen linguistik seperti dialek dan aksen yang berbeda dalam kumpulan data.

Membangun kerangka desain yang berpusat pada manusia dari awal sangat penting. Ini berjalan jauh untuk memastikan bahwa data yang dihasilkan, dikuratori, dan diberi label memenuhi harapan pengguna akhir. Tetapi penting juga untuk menjaga manusia dalam lingkaran di seluruh siklus hidup pengembangan produk. 

Manusia dalam lingkaran juga dapat membantu mesin menciptakan pengalaman AI yang lebih baik untuk setiap audiens tertentu. Di Pactera EDGE, tim proyek data AI kami, yang berlokasi di seluruh dunia, memahami bagaimana budaya dan konteks yang berbeda dapat memengaruhi pengumpulan dan kurasi data pelatihan AI yang andal. Mereka memiliki alat yang diperlukan untuk menandai masalah, memantaunya, dan memperbaikinya sebelum solusi berbasis AI diluncurkan.

AI human-in-the-loop adalah "jaring pengaman" proyek yang menggabungkan kekuatan orang – dan latar belakang mereka yang beragam dengan kekuatan komputasi mesin yang cepat. Kolaborasi manusia dan AI ini perlu dibangun sejak awal program sehingga data yang bias tidak menjadi fondasi dalam proyek. 

2. AI yang Sadar Bertanggung Jawab

Bertanggung jawab adalah memastikan bahwa sistem AI bebas dari bias dan didasarkan pada etika. Ini tentang memperhatikan bagaimana, mengapa, dan di mana data dibuat, bagaimana data tersebut disintesis oleh sistem AI, dan bagaimana data tersebut digunakan dalam membuat keputusan, keputusan yang dapat memiliki implikasi etis. Salah satu cara bagi bisnis untuk melakukannya adalah bekerja dengan komunitas yang kurang terwakili agar lebih inklusif dan tidak terlalu bias. Di bidang anotasi data, penelitian baru menyoroti bagaimana model multi-annotator multi-tugas yang memperlakukan setiap label annotator sebagai subtugas terpisah dapat membantu mengurangi potensi masalah yang melekat pada metode kebenaran dasar yang khas di mana ketidaksepakatan annotator mungkin disebabkan oleh representasi yang kurang dan dapat diabaikan dalam agregasi anotasi ke satu kebenaran dasar. 

3. Terpercaya

Kepercayaan berasal dari bisnis yang transparan dan dapat dijelaskan dalam cara model AI dilatih, cara kerjanya, dan mengapa mereka merekomendasikan hasilnya. Sebuah bisnis membutuhkan keahlian dengan pelokalan AI untuk memungkinkan kliennya membuat aplikasi AI mereka lebih inklusif dan personal, menghormati nuansa kritis dalam bahasa lokal dan pengalaman pengguna yang dapat membuat atau menghancurkan kredibilitas solusi AI dari satu negara ke negara berikutnya. . Misalnya, bisnis harus merancang aplikasinya untuk konteks yang dipersonalisasi dan dilokalkan, termasuk bahasa, dialek, dan aksen dalam aplikasi berbasis suara. Dengan begitu, aplikasi menghadirkan tingkat kecanggihan pengalaman suara yang sama untuk setiap bahasa, dari bahasa Inggris hingga bahasa yang kurang terwakili.

Keadilan dan Keberagaman

Pada akhirnya, AI yang penuh perhatian memastikan solusi dibangun di atas kumpulan data yang adil dan beragam di mana konsekuensi dan dampak dari hasil tertentu dipantau dan dievaluasi sebelum solusi dipasarkan. Dengan memperhatikan dan menyertakan manusia dalam setiap bagian pengembangan solusi, kami membantu memastikan model AI tetap bersih, bias seminimal mungkin, dan se-etika mungkin.

Bagaimana menurut Anda?

Situs ini menggunakan Akismet untuk mengurangi spam. Pelajari bagaimana data komentar Anda diproses.