Teknologi komputer
OASI, mesin pencari pertama yang menemukan algoritme yang digunakan pemerintah dan perusahaan pada warga
- Dibuat oleh Eticas Foundation, Observatory of Algorithms with Social Impact, OASI, mengumpulkan informasi dari lusinan algoritma yang digunakan oleh Administrasi Publik dan perusahaan di seluruh dunia untuk mempelajari lebih lanjut tentang dampak sosialnya.
- Tujuannya adalah untuk memberikan akses publik ke informasi tentang algoritma pemerintah dan perusahaan, dan untuk mengetahui siapa yang menggunakannya, siapa yang mengembangkannya, ancaman apa yang mereka wakili dan apakah mereka telah diaudit, di antara karakteristik lainnya.
- Bias algoritma dan diskriminasi biasanya terjadi berdasarkan usia, jenis kelamin, ras atau kecacatan, di antara nilai-nilai lainnya, tetapi karena kurangnya transparansi secara umum, masih tidak mungkin untuk mengetahui semua konsekuensinya pada kelompok yang terkena dampak.
Eticas Foundation, sebuah organisasi nirlaba yang mempromosikan penggunaan algoritma dan sistem Artificial Intelligence (AI) yang bertanggung jawab, telah menciptakan Observatory of Algorithms with Social Impact (OASI). Observatorium ini memperkenalkan mesin pencari untuk mengetahui lebih banyak tentang alat yang membuat keputusan otomatis yang penting bagi warga, konsumen, dan pengguna di seluruh dunia.
Saat ini, baik perusahaan maupun Administrasi Publik mengotomatiskan keputusan berkat algoritme. Namun, pengembangan dan pelaksanaannya tidak mengikuti kontrol kualitas eksternal, juga tidak transparan sebagaimana mestinya, yang membuat populasi tidak terlindungi. Dengan mesin pencari ini, siapa pun dapat mengetahui lebih lanjut tentang algoritme ini: siapa yang mengembangkannya, siapa yang menggunakannya, cakupan aplikasinya, apakah telah diaudit, tujuan atau dampak sosialnya, dan ancaman yang diwakilinya.
Saat ini, OASI mengumpulkan 57 algoritme, tetapi diperkirakan akan mencapai 100 di bulan-bulan berikutnya. Di antara mereka, 24 sudah diterapkan di AS oleh Pemerintah dan perusahaan Big Tech. Misalnya, ShotSpotter, alat algoritme yang digunakan oleh Departemen Kepolisian Oakland untuk memerangi dan mengurangi kekerasan senjata melalui mikrofon pemantau suara, dan algoritme untuk memprediksi potensi pelecehan dan penelantaran anak yang digunakan oleh Allegheny County, Pennsylvania. Contoh lain dari perusahaan adalah Rekognition, sistem pengenalan wajah Amazon, yang diaudit oleh MIT Media Lab pada awal 2019, dan ternyata berkinerja jauh lebih buruk ketika mengidentifikasi jenis kelamin seseorang jika mereka perempuan atau berkulit lebih gelap.
Diskriminasi yang paling umum adalah atas dasar usia, jenis kelamin, ras atau kecacatan, diproduksi secara tidak sengaja oleh pengembang yang kurang memiliki keterampilan sosial ekonomi untuk memahami dampak dari teknologi ini. Dalam hal ini, para insinyur ini merancang algoritme hanya berdasarkan keterampilan teknis, dan karena tidak ada kontrol eksternal dan tampaknya berfungsi seperti yang diharapkan, algoritme terus belajar dari data yang kurang.
Mengingat kurangnya transparansi tentang fungsi beberapa algoritme ini, Eticas Foundation, selain meluncurkan OASI, sedang mengembangkan proyek audit eksternal. Yang pertama adalah VioGén, algoritma yang digunakan oleh Kementerian Dalam Negeri Spanyol untuk menetapkan risiko bagi perempuan yang mencari perlindungan setelah mengalami kasus kekerasan dalam rumah tangga. Eticas akan melakukan audit eksternal melalui rekayasa balik dan data administratif, wawancara, laporan atau skrip desain, untuk mengumpulkan hasil dalam skala besar. Semua ini dengan tujuan untuk mendeteksi peluang perbaikan dalam perlindungan perempuan ini.
“Meskipun ada kontrol algoritmik dan metode audit untuk memastikan bahwa teknologi menghormati peraturan saat ini dan hak-hak dasar, Administrasi dan banyak perusahaan terus menutup telinga terhadap permintaan transparansi dari warga dan institusi,” kata Gemma Galdon, pendiri Yayasan Eticas . “Selain OASI, setelah beberapa tahun di mana kami telah mengembangkan lebih dari selusin audit untuk perusahaan seperti Alpha Telefónica, Perserikatan Bangsa-Bangsa, Koa Health atau Bank Pembangunan Inter-Amerika, kami juga telah menerbitkan Panduan untuk Audit Algoritmik sehingga bahwa siapa pun dapat melakukannya. Tujuannya selalu untuk meningkatkan kesadaran, memberikan transparansi, dan mengembalikan kepercayaan pada teknologi, yang dengan sendirinya tidak harus berbahaya.”
Dalam pengertian ini, algoritme yang dilatih dengan teknik pembelajaran mesin menggunakan sejumlah besar data historis untuk "mengajarkan" mereka memilih berdasarkan keputusan masa lalu. Biasanya data ini tidak mewakili realitas sosial ekonomi dan budaya di mana mereka diterapkan, tetapi dalam banyak kesempatan mereka mencerminkan situasi yang tidak adil yang tidak dimaksudkan untuk diabadikan. Dengan cara ini, algoritme akan secara teknis membuat keputusan "benar" sesuai dengan pelatihannya, meskipun kenyataannya rekomendasi atau prediksinya bias atau diskriminatif.
Tentang Yayasan Eticas
Yayasan Eticas bekerja untuk menerjemahkan ke dalam spesifikasi teknis prinsip-prinsip yang memandu masyarakat, seperti kesempatan yang sama, transparansi, dan non-diskriminasi yang ada dalam teknologi yang membuat keputusan otomatis tentang kehidupan kita. Ini mencari keseimbangan antara perubahan nilai-nilai sosial, kemungkinan teknis dari kemajuan terbaru dan kerangka hukum. Untuk tujuan ini, ia mengaudit algoritme, memverifikasi bahwa jaminan hukum diterapkan ke dunia digital, terutama untuk Kecerdasan Buatan, dan melakukan pekerjaan intensif untuk meningkatkan kesadaran dan menyebarluaskan kebutuhan akan teknologi yang bertanggung jawab dan berkualitas.
Bagikan artikel ini:
-
Ukrainahari 5 lalu
PMI, yang diakui oleh Ukraina sebagai “sponsor” perang, terus beroperasi di Rusia dan menikmati keuntungan pajak Ukraina
-
UKhari 5 lalu
Princess of Wales mengatakan dia sedang menjalani pengobatan kanker
-
Kesepakatan hijauhari 4 lalu
Pompa panas penting untuk transisi ramah lingkungan pada baja dan industri lainnya
-
Motoringhari 2 lalu
Fiat 500 vs. Mini Cooper: Perbandingan Mendetail