Terhubung dengan kami

Teknologi komputer

OASI, mesin pencari pertama yang menemukan algoritme yang digunakan pemerintah dan perusahaan pada warga

SAHAM:

Diterbitkan

on

Kami menggunakan pendaftaran Anda untuk menyediakan konten dengan cara yang Anda setujui dan untuk meningkatkan pemahaman kami tentang Anda. Anda dapat berhenti berlangganan kapan saja.

  • Dibuat oleh Eticas Foundation, Observatory of Algorithms with Social Impact, OASI, mengumpulkan informasi dari lusinan algoritma yang digunakan oleh Administrasi Publik dan perusahaan di seluruh dunia untuk mempelajari lebih lanjut tentang dampak sosialnya.
  • Tujuannya adalah untuk memberikan akses publik ke informasi tentang algoritma pemerintah dan perusahaan, dan untuk mengetahui siapa yang menggunakannya, siapa yang mengembangkannya, ancaman apa yang mereka wakili dan apakah mereka telah diaudit, di antara karakteristik lainnya.
  • Bias algoritma dan diskriminasi biasanya terjadi berdasarkan usia, jenis kelamin, ras atau kecacatan, di antara nilai-nilai lainnya, tetapi karena kurangnya transparansi secara umum, masih tidak mungkin untuk mengetahui semua konsekuensinya pada kelompok yang terkena dampak.

Eticas Foundation, sebuah organisasi nirlaba yang mempromosikan penggunaan algoritma dan sistem Artificial Intelligence (AI) yang bertanggung jawab, telah menciptakan Observatory of Algorithms with Social Impact (OASI). Observatorium ini memperkenalkan mesin pencari untuk mengetahui lebih banyak tentang alat yang membuat keputusan otomatis yang penting bagi warga, konsumen, dan pengguna di seluruh dunia.

Saat ini, baik perusahaan maupun Administrasi Publik mengotomatiskan keputusan berkat algoritme. Namun, pengembangan dan pelaksanaannya tidak mengikuti kontrol kualitas eksternal, juga tidak transparan sebagaimana mestinya, yang membuat populasi tidak terlindungi. Dengan mesin pencari ini, siapa pun dapat mengetahui lebih lanjut tentang algoritme ini: siapa yang mengembangkannya, siapa yang menggunakannya, cakupan aplikasinya, apakah telah diaudit, tujuan atau dampak sosialnya, dan ancaman yang diwakilinya.

Saat ini, OASI mengumpulkan 57 algoritme, tetapi diperkirakan akan mencapai 100 di bulan-bulan berikutnya. Di antara mereka, 24 sudah diterapkan di AS oleh Pemerintah dan perusahaan Big Tech. Misalnya, ShotSpotter, alat algoritme yang digunakan oleh Departemen Kepolisian Oakland untuk memerangi dan mengurangi kekerasan senjata melalui mikrofon pemantau suara, dan algoritme untuk memprediksi potensi pelecehan dan penelantaran anak yang digunakan oleh Allegheny County, Pennsylvania. Contoh lain dari perusahaan adalah Rekognition, sistem pengenalan wajah Amazon, yang diaudit oleh MIT Media Lab pada awal 2019, dan ternyata berkinerja jauh lebih buruk ketika mengidentifikasi jenis kelamin seseorang jika mereka perempuan atau berkulit lebih gelap.

Diskriminasi yang paling umum adalah atas dasar usia, jenis kelamin, ras atau kecacatan, diproduksi secara tidak sengaja oleh pengembang yang kurang memiliki keterampilan sosial ekonomi untuk memahami dampak dari teknologi ini. Dalam hal ini, para insinyur ini merancang algoritme hanya berdasarkan keterampilan teknis, dan karena tidak ada kontrol eksternal dan tampaknya berfungsi seperti yang diharapkan, algoritme terus belajar dari data yang kurang.

Mengingat kurangnya transparansi tentang fungsi beberapa algoritme ini, Eticas Foundation, selain meluncurkan OASI, sedang mengembangkan proyek audit eksternal. Yang pertama adalah VioGén, algoritma yang digunakan oleh Kementerian Dalam Negeri Spanyol untuk menetapkan risiko bagi perempuan yang mencari perlindungan setelah mengalami kasus kekerasan dalam rumah tangga. Eticas akan melakukan audit eksternal melalui rekayasa balik dan data administratif, wawancara, laporan atau skrip desain, untuk mengumpulkan hasil dalam skala besar. Semua ini dengan tujuan untuk mendeteksi peluang perbaikan dalam perlindungan perempuan ini.

“Meskipun ada kontrol algoritmik dan metode audit untuk memastikan bahwa teknologi menghormati peraturan saat ini dan hak-hak dasar, Administrasi dan banyak perusahaan terus menutup telinga terhadap permintaan transparansi dari warga dan institusi,” kata Gemma Galdon, pendiri Yayasan Eticas . “Selain OASI, setelah beberapa tahun di mana kami telah mengembangkan lebih dari selusin audit untuk perusahaan seperti Alpha Telefónica, Perserikatan Bangsa-Bangsa, Koa Health atau Bank Pembangunan Inter-Amerika, kami juga telah menerbitkan Panduan untuk Audit Algoritmik sehingga bahwa siapa pun dapat melakukannya. Tujuannya selalu untuk meningkatkan kesadaran, memberikan transparansi, dan mengembalikan kepercayaan pada teknologi, yang dengan sendirinya tidak harus berbahaya.”

Dalam pengertian ini, algoritme yang dilatih dengan teknik pembelajaran mesin menggunakan sejumlah besar data historis untuk "mengajarkan" mereka memilih berdasarkan keputusan masa lalu. Biasanya data ini tidak mewakili realitas sosial ekonomi dan budaya di mana mereka diterapkan, tetapi dalam banyak kesempatan mereka mencerminkan situasi yang tidak adil yang tidak dimaksudkan untuk diabadikan. Dengan cara ini, algoritme akan secara teknis membuat keputusan "benar" sesuai dengan pelatihannya, meskipun kenyataannya rekomendasi atau prediksinya bias atau diskriminatif.

iklan

Tentang Yayasan Eticas

Yayasan Eticas bekerja untuk menerjemahkan ke dalam spesifikasi teknis prinsip-prinsip yang memandu masyarakat, seperti kesempatan yang sama, transparansi, dan non-diskriminasi yang ada dalam teknologi yang membuat keputusan otomatis tentang kehidupan kita. Ini mencari keseimbangan antara perubahan nilai-nilai sosial, kemungkinan teknis dari kemajuan terbaru dan kerangka hukum. Untuk tujuan ini, ia mengaudit algoritme, memverifikasi bahwa jaminan hukum diterapkan ke dunia digital, terutama untuk Kecerdasan Buatan, dan melakukan pekerjaan intensif untuk meningkatkan kesadaran dan menyebarluaskan kebutuhan akan teknologi yang bertanggung jawab dan berkualitas.

Bagikan artikel ini:

EU Reporter menerbitkan artikel dari berbagai sumber luar yang mengungkapkan berbagai sudut pandang. Posisi yang diambil dalam artikel ini belum tentu milik Reporter UE.

Tren