Terhubung dengan kami

kecerdasan buatan

Undang-undang untuk mencegah terorisme AI sangat dibutuhkan

SAHAM:

Diterbitkan

on

Kami menggunakan pendaftaran Anda untuk menyediakan konten dengan cara yang Anda setujui dan untuk meningkatkan pemahaman kami tentang Anda. Anda dapat berhenti berlangganan kapan saja.

Menurut sebuah wadah pemikir kontra-ekstremisme, pemerintah harus “segera mempertimbangkan” peraturan baru untuk mencegah kecerdasan buatan merekrut teroris..

Institute for Strategic Dialogue (ISD) menyatakan bahwa ada "perlunya undang-undang yang jelas untuk mengimbangi" ancaman yang dilakukan teroris secara online.

Hal ini terjadi menyusul eksperimen di mana chatbot "merekrut" peninjau undang-undang teror independen untuk Inggris.

Pemerintah Inggris telah menyatakan bahwa mereka akan melakukan "segala yang kami bisa" untuk melindungi masyarakat umum.

Menurut Jonathan Hall KC, seorang peninjau undang-undang terorisme independen untuk pemerintah, salah satu permasalahan terpenting adalah "sulitnya mengidentifikasi orang yang secara hukum dapat bertanggung jawab atas pernyataan-pernyataan yang dihasilkan oleh chatbot yang mendorong terorisme."

Eksperimen dilakukan oleh Mr Hall di Character.ai, sebuah situs web yang memungkinkan pengguna terlibat dalam obrolan dengan chatbot yang dibuat oleh pengguna lain dan dikembangkan oleh kecerdasan buatan.

Dia terlibat dalam percakapan dengan sejumlah bot yang tampaknya direkayasa untuk meniru jawaban kelompok militan dan ekstremis lainnya.

iklan

Seorang pemimpin tertinggi ISIS bahkan disebut sebagai "pemimpin senior".

Menurut Mr Hall, bot tersebut berusaha merekrutnya dan menyatakan "dedikasi dan pengabdian total" kepada kelompok ekstremis, yang dilarang oleh undang-undang di Inggris yang melarang terorisme.

Di sisi lain, Mr Hall menyatakan bahwa tidak ada pelanggaran hukum di Inggris karena komunikasi tidak dilakukan oleh manusia.

Menurut beliau, peraturan baru harus memikul tanggung jawab baik terhadap situs web yang menghosting chatbot maupun orang yang membuatnya.

Mengenai bot yang dia temui di Character.ai, dia menyatakan bahwa "kemungkinan ada nilai kejutan, eksperimen, dan mungkin beberapa aspek satir" di balik pembuatannya.

Selain itu, Mr. Hall mampu mengembangkan chatbot "Osama Bin Laden" miliknya sendiri, yang segera dia hapus, menunjukkan "antusiasme yang tak terbatas" terhadap aktivitas teroris.

Eksperimennya dilakukan di tengah meningkatnya kekhawatiran mengenai cara-cara ekstremis mengeksploitasi kecerdasan buatan yang lebih baik.

Pada tahun 2025, kecerdasan buatan generatif mungkin "digunakan untuk mengumpulkan pengetahuan tentang serangan fisik yang dilakukan oleh pelaku kekerasan non-negara, termasuk senjata kimia, biologi, dan radiologi," menurut penelitian yang dikeluarkan oleh pemerintah Inggris pada tahun XNUMX. publikasi bulan Oktober mereka.

ISD lebih lanjut menyatakan bahwa "ada kebutuhan yang jelas akan undang-undang untuk mengimbangi lanskap ancaman teroris online yang terus berubah."

Menurut lembaga think tank tersebut, Undang-Undang Keamanan Online Inggris, yang disahkan menjadi undang-undang pada tahun 2023, “terutama diarahkan untuk mengelola risiko yang ditimbulkan oleh platform media sosial” daripada kecerdasan buatan.

Laporan tersebut juga menyatakan bahwa kelompok radikal "cenderung menjadi pengguna awal teknologi yang sedang berkembang, dan terus mencari peluang untuk menjangkau khalayak baru".

“Jika perusahaan AI tidak dapat menunjukkan bahwa mereka telah melakukan investasi yang cukup untuk memastikan bahwa produk mereka aman, maka pemerintah harus segera mempertimbangkan undang-undang baru khusus AI”, ISD menyatakan lebih lanjut.

Namun disebutkan bahwa, berdasarkan pengawasan yang dilakukan, pemanfaatan kecerdasan buatan generatif oleh organisasi ekstremis “relatif terbatas” saat ini.

Character AI menyatakan bahwa keselamatan adalah "prioritas utama" dan apa yang dijelaskan oleh Mr. Hall sangat disesalkan dan tidak mencerminkan jenis platform yang ingin dibangun oleh perusahaan.

"Ujaran kebencian dan ekstremisme dilarang oleh Ketentuan Layanan kami", menurut organisasi tersebut.

"Pendekatan kami terhadap konten yang dihasilkan AI mengalir dari prinsip sederhana: Produk kami tidak boleh menghasilkan tanggapan yang cenderung merugikan pengguna atau mendorong pengguna untuk merugikan orang lain".

Untuk tujuan "mengoptimalkan respons yang aman", perusahaan tersebut menyatakan bahwa mereka melatih modelnya dengan cara tertentu.

Selain itu, perusahaan menyatakan bahwa mereka mempunyai mekanisme moderasi yang memungkinkan orang melaporkan informasi yang melanggar aturan mereka, dan berkomitmen untuk mengambil tindakan cepat setiap kali ada konten yang melaporkan pelanggaran.

Jika mereka berhasil berkuasa, Partai Buruh yang merupakan oposisi di Inggris telah menyatakan bahwa mengajarkan kecerdasan buatan untuk menghasut kekerasan atau meradikalisasi mereka yang rentan merupakan pelanggaran pidana.

"waspada terhadap risiko signifikan terhadap keamanan nasional dan keselamatan publik" yang ditimbulkan oleh kecerdasan buatan, kata pemerintah Inggris.

“Kami akan melakukan semua yang kami bisa untuk melindungi masyarakat dari ancaman ini dengan bekerja sama lintas pemerintahan dan memperdalam kolaborasi kami dengan para pemimpin perusahaan teknologi, pakar industri, dan negara-negara yang berpikiran sama.”

Seratus juta pound akan diinvestasikan dalam lembaga keamanan kecerdasan buatan oleh pemerintah pada tahun 2023.

Bagikan artikel ini:

EU Reporter menerbitkan artikel dari berbagai sumber luar yang mengungkapkan berbagai sudut pandang. Posisi yang diambil dalam artikel ini belum tentu milik Reporter UE.

Tren