Senin 14 Dec 2020 17:52 WIB

Badan HAM UE Ingatkan Risiko Penggunaan Kecerdasan Buatan

Kecerdasan buatan berisiko dalam prediksi kepolisian, diagnosis medis, dan iklan

Rep: Antara/ Red: Christiyaningsih
Kecerdasan buatan (Ilustrasi)
Foto: Flickr
Kecerdasan buatan (Ilustrasi)

REPUBLIKA.CO.ID, BRUSSELS - Badan pengawas hak asasi manusia (HAM) Uni Eropa (EU) memperingatkan risiko penggunaan kecerdasan buatan (AI) dalam kegiatan prediksi kepolisian, diagnosis medis, dan iklan bertarget. Peringatan tersebut disampaikan saat EU mempertimbangkan aturan pada tahun depan untuk mengatasi tantangan yang ditimbulkan oleh teknologi kecerdasan buatan.

Sementara AI banyak digunakan oleh lembaga penegak hukum, kelompok hak asasi mengatakan AI juga disalahgunakan oleh rezim otoriter untuk pengawasan massal dan diskriminatif. Para kritikus juga khawatir tentang pelanggaran hak fundamental masyarakat dan aturan privasi data.

Baca Juga

Badan Hak Asasi Uni Eropa (FRA) yang berbasis di Wina merilis sebuah laporan yang dikeluarkan pada Senin (14/12). Lembaga ini mendesak para pembuat kebijakan untuk memberikan lebih banyak panduan tentang bagaimana aturan yang telah ada berlaku untuk penggunaan teknologi AI dan memastikan aturan untuk teknologi AI di masa depan melindungi hak-hak fundamental.

"AI tidak sempurna, itu dibuat oleh manusia dan manusia bisa membuat kesalahan. Itulah mengapa orang perlu waspada ketika menggunakan AI, bagaimana cara kerjanya dan bagaimana menantang keputusan otomatis," kata Direktur FRA Michael O'Flaherty dalam sebuah pernyataan.

Laporan FRA muncul ketika Komisi Eropa, eksekutif Uni Eropa, mempertimbangkan undang-undang tahun depan untuk mencakup sejumlah sektor yang dianggap berisiko tinggi, seperti sektor layanan kesehatan, energi, transportasi, dan beberapa sektor publik.

Badan HAM Uni Eropa tersebut mengatakan aturan untuk penggunaan AI harus menghormati semua hak fundamental, dengan pengamanan untuk memastikan hal itu dan mencakup jaminan bahwa orang dapat menantang keputusan yang diambil oleh teknologi tersebut.

Selain itu, menurut badan tersebut perusahaan-perusahaan harus dapat menjelaskan bagaimana sistem mereka mengambil keputusan untuk AI. Badan HAM Uni Eropa juga mengatakan harus ada lebih banyak penelitian tentang efek yang berpotensi diskriminatif dari AI sehingga Eropa dapat melakukan perlindungan dari hal tersebut.

Uni Eropa pun harus lebih menjelaskan bagaimana aturan perlindungan data berlaku untuk teknologi tersebut. Laporan FRA didasarkan pada lebih dari 100 wawancara dengan organisasi publik dan swasta yang sudah menggunakan AI, dengan analisis berdasarkan penggunaan AI di Estonia, Finlandia, Prancis, Belanda, dan Spanyol.

sumber : Reuters
Advertisement
Berita Lainnya
Advertisement
Advertisement
Advertisement