Peraturan AI UE mulai berlaku pada Agustus 2024
Menyusul usulan pertama Komisi Eropa pada bulan April 2021, Parlemen Eropa mengadopsi Peraturan UE tentang Kecerdasan Buatan. Ini diterbitkan dalam Jurnal Resmi Uni Eropa pada Juli 2024 dan sekarang tersedia dalam 24 bahasa resmi negara anggota UE. Peraturan tersebut secara resmi akan mulai berlaku pada Agustus 2024, meskipun sebagian besar ketentuan baru akan berlaku dua tahun kemudian. Namun, tenggat waktu yang berbeda berlaku untuk ketentuan individual. Peraturan tersebut menetapkan kewajiban bagi perusahaan yang mengembangkan dan/atau menggunakan sistem kecerdasan buatan di Uni Eropa.
Jadwal regulasi AI UE
Peraturan AI UE akan dikembangkan dan dilaksanakan sesuai dengan jadwal berikut:
April 2021: Usulan pertama Komisi Eropa
Maret 2024: Diadopsi oleh Parlemen Eropa
Juli 2024: Publikasi resmi di Jurnal Resmi UE
Agustus 2024 : Peraturan ini mulai berlaku
Pertengahan tahun 2025: Implementasi penuh di seluruh negara anggota UE
Apa Peraturan Kecerdasan Buatan Eropa?
Undang-Undang AI Eropa 2024 merupakan peraturan Komisi Eropa yang bertujuan untuk memastikan bahwa sistem AI digunakan dengan cara yang “aman, transparan, dapat dilacak, tidak diskriminatif, dan ramah lingkungan” . Peraturan tersebut dimaksudkan untuk mengatur bagaimana sistem AI dapat ditangani secara tepat oleh “penyedia” dan “operator” sistem AI sesuai dengan risiko yang ditimbulkannya. “Penyedia” sistem AI, dalam arti luas, adalah perusahaan yang menawarkan atau mengembangkan sistem AI dengan mereknya sendiri. Operator adalah mereka yang menggunakan teknologi AI. Oleh karena itu, perusahaan mana pun dapat tergabung dalam grup ini. Semakin tinggi risiko sistem AI, semakin ketat persyaratan peraturannya.
Beberapa poin penting dari undang-undang AI UE
- Klasifikasi berbasis risiko: Undang-undang AI mengklasifikasikan sistem AI ke dalam tingkat risiko yang berbeda, masing-masing dengan persyaratan peraturan khusus untuk mengelola potensi dampaknya.
- Persyaratan transparansi: Sistem AI berisiko tinggi harus memenuhi persyaratan transparansi dan pencatatan yang ketat untuk memastikan akuntabilitas dan penelusuran.
- Pengawasan Manusia: Sistem AI tertentu memerlukan pengawasan manusia untuk memitigasi risiko dan menjaga standar etika.
Tingkat risiko dalam undang-undang AI UE
Undang-undang AI mendefinisikan empat tingkat risiko untuk sistem AI, yang masing-masing dikaitkan dengan persyaratan peraturan tertentu:
Sumber : Publikasi resmi Komisi Eropa tentang undang-undang AI
Risiko yang tidak dapat diterima
Sistem AI yang berada di bawah tingkat risiko ini jelas merupakan ancaman dan dilarang keras. Contohnya termasuk manipulasi perilaku melalui teknik kognitif seperti mainan yang dikontrol suara yang mengelabui anak-anak agar berperilaku berbahaya, atau sistem penilaian sosial yang mengkategorikan orang berdasarkan perilaku atau karakteristik pribadinya.
Sistem AI berisiko tinggi
Sistem AI dalam kategori ini dapat berdampak signifikan terhadap kesehatan, keselamatan, atau hak-hak dasar. Contohnya termasuk AI dalam pengelolaan infrastruktur penting, pendidikan, ketenagakerjaan, dan penegakan hukum. Semua sistem AI dengan potensi risiko tinggi harus menjalani pengujian yang ketat sebelum dipasarkan dan sepanjang masa pakainya. Setiap individu mempunyai hak untuk melaporkan kekhawatiran mengenai sistem AI kepada otoritas nasional terkait.
Risiko terbatas
Sistem AI ini memiliki risiko rendah dan tunduk pada persyaratan transparansi. Misalnya, pengguna yang berinteraksi dengan chatbot perlu diberi tahu bahwa mereka sedang berbicara dengan AI. Penyedia juga harus memastikan bahwa konten yang dibuat oleh AI, terutama yang berkaitan dengan kepentingan publik, ditandai dengan jelas sebagai konten yang dibuat secara artifisial, terlepas dari apakah itu berupa teks, audio, atau video.
Risiko minimal atau tanpa risiko
Sistem AI dengan risiko minimal atau tanpa risiko tidak tunduk pada persyaratan peraturan tambahan. Contohnya termasuk video game yang dikendalikan AI dan filter spam.
Kepatuhan dan AI: Apa yang harus dilakukan perusahaan
Seperti yang dijelaskan Dewan Eropa dalam siaran persnya pada bulan Mei , penting untuk menilai dampak terhadap hak-hak dasar sebelum sistem AI berisiko tinggi diterapkan oleh perusahaan tertentu yang menyediakan layanan publik.
Ada beberapa hal yang perlu diingat oleh penyedia sistem AI:
- Melakukan penilaian risiko dengan menentukan kategori risiko sistem AI dan menerapkan tindakan perlindungan yang diperlukan.
- Buat dokumentasi teknis untuk menunjukkan kepatuhan dan menyerahkannya kepada pihak berwenang untuk ditinjau.
- Kembangkan sistem AI untuk mencatat peristiwa secara otomatis guna mendeteksi risiko dan perubahan sistem.
- Buat pedoman bagi operator untuk memastikan persyaratan terpenuhi.
Meskipun operator tidak memiliki kewajiban yang sama dengan penyedia, UU AI mengharuskan mereka untuk mematuhi pedoman penggunaan, memastikan kepatuhan organisasi dan teknis, dan melakukan penilaian dampak perlindungan data sebelum menerapkan sistem AI berisiko tinggi.
Kegagalan untuk mematuhi undang-undang AI UE dapat mengakibatkan denda mulai dari €35 juta, atau 7% dari omset global, hingga €7,5 juta, atau 1,5% dari omset, tergantung pada tingkat keparahan pelanggaran dan ukuran perusahaan.
Sasaran digital Eropa dan Strategi Data Eropa yang ditetapkan pada tahun 2030 bertujuan untuk mendorong persaingan yang sehat dan meningkatkan transparansi dalam layanan online. Bagi perusahaan, ini berarti mereka harus memastikan proses mereka mendukung nilai-nilai perlindungan data ini. Undang-undang yang baru disahkan, termasuk Undang-Undang Layanan Digital dan Undang-undang Pasar Digital , menggarisbawahi pentingnya persaingan yang sehat dan transparansi. Dengan menangani proses internal dan meninjaunya pada tahap awal, penyedia dan pengguna sistem AI dapat menghindari denda dan meningkatkan kepercayaan konsumen. Tingkatkan proses kepatuhan Anda sekarang juga dengan mengklik di sini untuk memulai.