Uni Eropa telah memulai konsultasi tentang aturan yang akan berlaku untuk penyedia model Kecerdasan Buatan umum (GPAI) - seperti Anthropic, Google, Microsoft, dan OpenAI - di bawah AI Act blok tersebut, kerangka kerja berbasis risiko untuk mengatur aplikasi kecerdasan buatan. Para pembuat undang-undang ingin Kode Etik membantu memastikan GPAI yang dapat dipercaya dengan memberikan panduan kepada pengembang tentang bagaimana untuk mematuhi kewajiban hukum mereka.
AI Act UE diadopsi awal tahun ini dan akan segera mulai berlaku, pada tanggal 1 Agustus. Namun, implementasinya dalam tahap untuk batas waktu kepatuhan, dan Kode Etik akan berlaku setelah sembilan bulan - jadi April 2025. Itu memberi waktu untuk blok untuk merancang pedoman tersebut.
Komisi mengundang tanggapan dari provider GPAI yang beroperasi di UE, serta dari bisnis, perwakilan masyarakat sipil, pemegang hak, dan pakar akademis.
Konsultasi merupakan kuesioner yang terbagi menjadi tiga bagian. Satu mencakup ketentuan transparansi dan hak cipta untuk GPAI; yang kedua berkaitan dengan aturan taksonomi risiko, penilaian, dan mitigasi untuk GPAI dengan risiko sistemik (didefinisikan dalam AI Act sebagai model yang dilatih di atas ambang batas komputasi tertentu); dan bagian ketiga berurusan dengan meninjau dan memantau Kode Etik untuk GPAI.
Komisi mengatakan bahwa draf awal Kode akan dikembangkan "berdasarkan kiriman dan jawaban atas pertanyaan yang ditargetkan."
Mereka yang merespons konsultasi memiliki kesempatan untuk memengaruhi bentuk template yang akan diberikan oleh Kantor AI kepada penyedia GPAI sehingga mereka dapat memenuhi persyaratan hukum untuk memberikan ringkasan konten pelatihan model. Akan menarik untuk melihat seberapa rinci template tersebut.
Informasi lebih lanjut tentang konsultasi dapat ditemukan di sini. Batas waktu untuk pengiriman tanggapan adalah 10 September 2024, pukul 18.00 CET.
UE juga meminta minat untuk berpartisipasi dalam penyusunan Kode melalui rapat virtual yang terbagi menjadi empat kelompok kerja. Proses penyusunan secara iteratif akan digunakan untuk mengembangkan pedoman tersebut.
Kantor AI mengundang "penyedia model Kecerdasan Buatan umum yang memenuhi syarat, penyedia downstream, dan organisasi industri lainnya, organisasi pemangku kepentingan lain seperti organisasi masyarakat sipil atau organisasi pemegang hak, serta akademisi dan ahli independen lainnya untuk menyatakan minat mereka untuk berpartisipasi dalam penyusunan Kode Etik." Batas waktu untuk mengirimkan ekspresi minat untuk berpartisipasi dalam penyusunan adalah 25 Agustus 2024, pukul 18.00 CET.
Sebagai tambahan, penyedia GPAI akan mendapat kesempatan untuk menghadiri lokakarya dengan ketua rapat dan wakil ketua rapat. Menurut Kantor AI, lokakarya tersebut dimaksudkan untuk "memberikan kontribusi kepada setiap putaran penyusunan iteratif, selain partisipasi mereka di Pleno."
"Kantor AI akan memastikan transparansi dalam diskusi ini, seperti dengan menyusun berita rapat dan membuatnya tersedia untuk semua peserta Pleno," demikian disebutkan.
Kantor AI itu sendiri akan menunjuk ketua rapat dan wakil ketua rapat. Kantor tersebut menerima aplikasi dari "ahli independen yang tertarik" untuk peran pengarah kunci ini.
Panggilan dan konsultasi mengenai Kode mengikuti kekhawatiran bahwa organisasi masyarakat sipil mungkin dikecualikan dari proses penyusunan. Pada awal bulan ini, Euractiv melaporkan bahwa Komisi bermaksud untuk mengandalkan perusahaan konsultan untuk menyusun Kode, yang mengakibatkan kekhawatiran atas proses yang mungkin cenderung memihak raksasa kecerdasan buatan.
Komisi terlihat sangat ingin menghilangkan kekhawatiran semacam itu. "Semua pihak yang berkepentingan didorong untuk berpartisipasi," tulisnya pada hari Selasa. "Kantor AI mengundang sumbangan dari berbagai pemangku kepentingan, termasuk akademisi, ahli independen, perwakilan industri seperti penyedia model Kecerdasan Buatan umum atau penyedia downstream yang mengintegrasikan model ke dalam sistem AI mereka, organisasi masyarakat sipil, pemegang hak, dan otoritas publik."