Sejak 2024–2025 Uni Eropa telah mematangkan kerangka hukum komprehensif (EU AI Act) yang kini memasuki fase implementasi kewajiban untuk model General-Purpose AI (GPAI) dan tahap penerapan penuh bertahap; di sisi lain, Amerika Serikat menunjukkan arah kebijakan yang lebih deregulatif/taktis, dengan inisiatif nasional yang cenderung mendorong inovasi sambil menahan regulasi ketat di tingkat federal — menciptakan rezim global yang tidak seragam. Analisis jurnalis (apa yang terjadi sekarang): EU AI Act telah memasuki fase di mana beberapa kewajiban untuk model-model AI tertentu telah mulai berlaku, dan Komisi Eropa mengeluarkan pedoman untuk General-Purpose AI pada 2025 guna menjelaskan ruang lingkup dan tanggung jawab lifecycle. Implementasi ini menempatkan tanggung jawab kepatuhan (compliance) yang tinggi pada pengembang dan penyedia model-model besar, termasuk kewajiban mitigasi risiko, transparansi, dan pelaporan insiden serius. Sementara itu, kebijakan AS lebih heterogen: ada tekanan politik untuk menahan regulasi yang dianggap menghambat inovasi, meski beberapa langkah administratif dan sektor-spesifik (mis. keselamatan penerbangan, medis) memperkenalkan aturan operasional. Perbedaan ini membentuk tekanan lintas batas pada perusahaan teknologi global. Dampak ke dunia hukum Indonesia (kesenjangan & kebutuhan): Kekosongan normatif pada tingkat spesifik risiko AI. Indonesia belum punya aturan sektoral dan komprehensif setara EU AI Act yang mengkategorikan sistem berdasarkan risiko atau mewajibkan audit dan incident reporting pada kapasitas yang sama — khususnya untuk model-model GPAI yang berdampak luas (mis. model bahasa besar/LLM). Akibatnya, persiapan administratif (registrasi, audit kepatuhan, mekanisme sanksi/penegakan) belum rapi tertata di peraturan perundang-undangan nasional. (Kesenjangan ini berarti regulator Indonesia bisa terlambat menetapkan kewajiban yang melindungi hak asasi, privasi, dan keselamatan publik ketika adopsi AI skala besar meningkat.) Hukum privasi & perlindungan data perlu diselaraskan dengan risiko AI. UU Perlindungan Data Pribadi yang robust akan krusial — bukan sekadar kewajiban pemberitahuan, tetapi juga hak jawaban terhadap keputusan otomatis, mekanisme koreksi data, dan batasan penggunaan data sensitif dalam pelatihan model. Jika tidak, lembaga penegak dan korban potensi pelanggaran akan menghadapi kesulitan menuntut akuntabilitas. Regulasi etika dan tanggung jawab produk (product liability) belum eksplisit mengatur AI. Kasus-kasus kerugian akibat keputusan otomatis (mis. sistem perekrutan, peradilan administratif berbasis algoritma) menuntut aturan tentang standar kehati-hatian, audit algoritma independen, dan jalur gugatan yang jelas.

Saran kebijakan

-Segera rumuskan roadmap regulasi AI bertingkat risiko: adopsi konsep kategori (prohibited, high-risk, limited, minimal) seperti EU untuk memberi kepastian hukum.

-Perkuat UU Perlindungan Data dengan klausul khusus untuk pelatihan model (consent, minimisasi, purpose limitation).

-Bangun kapasitas BPKP/OM-like untuk audit algoritma dan mekanisme pelaporan insiden AI, serta pengaturan sertifikasi auditor independen.

-Jelaskan tanggung jawab perdata dan administratif terhadap penyedia AI luar negeri yang beroperasi di pasar Indonesia — mis. kewajiban perwakilan lokal dan register model.

Transisi global menuju aturan AI menjadikan momentum bagi Indonesia untuk menutup kekosongan hukum: tanpa harmonisasi kebijakan domestik yang cepat namun berpandangan jauh, implikasi terhadap hak publik dan tata kelola akan sulit ditangani saat teknologi ini memasuki penggunaan massal.