
Pemerintah menegaskan pentingnya tata kelola kecerdasan buatan (AI) yang berorientasi pada manusia (human-centric) untuk memitigasi risiko penggunaan teknologi ini, termasuk dalam industri media.
Menurut Wijaya Kusumawardhana Staf Ahli Kementerian Komunikasi dan Digital, AI memiliki potensi besar sekaligus risiko tinggi, sehingga penggunaannya harus dikendalikan dalam kerangka kebijakan yang mengutamakan peran manusia.
“AI bukan subjek utama. Manusia harus tetap menjadi subjek dan objek utama dalam tata kelola teknologi ini,” kata Wijaya dalam panel diskusi pada rangkaian Indonesia Digital Conference 2025 yang diselenggarakan Asosiasi Media Siber Indonesia (AMSI) yang bertema Sovereign AI Menuju Kemandirian Digital di The Hub Sinarmas Land, Jakarta, Kamis (23/10/2025).
Ia menjelaskan, kerangka human-centric harus mengacu pada prinsip trustworthy AI atau AI yang dapat dipercaya, dengan nilai-nilai bermartabat, berkeadilan, inklusif, dan transparan.
Pemerintah, lanjutnya, tidak memandang AI semata untuk kepentingan komersial, melainkan sebagai alat yang perlu dikendalikan agar tidak menimbulkan manipulasi dan penyalahgunaan seperti deepfake atau disinformasi visual.
Dalam konteks hukum, Wijaya menekankan bahwa AI wajib tunduk pada ketentuan perundang-undangan yang berlaku, termasuk Undang-Undang Informasi dan Transaksi Elektronik (UU ITE) serta Undang-Undang Perlindungan Data Pribadi (UU PDP).
“AI tidak boleh menggunakan data pribadi tanpa izin, baik data umum seperti NIK dan nama, maupun data khusus seperti biometrik atau rekam medis,” ujarnya.
Pemerintah juga mewaspadai praktik entitas bisnis yang bertindak seolah pengendali data dengan meminta publik menyerahkan data biometrik untuk kepentingan komersial. Pelanggaran atas ketentuan ini dikenai sanksi tegas.
Lebih lanjut, Wijaya menyampaikan bahwa mitigasi risiko AI juga mencakup aspek etika, sistem yang tangguh, serta audit terhadap algoritma yang digunakan. Ia menyoroti pentingnya konsep explainable AI, yaitu transparansi dalam menjelaskan kerangka dan logika yang digunakan oleh sistem kecerdasan buatan.
“Sebelum digunakan, AI harus dilatih dengan data yang lengkap, baik itu positif, negatif, dan netral, serta diaudit dalam pelaksanaannya,” katanya.
Dahlan Dahi Ketua Komisi Digital dan Sustainability Dewan Pers menekankan pentingnya pemahaman mendalam terhadap AI agar media dapat memanfaatkannya secara tepat tanpa kehilangan integritas jurnalistik.
“AI adalah teknologi yang sangat powerful. Tapi sebelum menggunakannya, kita harus memahami ‘makhluk’ seperti apa AI itu,” ujar Dahlan.
Menurut Dahlan, perbedaan utama antara AI dan Internet terletak pada kemampuannya dalam menciptakan informasi baru, bukan sekadar menyimpan atau menghubungkan data.
Karena itu, pengendalian AI harus dilakukan dalam dua ranah, yaitu sebagai alat bantu (tools) dan sebagai entitas yang dapat mengambil keputusan.
Hingga saat ini, pedoman Dewan Pers masih menempatkan AI sebagai alat bantu jurnalistik, bukan sebagai produsen berita.
“Keputusan akhir (dalam proses editorial) tetap harus berada di tangan manusia,” kata Dahlan.
Dahlan menjelaskan, ada dua hal utama yang belum dapat dilakukan AI dalam pekerjaan jurnalistik. Pertama, AI belum mampu menjamin akurasi informasinya sendiri dan masih berpotensi mengalami halusinasi.
Kedua, AI belum dapat menjamin keabsahan hak cipta (copyright) atas konten yang dihasilkan, karena proses penciptaannya melibatkan banyak model AI lain.
Itulah sebabnya, informasi dari AI tidak bisa dijadikan sumber berita final, dan produk AI tidak bisa dianggap karya jurnalistik.
Dewan Pers kini telah membekali jurnalis dengan pedoman etika penggunaan AI di media yang dikembangkan dari kode etik jurnalistik.
Pedoman etika tersebut membawa prinsip utama bahwa teknologi harus menjadi alat bantu, bukan pengganti peran manusia. Pendekatan ini diharapkan mampu menjaga kualitas informasi dan keberlanjutan ekosistem pers di era digital. (saf/faz)