Sabtu, 27 April 2024

Microsoft Blokir Perintah untuk Hasilkan Gambar Terlarang di Copilot

Laporan oleh Muhammad Syafaruddin
Bagikan
Copilot keyboard Keyboard Windows baru yang telah disemati tombol Copilot Microsoft. Foto: Windows

Microsoft memblokir sejumlah kata kunci perintah (prompt) di aplikasi kecerdasan buatan Artificial Intelligence (AI) Copilot yang menghasilkan gambar dengan unsur kekerasan, seksual, dan hal-hal terlarang lainnya.

Kebijakan ini diterapkan setelah Shane Jones karyawan Microsoft, menyurati Federal Trade Commission (FTC) untuk menyampaikan beberapa keluhan terkait teknologi kecerdasan buatan generatif milik Microsoft.

“Kami terus memantau, menyesuaikan dan membuat kontrol tambahan untuk lebih memperkuat filter keamanan kami dan mengurangi penyalahgunaan sistem,” kata Microsoft dikutip dari Antara, Sabtu (9/3/2024).

Ketika pengguna mengetik perintah yang mengandung kata kunci “pro choice“, “four twenty“, atau “pro life“, Copilot akan menampilkan pesan yang mengatakan bahwa perintah tersebut telah diblokir.

Tidak hanya itu, copilot juga akan menangguhkan akun pengguna yang melakukan pelanggaran kebijakan berulang kali.

Selain mengetik perintah kata kunci, pengguna yang meminta untuk menghasilkan gambar anak-anak memegang senjata atau gambar lain yang mengandung unsur serupa, juga akan mendapatkan peringatan bahwa kata kunci tersebut melanggar kebijakan Microsoft dan prinsip etik Copilot. (ant/sya/saf/iss)

Berita Terkait

Potret NetterSelengkapnya

Motor Tabrak Pikap di Jalur Mobil Suramadu

Mobil Tertimpa Pohon di Darmo Harapan

Pagi-Pagi Terjebak Macet di Simpang PBI

Surabaya
Sabtu, 27 April 2024
29o
Kurs