OpenAI lagi jadi sorotan, nih. Dari berita yang aku baca di theregister.com, perusahaan ini baru aja memblokir sejumlah akun ChatGPT yang diduga kuat punya kaitan dengan entitas pemerintah Cina. Katanya sih, akun-akun ini mencoba memanfaatkan AI buat bantu merancang alat pengawasan terhadap individu dan akun media sosial.
Kalau kamu pikir mereka langsung pakai ChatGPT buat memata-matai, ternyata nggak. Mereka cuma minta bantuan model ini buat bikin blueprint atau rencana kerja untuk alat pengawasan berskala besar. Tapi ya tetap aja, maksudnya udah melenceng jauh dari etika penggunaan AI yang seharusnya.
OpenAI Temukan Pola Penggunaan AI untuk Tujuan Pengawasan

Ben Nimmo, peneliti utama di tim Intelligence and Investigations OpenAI, bilang begini:
“Yang kami temukan dan akhirnya kami blokir biasanya adalah pihak-pihak yang meminta ChatGPTmembantu membuat rencana atau dokumentasi alat berbasis AI, tapi tidak sampai mengimplementasikannya.”
Salah satu pengguna yang akhirnya diblokir bahkan diduga pakai VPN dari Cina. Pengguna ini meminta ChatGPT buat ngerancang materi promosi dan rencana proyek untuk sebuah alat bernama “probe” yang bisa memantau platform seperti X, Facebook, Instagram, Reddit, TikTok, dan YouTube. Targetnya? Mendeteksi ujaran ekstremis serta konten politik, etnis, dan agama.
Menariknya, pengguna ini mengaku kalau proyek itu pesanan dari klien pemerintah. Tapi OpenAI sendiri nggak bisa memastikan apakah alat itu benar-benar dipakai oleh pemerintah Cina atau tidak.
Bukan Hanya Cina, Rusia Juga Terlibat
Bukan cuma dari Cina, lho. Tim threat intelligence OpenAI juga menemukan pola serupa dari Rusia. Ada akun-akun yang diduga terlibat dalam operasi pengaruh (influence operation) bernama Stop News. Mereka pakai ChatGPT untuk bikin naskah video propaganda, lalu lanjut pakai model AI lain buat produksi video yang akhirnya diunggah ke YouTube dan TikTok.
Michael Flossman, pimpinan tim keamanan OpenAI, bilang:
“Kami melihat pihak lawan rutin memakai berbagai alat AI, berpindah dari satu model ke model lain demi keuntungan kecil dalam kecepatan atau otomatisasi.”
Selain itu, ada juga kelompok dari Rusia yang mencoba memanfaatkan ChatGPT buat mengembangkan malware, mulai dari remote-access trojan, pencuri kredensial, sampai alat penghindar deteksi keamanan. Tapi sesuai sistem keamanan mereka, permintaan yang jelas-jelas berbahaya langsung ditolak model.
Kalau kamu penasaran dengan detail teknisnya, OpenAI menjelaskan bahwa mereka sempat mendeteksi upaya pembuatan kode untuk shellcode loaders, bypass sistem keamanan seperti SmartScreen, sampai pencurian data dari browser. Semua aktivitas itu dikaitkan dengan grup kriminal berbahasa Rusia yang aktif di kanal Telegram.
OpenAI Makin Ketat Awasi Penyalahgunaan ChatGPT
Sejak Februari 2024, OpenAI sudah rutin merilis threat report dan dalam periode itu mereka mengaku telah memblokir lebih dari 40 jaringan pengguna yang melanggar kebijakan. Tujuannya jelas: mencegah penyalahgunaan teknologi AI buat tujuan yang berbahaya.
Kamu bisa baca laporan lengkapnya di situs resmi mereka Disrupting malicious uses of AI: October 2025
Buatku pribadi, langkah ini penting banget. AI sekarang makin canggih, dan kalau nggak dikontrol, bisa dipakai buat hal-hal yang mengancam privasi atau keamanan orang lain.
Penutup
Jadi, jelas ya, JBers — OpenAI sekarang makin tegas soal penyalahgunaan ChatGPT. Kalau dipakai buat hal negatif, apalagi berbau pengawasan atau serangan siber, siap-siap diblokir. Menurutku, ini langkah yang perlu terus dilakukan biar perkembangan AI tetap di jalur yang benar.
Kalau kamu setuju sama langkah OpenAI ini, yuk bantu share artikel ini biar makin banyak yang tahu pentingnya etika dalam penggunaan AI.












