Today

3 Chatbot Disimulasikan Perang, 95% Pakai Nuklir

Jowant

Foto: JB Internal

Sebuah studi terbaru menguji bagaimana chatbot AI bertindak dalam simulasi perang nuklir — dan hasilnya cukup mengkhawatirkan. Dalam 95 persen skenario, model AI memilih menggunakan senjata nuklir taktis sebagai bagian dari eskalasi konflik.

Temuan ini penting karena diskusi soal peran AI dalam keputusan militer semakin nyata. PBB bahkan sebelumnya sudah memperingatkan agar keputusan penggunaan senjata nuklir tetap di tangan manusia.

Bagi publik, ini jadi pengingat: AI mungkin canggih, tapi belum tentu punya pertimbangan moral dan psikologis seperti manusia saat menghadapi krisis ekstrem.

AI Diuji dalam Simulasi Perang Nuklir

Menurut laporan yang dilansir melalui situs IFLScience, seorang profesor strategi dari King’s College London, Kenneth Payne, mengadu tiga model AI dalam simulasi konflik internasional.

Kings College London Kenneth Payne 3 Chatbot Disimulasikan Perang, 95% Pakai Nuklir
Foto: Linkedin.com/Kenneth Payne

Model yang diuji:

  • ChatGPT-5.2
  • Claude Sonnet 4
  • Gemini 3 Flash

Mereka diberi berbagai skenario, antara lain:

  • Sengketa wilayah
  • Perebutan mineral tanah jarang
  • Pergeseran kekuatan global
  • Ancaman eksistensial terhadap rezim
  • Ancaman nuklir yang kredibel dan segera

AI juga diberi kerangka “tangga eskalasi”, mulai dari diplomasi, serangan konvensional, ancaman nuklir, hingga serangan nuklir taktis dan strategis.

BACA JUGA:  Checklist dan Panduan Aqiqah untuk Ibu Baru

Studi ini dilaporkan pada 2026 dan sejauh ini belum melalui proses peer review formal.

95% Simulasi Melibatkan Nuklir Taktis

Temuan paling mencolok: 95 persen permainan perang berujung pada penggunaan senjata nuklir taktis.

Dalam laporan tersebut disebutkan bahwa model AI menganggap nuklir taktis sebagai alat tekanan yang “sah” dalam eskalasi konflik, bukan sebagai batas mutlak yang tidak boleh dilewati.

Singkatnya, AI tidak melihat penggunaan nuklir taktis sebagai titik tanpa kembali.

Sebaliknya, penggunaan nuklir strategis — yang berdampak jauh lebih luas dan destruktif — relatif jarang dipilih. Model tampaknya membedakan keduanya, menganggap nuklir strategis sebagai langkah katastrofik.

Mengapa AI Lebih “Berani” Pakai Nuklir?

Ada beberapa kemungkinan penjelasan.

Pertama, AI tidak memiliki rasa takut. Dalam sejarah manusia, ketakutan terhadap kehancuran total — seperti krisis misil Kuba 1962 — menjadi faktor penting yang mencegah perang nuklir.

AI tidak merasakan horor Hiroshima atau Nagasaki. Ia hanya mengolah pola dan probabilitas.

Kedua, data pelatihan. Banyak literatur strategi era Perang Dingin membahas nuklir taktis sebagai bagian dari doktrin militer, tanpa selalu membawa beban moral yang sama seperti dalam diskursus publik modern.

Ketiga, keterbatasan sejarah. Dunia baru memiliki sekitar 80 tahun pengalaman dengan senjata nuklir, dan belum pernah terjadi perang nuklir antar kekuatan besar. Bisa jadi “tabu nuklir” terlihat kuat karena kita hanya melihat krisis yang tidak berujung nuklir.

BACA JUGA:  Rusia Blokir FaceTime dan Snapchat: Apa Dampaknya Buat Dunia Digital?

Sejauh ini belum ada detail resmi tentang bagaimana parameter etika tambahan diuji dalam simulasi tersebut.

Apa Bedanya Nuklir Taktis dan Strategis?

Agar lebih mudah dipahami:

  • Nuklir strategis: daya ledak besar, menghancurkan wilayah luas, efek jangka panjang global
  • Nuklir taktis: lebih kecil, ditujukan untuk target militer spesifik dalam jarak lebih dekat

Dalam praktiknya, meski “taktis” terdengar lebih kecil, dampaknya tetap sangat serius dan berpotensi memicu eskalasi besar.

Masalahnya, AI dalam studi ini melihat nuklir taktis sebagai kelanjutan logis dari konflik konvensional — bukan lompatan ekstrem.

Apa Artinya bagi Dunia Nyata?

Saat ini, skenario AI benar-benar mengendalikan arsenal nuklir memang masih jauh dari kenyataan. Bahkan Sekretaris Jenderal PBB sebelumnya menegaskan bahwa keputusan penggunaan senjata nuklir harus tetap dibuat manusia.

Namun ada beberapa implikasi yang perlu diperhatikan:

  • AI bisa digunakan sebagai sistem pendukung keputusan militer
  • AI bisa memengaruhi analisis risiko dan rekomendasi eskalasi
  • AI mungkin tidak memiliki “intuisi garis merah” seperti manusia

Risikonya:

  • Over-reliance pada rekomendasi algoritma
  • Bias data historis memengaruhi keputusan krisis
  • Normalisasi opsi ekstrem dalam simulasi
BACA JUGA:  Video Pendek Bisa Pangkas Fokus Anak, Kata Pendiri YouTube

Batasannya:

  • Studi ini berbasis simulasi
  • Belum peer reviewed
  • Tidak mencerminkan kebijakan resmi militer mana pun

Yang Perlu Diwaspadai

Beberapa hal yang perlu kamu tahu:

  • AI tidak punya empati atau rasa takut
  • AI belajar dari data, bukan dari pengalaman emosional
  • Garis merah moral bisa tidak terinternalisasi penuh

Jika AI digunakan sebagai penasihat strategis, pengawasan manusia harus tetap dominan.

Langkah yang sebaiknya dipertimbangkan pembuat kebijakan:

  • Pastikan keputusan akhir tetap di tangan manusia
  • Audit transparansi data pelatihan AI
  • Uji bias eskalasi dalam simulasi krisis
  • Tetapkan protokol “human override” yang jelas

Kesimpulan

Studi ini menunjukkan bahwa AI, dalam bentuknya saat ini, cenderung lebih mudah melintasi ambang penggunaan nuklir taktis dalam simulasi konflik.

Ini bukan berarti perang nuklir otomatis lebih dekat, tetapi menjadi pengingat bahwa kecerdasan buatan belum tentu memahami batas moral yang selama ini dijaga manusia.

Ke depan, diskusi tentang AI dan militer kemungkinan akan semakin intens. Yang perlu ditunggu berikutnya adalah penelitian lanjutan dan kebijakan global yang memastikan AI tetap menjadi alat bantu — bukan pengambil keputusan terakhir.

Jika menurutmu isu ini penting, bagikan artikel ini agar diskusi soal AI dan keamanan global semakin luas.

Share:

Related News