Hanya beberapa jam setelah Presiden Donald Trump memerintahkan penghentian penggunaan AI buatan Anthropic di lembaga federal, militer AS justru memakai sistem Claude dalam operasi udara yang menargetkan Iran.
Situasi ini memicu pertanyaan besar: seberapa dalam AI sudah tertanam dalam sistem pertahanan modern? Bagi publik global, termasuk Indonesia, ini menunjukkan bahwa perang berbasis kecerdasan buatan bukan lagi wacana, tapi sudah menjadi praktik operasional.
Yang perlu kamu tahu, AI di sini bukan mengendalikan rudal, tapi membantu analisis dan perencanaan serangan.
AI Claude Digunakan dalam Operasi Iran
Menurut laporan yang dilansir melalui Times of India, Komando Pusat AS (Centcom) menggunakan Claude untuk mendukung sejumlah tugas penting dalam operasi di Timur Tengah.
Penggunaan itu meliputi:
- Analisis intelijen
- Identifikasi dan prioritas target
- Simulasi skenario pertempuran
- Pemodelan risiko dan dampak
Serangan udara ke Iran terjadi hanya beberapa jam setelah Gedung Putih memerintahkan penghentian penggunaan teknologi Anthropic. Menteri Pertahanan Pete Hegseth bahkan menetapkan perusahaan tersebut sebagai “risiko rantai pasok”.
Namun, implementasi Claude di jaringan militer ternyata sudah terlalu dalam untuk dihentikan secara instan. Trump memberikan masa transisi enam bulan untuk penghentian penuh.
Seberapa Dalam Claude Tertanam di Sistem Militer?

Laporan WIONews menyebut Anthropic mulai terlibat aktif dengan lembaga pertahanan AS sejak akhir 2024.
Beberapa tonggak penting:
- November 2024: Anthropic bekerja sama dengan Palantir dan AWS untuk integrasi ke sistem pertahanan
- Juni 2025: Peluncuran Claude Gov untuk kebutuhan pemerintah
- Juli 2025: Kontrak AI hingga US$200 juta melalui Chief Digital and Artificial Intelligence Office
Claude dipakai untuk memproses data besar seperti:
- Citra satelit
- Intersepsi sinyal
- Data intelijen lapangan
Dalam praktiknya, AI ini berfungsi sebagai alat bantu keputusan. Ia merangkum data, menilai ancaman, dan mensimulasikan kemungkinan hasil. Keputusan akhir tetap berada di tangan manusia.
Ini penting untuk ditegaskan: Claude tidak mengendalikan senjata secara mandiri.
Sengketa Kontrak: Soal Etika dan Batasan
Konflik muncul karena Pentagon meminta hak penggunaan “untuk semua tujuan yang sah secara hukum”, termasuk potensi penggunaan militer tanpa batasan tambahan.
Anthropic menolak.
Perusahaan tersebut mempertahankan guardrail etis, termasuk:
- Tidak mendukung senjata otonom mematikan tanpa pengawasan manusia
- Tidak digunakan untuk pengawasan massal domestik
Pemerintah AS berargumen bahwa otoritas operasional harus berada sepenuhnya di tangan negara, bukan dibatasi perusahaan swasta.
Ketegangan memuncak ketika Anthropic diberi label “supply chain risk”, istilah yang biasanya digunakan untuk perusahaan asing yang dianggap berisiko terhadap keamanan nasional.
OpenAI dan xAI Masuk Mengisi Kekosongan
Seiring memburuknya hubungan dengan Anthropic, perusahaan lain bergerak cepat.
OpenAI dilaporkan mencapai kesepakatan baru dengan Departemen Pertahanan untuk penggunaan modelnya di lingkungan rahasia. Elon Musk melalui xAI juga mendapatkan persetujuan untuk penggunaan di sistem terklasifikasi.
Selain itu, Pentagon juga memiliki kerja sama dengan:
- Google (Gemini for Government)
- xAI (Grok for Government)
- OpenAI (GPT series untuk kebutuhan militer)
Artinya, Claude bukan satu-satunya AI di arsenal digital militer AS.
Apa Artinya bagi Dunia — Termasuk Indonesia?
Peristiwa ini menegaskan beberapa hal besar.
Pertama, AI sudah operasional di militer modern. Ini bukan lagi fase uji coba.
Kedua, politik perusahaan teknologi kini memengaruhi arsitektur pertahanan negara. Vendor yang dipilih bisa menentukan bagaimana sistem militer dirancang.
Ketiga, ada perdebatan serius antara “kedaulatan negara” dan “batasan etis perusahaan”.
Bagi Indonesia dan negara berkembang, ini jadi pelajaran penting. Ketergantungan pada vendor AI luar negeri berpotensi memicu risiko geopolitik dan ketergantungan teknologi.
Risiko dan Hal yang Belum Jelas
Beberapa hal masih belum transparan:
- Sejauh mana AI memengaruhi akurasi targeting
- Bagaimana audit dan akuntabilitas dilakukan
- Apakah ada evaluasi independen atas sistem ini
Risikonya meliputi:
- Kesalahan identifikasi target
- Bias data intelijen
- Potensi eskalasi konflik akibat over-reliance pada model prediktif
AI bisa membantu mempercepat analisis, tapi tetap bergantung pada kualitas data dan pengawasan manusia.
Jika Kamu Ingin Memahami Dampaknya
Beberapa poin penting yang perlu diwaspadai:
- AI militer berbeda dengan AI publik seperti ChatGPT biasa
- Model yang dipakai di lingkungan rahasia biasanya versi khusus
- Guardrail etis bisa berbeda antar vendor
Dalam konteks sipil, isu ini juga berkaitan dengan:
- Regulasi AI
- Standar etika global
- Perlindungan data
Kesimpulan
Serangan Iran menunjukkan bahwa AI sudah menjadi bagian nyata dari operasi militer modern. Meski Trump melarang penggunaan Anthropic, sistem Claude tetap digunakan selama masa transisi.
Ke depan, Pentagon diperkirakan akan sepenuhnya beralih ke OpenAI dan xAI dalam enam bulan mendatang. Sengketa hukum dengan Anthropic juga masih berpotensi berlanjut.
Yang jelas, perang berbasis AI bukan lagi teori. Ini sudah berjalan. Dan implikasinya akan terasa jauh melampaui Timur Tengah.
Kalau kamu merasa isu ini penting, bagikan artikel ini agar lebih banyak orang memahami bagaimana AI kini berperan dalam keamanan global.












