Ketegangan antara perusahaan AI Anthropic dan Departemen Pertahanan Amerika Serikat (Pentagon) dalam beberapa hari terakhir memicu diskusi luas tentang penggunaan teknologi AI dalam proyek militer.
Dalam waktu kurang dari dua minggu, negosiasi kerja sama Pentagon dengan Anthropic runtuh, pemerintah AS menyebut perusahaan tersebut sebagai risiko rantai pasok, dan Anthropic menyatakan akan melawan keputusan itu di pengadilan.
Perkembangan ini bukan hanya berdampak pada dua perusahaan AI besar tersebut. Banyak pengamat menilai kasus ini bisa membuat startup teknologi berpikir ulang sebelum menerima kontrak dari pemerintah, khususnya sektor pertahanan.
Sengketa Anthropic dan Pentagon Memanas

Kontroversi ini bermula dari negosiasi penggunaan teknologi AI Claude milik Anthropic oleh Pentagon yang akhirnya gagal mencapai kesepakatan.
Tak lama setelah negosiasi itu runtuh, pemerintahan Donald Trump menetapkan Anthropic sebagai risiko rantai pasok (supply-chain risk) untuk pemerintah AS.
Anthropic menolak keputusan tersebut dan menyatakan akan menggugat pemerintah di pengadilan.
Di sisi lain, OpenAI bergerak cepat dan mengumumkan kerja sama baru dengan Departemen Pertahanan.
Kabar tersebut langsung memicu reaksi keras dari sebagian pengguna teknologi AI.
Menurut laporan yang dilansir melalui situs TechCrunch, lonjakan uninstall ChatGPT tercatat meningkat hingga 295% setelah pengumuman kerja sama tersebut.
Pada saat yang sama, aplikasi Claude milik Anthropic justru melonjak ke posisi atas di App Store.
AI dan Militer: Isu Sensitif yang Jadi Sorotan Publik
Kasus ini mendapat perhatian besar karena menyangkut penggunaan AI dalam operasi militer.
Dalam diskusi di podcast TechCrunch Equity, beberapa jurnalis teknologi menilai situasi ini berbeda dari kontrak pemerintah biasa.
Sean O’Kane dari TechCrunch menyebut perhatian publik sangat besar karena produk seperti ChatGPT dan Claude digunakan jutaan orang setiap hari.
Akibatnya, keterlibatan kedua perusahaan dengan Pentagon menjadi lebih mudah disorot publik dibanding kontraktor pertahanan tradisional.
Ia juga menyoroti bahwa perdebatan utama dalam kasus ini adalah bagaimana teknologi AI digunakan dalam operasi militer, termasuk kemungkinan keterlibatannya dalam misi yang berujung pada penggunaan kekuatan mematikan.
Isu inilah yang membuat kontroversi berkembang cepat di ruang publik.
Masalah Kontrak yang Bisa Membuat Startup Waspada
Di balik kontroversi publik, ada satu isu yang dianggap lebih serius oleh sebagian analis: perubahan syarat kontrak oleh pemerintah.
Menurut laporan TechCrunch, Pentagon disebut berupaya mengubah ketentuan kontrak yang sudah berjalan dengan Anthropic.
Hal ini dinilai tidak biasa dalam proyek pemerintah.
Biasanya kontrak federal di Amerika Serikat membutuhkan waktu lama untuk disusun dan disepakati.
Jika syarat kontrak bisa diubah di tengah jalan, beberapa startup mungkin akan berpikir ulang sebelum bekerja dengan pemerintah.
Bagi perusahaan teknologi yang masih berkembang, ketidakpastian seperti ini bisa menjadi risiko besar.
Dampak bagi Industri AI dan Startup Teknologi
Sejumlah pengamat menilai kontroversi ini mungkin tidak langsung membuat startup menjauhi proyek pemerintah.
Banyak perusahaan teknologi besar yang sudah lama bekerja dengan militer tanpa sorotan besar.
Contohnya:
- produsen kendaraan yang membuat kendaraan militer
- perusahaan teknologi yang mengembangkan sistem navigasi atau sensor
- perusahaan software yang menyediakan sistem analitik
Namun kasus Anthropic dan OpenAI berbeda karena produk mereka digunakan publik secara luas.
Akibatnya, keputusan bisnis mereka lebih mudah diperdebatkan oleh pengguna.
Selain itu, reputasi perusahaan AI juga sangat bergantung pada kepercayaan publik, sehingga kerja sama dengan militer bisa memicu reaksi emosional dari pengguna.
Apa Artinya Bagi Pengguna AI?
Bagi pengguna teknologi AI sehari-hari, konflik ini membawa beberapa implikasi penting.
Pertama, diskusi tentang batas penggunaan AI dalam militer kemungkinan akan semakin intens.
Kedua, perusahaan AI mungkin akan semakin berhati-hati menentukan bagaimana teknologi mereka boleh digunakan.
Sebagian perusahaan AI saat ini sudah memiliki aturan internal yang membatasi penggunaan teknologi mereka untuk tujuan militer tertentu.
Namun sejauh ini detail penerapannya sering kali tidak sepenuhnya transparan.
Artinya, masih banyak area yang belum jelas bagi publik.
Risiko dan Hal yang Masih Belum Jelas
Ada beberapa hal yang masih belum memiliki jawaban jelas dalam kasus ini.
Beberapa di antaranya:
- bagaimana pemerintah AS akan menggunakan AI dalam operasi militer
- sejauh mana perusahaan AI bisa membatasi penggunaan teknologinya
- apakah kontrak pemerintah akan berubah lebih fleksibel di masa depan
Sejauh ini belum ada detail resmi mengenai bagaimana teknologi AI tersebut akan digunakan dalam operasi militer secara spesifik.
Ketidakjelasan ini menjadi salah satu alasan munculnya perdebatan publik.
Jika Kamu Pengguna AI, Apa yang Perlu Diperhatikan?
Meskipun konflik ini terjadi di level perusahaan dan pemerintah, pengguna tetap bisa memperhatikan beberapa hal:
- cek kebijakan penggunaan AI dari perusahaan yang kamu pakai
- perhatikan update kebijakan privasi dan etika AI
- ikuti perkembangan regulasi AI global
Perdebatan seperti ini biasanya menjadi pemicu lahirnya regulasi baru di masa depan.
Penutup
Kontroversi antara Anthropic, OpenAI, dan Pentagon menunjukkan bahwa perkembangan AI kini tidak hanya soal teknologi, tetapi juga etika dan kebijakan publik.
Kasus ini juga membuka diskusi lebih luas tentang bagaimana teknologi AI seharusnya digunakan dalam sektor pertahanan.
Perkembangan sengketa ini masih berlangsung, sehingga keputusan pengadilan atau kebijakan baru pemerintah AS kemungkinan akan menjadi hal yang perlu ditunggu selanjutnya.
Jika menurut kamu isu ini penting, bagikan artikel ini agar lebih banyak orang memahami bagaimana AI mulai bersinggungan dengan kebijakan global dan keamanan.
















