Advertisement

Ad space available

Berita AI

Dilema Etika AI: Pentagon Beri Ultimatum Anthropic Terkait Penggunaan Claude

Menteri Pertahanan AS Pete Hegseth memanggil CEO Anthropic Dario Amodei ke Pentagon terkait perselisihan penggunaan militer Claude. Anthropic terancam dilabeli sebagai risiko rantai pasok jika menolak kerja sama penuh.

Tim Rekayasa AI
Penulis
23 Februari 2026
4 min read
#Anthropic#Claude#Pentagon#AI Ethics#Cybersecurity
Dilema Etika AI: Pentagon Beri Ultimatum Anthropic Terkait Penggunaan Claude

Dilema Etika AI: Pentagon Beri Ultimatum Anthropic Terkait Penggunaan Claude

WASHINGTON, (23 Februari 2026)

Key Takeaway
  • Menteri Pertahanan AS Pete Hegseth memanggil CEO Anthropic Dario Amodei untuk pertemuan mendesak di Pentagon.
  • Pentagon mengancam melabeli Anthropic sebagai "supply chain risk" karena pembatasan etis pada penggunaan AI Claude.
  • Perselisihan berpusat pada penolakan Anthropic terhadap mass surveillance dan pengembangan senjata otonom tanpa kontrol manusia.

Menteri Pertahanan AS, Pete Hegseth, telah memanggil CEO Anthropic, Dario Amodei, ke Pentagon pada Selasa pagi untuk melakukan diskusi tegang terkait penggunaan militer atas model AI Claude. Mengutip laporan dari TechCrunch dan Axios, pertemuan ini menandai titik didih dalam hubungan antara pemerintah federal dan pengembang Generative AI tersebut.

Melansir data dari sumber internal, Pentagon mengancam akan menetapkan Anthropic sebagai "supply chain risk" — sebuah label yang biasanya dicadangkan untuk musuh asing. Langkah drastis ini diambil setelah Anthropic bersikeras menolak penggunaan teknologinya oleh Departemen Pertahanan (DOD) untuk aktivitas mass surveillance terhadap warga sipil Amerika serta pengembangan sistem persenjataan yang dapat mengeksekusi tembakan tanpa campur tangan manusia (human-in-the-loop).

Ketegangan Pasca Operasi Venezuela

Anthropic sebelumnya telah menandatangani kontrak senilai $200 juta dengan DOD pada musim panas lalu. Claude dikabarkan memainkan peran penting selama operasi khusus pada Januari 2026 yang menghasilkan penangkapan presiden Venezuela, Nicolás Maduro. Episode ini justru membawa ketegangan kedua belah pihak ke permukaan, terutama terkait batasan sejauh mana AI dapat digunakan dalam skenario tempur.

Seorang sumber mengatakan kepada Axios bahwa Hegseth memberikan ultimatum kepada Amodei: patuhi permintaan militer atau hadapi pengusiran. Jika label "supply chain risk" benar-benar disematkan, kontrak Anthropic akan dibatalkan secara otomatis, dan seluruh mitra Pentagon lainnya akan dipaksa untuk menghentikan penggunaan Claude sepenuhnya dalam infrastruktur mereka.

Meskipun mengganti ekosistem AI Anthropic akan menjadi tantangan logistik yang besar bagi Pentagon, ancaman ini menunjukkan keseriusan pemerintah AS dalam mengintegrasikan Machine Learning dan LLM ke dalam garda depan pertahanan nasional tanpa hambatan etis dari penyedia layanan.

Dampak bagi Indonesia

Situasi di Pentagon ini memberikan sinyal penting bagi lanskap teknologi di Indonesia, khususnya dalam hal kedaulatan digital dan pertahanan. Kontrak senilai $200 juta atau setara dengan kurang lebih Rp3,14 triliun tersebut menunjukkan betapa besarnya nilai ekonomi di balik etika AI.

Bagi Indonesia, kasus ini mempertegas pentingnya regulasi lokal mengenai Generative AI di sektor keamanan. Jika pengembang global seperti Anthropic mulai ditekan oleh agenda militer negara asalnya, instansi pemerintah dan perusahaan di Indonesia yang mengandalkan solusi Cloud Computing asing perlu mempertimbangkan risiko keberlangsungan layanan. Selain itu, ini menjadi momentum bagi pengembang AI lokal untuk membangun solusi yang lebih transparan dan sesuai dengan norma hukum nasional agar tidak terjebak dalam friksi geopolitik teknologi global.


Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin