Advertisement

Ad space available

Berita AI

Anthropic Lawan Tekanan Pentagon Soal Penggunaan Claude untuk Militer AS

Anthropic menolak permintaan Pentagon untuk menggunakan AI Claude dalam operasional militer demi menjaga batasan etika. Langkah berani ini berisiko membatalkan kontrak senilai USD 200 juta.

Tim Rekayasa AI
Penulis
15 Februari 2026
3 min read
#Anthropic#Claude AI#Pentagon#Etika AI#Keamanan Nasional
Anthropic Lawan Tekanan Pentagon Soal Penggunaan Claude untuk Militer AS

Anthropic Lawan Tekanan Pentagon Soal Penggunaan Claude untuk Militer AS

WASHINGTON D.C.

Key Takeaway
  • Pentagon menuntut perusahaan AI memberikan izin penggunaan teknologi untuk segala tujuan militer yang sah, namun Anthropic menolak.
  • Kontrak senilai USD 200 juta (sekitar Rp3,14 triliun) terancam diputus oleh Pentagon akibat resistensi etika dari Anthropic.
  • Anthropic tetap berkomitmen pada kebijakan penggunaan yang melarang pengembangan senjata otonom penuh.

Departemen Pertahanan Amerika Serikat (Pentagon) dilaporkan sedang memberikan tekanan besar kepada perusahaan AI terkemuka untuk mengizinkan militer menggunakan teknologi mereka tanpa batasan ketat. Mengutip laporan terbaru, Anthropic menjadi salah satu pihak yang paling vokal melakukan perlawanan terhadap tuntutan tersebut demi mempertahankan integritas etika pengembangan AI mereka.

Pemerintah AS dilaporkan mengajukan permintaan serupa kepada raksasa teknologi lain seperti OpenAI, Google, dan xAI. Meskipun beberapa perusahaan menunjukkan fleksibilitas dalam menghadapi tuntutan Departemen Pertahanan, Anthropic tetap pada pendiriannya untuk membatasi penggunaan model AI miliknya, Claude, terutama dalam skenario yang melibatkan kekerasan atau pengawasan massa.

Ancaman Pemutusan Kontrak Besar

Sebagai bentuk tekanan, Pentagon dilaporkan mengancam akan membatalkan kontrak senilai USD 200 juta (setara Rp3,14 triliun) dengan Anthropic. Perselisihan ini mencerminkan ketegangan yang semakin meningkat antara industri teknologi Silicon Valley dan kebutuhan pertahanan nasional Amerika Serikat.

Anthropic bersikeras bahwa mereka memiliki "garis merah" yang tidak boleh dilanggar. Fokus utama perusahaan adalah mencegah penyalahgunaan AI untuk sistem senjata otonom penuh (Fully Autonomous Weapons) yang dapat beroperasi tanpa campur tangan manusia, serta menghindari penggunaan teknologi untuk pengawasan domestik massal.

Dampak Bagi Industri Teknologi Global

Sikap Anthropic ini memicu debat luas mengenai tanggung jawab sosial perusahaan teknologi. Jika Anthropic kehilangan kontrak tersebut, hal ini bisa menjadi preseden bagi perusahaan lain dalam menentukan batas kerja sama dengan sektor militer. Di sisi lain, hal ini juga memperkuat posisi Anthropic sebagai pemimpin dalam sektor AI Safety atau keamanan AI.

Bagi para pengembang dan regulator di seluruh dunia, termasuk di Indonesia, kasus ini menunjukkan pentingnya regulasi yang jelas mengenai etika AI sebelum teknologi ini diintegrasikan lebih jauh ke dalam sistem keamanan negara.


Artikel ini disusun berdasarkan perkembangan terbaru di industri AI global. Bergabunglah dengan Komunitas Rekayasa AI di Discord untuk mendapatkan analisis mendalam lainnya.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin