Advertisement

Ad space available

Berita AI

Anthropic Gugat Departemen Pertahanan AS Terkait Label Risiko Rantai Pasok

Anthropic berencana menggugat Departemen Pertahanan AS (DOD) setelah dilabeli sebagai risiko rantai pasok. CEO Dario Amodei menegaskan bahwa pembatasan ini tidak seharusnya berdampak pada pelanggan komersial lainnya.

Tim Rekayasa AI
Penulis
6 Maret 2026
4 min read
#Anthropic#AI Safety#Pentagon#Generative AI#Supply Chain Risk
Anthropic Gugat Departemen Pertahanan AS Terkait Label Risiko Rantai Pasok

Anthropic Gugat Departemen Pertahanan AS Terkait Label Risiko Rantai Pasok

SAN FRANCISCO, (5 Maret 2026)

Key Takeaway
  • Anthropic resmi mengajukan gugatan hukum terhadap Departemen Pertahanan AS (DOD) atas pelabelan perusahaan sebagai "supply chain risk".
  • Konflik dipicu oleh penolakan Anthropic untuk mengizinkan penggunaan AI mereka dalam pengawasan massal dan sistem senjata otonom.
  • CEO Dario Amodei menekankan bahwa sebagian besar pelanggan komersial Claude tidak akan terdampak oleh keputusan hukum yang dianggapnya sempit ini.

CEO Anthropic, Dario Amodei, mengumumkan pada hari Kamis bahwa pihaknya berencana untuk menantang keputusan Departemen Pertahanan Amerika Serikat (DOD) di pengadilan. Mengutip laporan dari TechCrunch, langkah ini diambil setelah DOD menetapkan perusahaan pengembang AI tersebut sebagai supply chain risk (risiko rantai pasok), sebuah label yang disebut Amodei "tidak berdasar secara hukum."

Pernyataan ini muncul hanya beberapa jam setelah DOD secara resmi merilis penunjukan tersebut menyusul perselisihan selama berminggu-minggu mengenai kontrol militer atas sistem AI. Penunjukan sebagai risiko rantai pasok berpotensi melarang sebuah perusahaan untuk bekerja sama dengan Pentagon maupun kontraktor-kontraktor di bawahnya.

Amodei menarik garis tegas bahwa AI buatan Anthropic tidak boleh digunakan untuk pengawasan massal warga Amerika atau untuk senjata yang sepenuhnya otonom. Sebaliknya, pihak Pentagon meyakini bahwa mereka harus memiliki akses tak terbatas terhadap teknologi tersebut untuk "semua tujuan yang sah secara hukum."

Fokus pada Keamanan dan Dampak Kontrak

Dalam pernyataan resminya, Amodei menjelaskan bahwa mayoritas pelanggan Anthropic tidak terpengaruh oleh penunjukan ini. Menurutnya, aturan tersebut secara spesifik hanya berlaku jika Claude digunakan sebagai bagian langsung dari kontrak dengan Departemen Pertahanan, bukan untuk semua pelanggan yang kebetulan memiliki kontrak dengan militer.

"Label ini ada untuk melindungi pemerintah, bukan untuk menghukum pemasok. Faktanya, hukum mewajibkan Menteri Pertahanan untuk menggunakan sarana yang paling tidak membatasi (least restrictive means) untuk mencapai tujuan perlindungan rantai pasok," ujar Amodei. Ia menambahkan bahwa hubungan bisnis Anthropic lainnya tetap berjalan normal selama tidak terkait dengan kontrak spesifik DOD tersebut.

Persaingan dengan OpenAI dan Bocornya Memo Internal

Ketegangan ini semakin diperkeruh oleh bocornya memo internal Anthropic beberapa hari lalu. Dalam memo tersebut, Amodei mengkritik kesepakatan rivalnya, OpenAI, dengan Pentagon sebagai sebuah "safety theater" (sandiwara keamanan). OpenAI sendiri telah menandatangani kesepakatan untuk bekerja sama dengan militer AS guna mengisi kekosongan yang ditinggalkan Anthropic.

Amodei telah meminta maaf atas kebocoran memo tersebut dan menyatakan bahwa tulisan itu dibuat dalam kondisi tekanan tinggi setelah serangkaian pengumuman pemerintah, termasuk unggahan di media sosial yang menyatakan Anthropic akan dihapus dari sistem federal. Saat ini, Anthropic masih memberikan dukungan terbatas pada operasi AS di Iran dengan biaya nominal selama masa transisi.

Dampak bagi Indonesia

Keputusan hukum ini memiliki relevansi penting bagi lanskap teknologi di Indonesia, mengingat Claude merupakan salah satu model Generative AI yang populer di kalangan pengembang lokal:

  1. Kepastian bagi Sektor Enterprise: Perusahaan di Indonesia yang menggunakan API Anthropic atau melalui penyedia Cloud Computing seperti AWS (Bedrock) dapat bernapas lega, karena pembatasan ini bersifat sangat spesifik untuk kontrak pertahanan AS dan tidak memengaruhi ketersediaan layanan global.
  2. Standar Etika AI: Langkah Anthropic menolak penggunaan militer untuk senjata otonom menjadi preseden penting bagi perdebatan regulasi etika AI di Indonesia, terutama saat pemerintah mulai menyusun kerangka kerja hukum untuk penggunaan AI di sektor strategis.
  3. Kepercayaan Infrastruktur: Dengan nilai tukar yang fluktuatif (kisaran Rp15.700 - Rp16.000 per USD), transparansi mengenai status risiko perusahaan AI global sangat krusial bagi startup Indonesia agar tidak terjebak dalam masalah rantai pasok teknologi yang melibatkan entitas politik internasional.

Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin