Ad space available
Dilema Anthropic: Terjebak Janji Safety AI dan Boikot Pentagon
Anthropic masuk daftar hitam Pentagon setelah menolak penggunaan teknologi AI miliknya untuk pengawasan massal dan drone otonom. Pakar AI menilai krisis ini adalah konsekuensi dari ambisi perusahaan yang menghindari regulasi pemerintah.

Dilema Anthropic: Terjebak Janji Safety AI dan Boikot Pentagon
SAN FRANCISCO, (1 Maret 2026)
- Anthropic masuk daftar hitam (blacklist) Pentagon setelah menolak penggunaan teknologi AI miliknya untuk pengawasan massal (mass surveillance) dan drone otonom.
- Max Tegmark dari MIT menilai industri AI kini terjebak dalam kekosongan hukum yang mereka ciptakan sendiri akibat lobi menentang regulasi.
- Perubahan kebijakan keamanan pada perusahaan besar seperti OpenAI dan Google menunjukkan pergeseran prioritas dari etika ke kontrak pertahanan.
Mengutip laporan dari TechCrunch, sebuah gelombang kejutan baru saja menghantam industri kecerdasan buatan. Pemerintah Amerika Serikat, melalui perintah eksekutif, menginstruksikan seluruh lembaga federal untuk segera menghentikan penggunaan teknologi dari Anthropic, perusahaan AI asal San Francisco yang didirikan oleh Dario Amodei.
Langkah ini diperkuat oleh Sekretaris Pertahanan yang memasukkan Anthropic ke dalam daftar risiko rantai pasokan nasional. Pemicunya adalah keputusan Amodei yang menolak memberikan akses teknologinya untuk digunakan dalam sistem pengawasan massal terhadap warga AS atau untuk pengembangan drone bersenjata otonom yang dapat memilih target tanpa campur tangan manusia. Akibatnya, Anthropic terancam kehilangan kontrak senilai $200 juta dan dilarang bekerja sama dengan kontraktor pertahanan lainnya.
Perangkap Regulasi Mandiri
Max Tegmark, fisikawan MIT dan pendiri Future of Life Institute, memberikan pandangan tajam terhadap krisis ini. Melansir data dari wawancara terbarunya, Tegmark berargumen bahwa Anthropic, bersama pesaingnya seperti OpenAI dan Google DeepMind, telah menabur benih masalah mereka sendiri dengan menolak regulasi yang mengikat selama bertahun-tahun.
Industri AI selama ini menjanjikan bahwa mereka dapat melakukan regulasi mandiri (self-regulation). Namun, Tegmark mencatat bahwa janji-janji tersebut mulai runtuh. Google sebelumnya menghapus slogan "Don't be evil", OpenAI baru-baru ini menghapus kata safety dari pernyataan misinya, dan xAI membubarkan tim keselamatannya. Bahkan Anthropic pekan ini mencabut komitmen keamanan utamanya—janji untuk tidak merilis sistem AI yang lebih kuat sebelum mereka yakin sistem tersebut tidak akan menyebabkan bahaya.
"Saat ini, kita memiliki regulasi yang lebih sedikit pada sistem AI di Amerika dibandingkan pada roti lapis (sandwich)," ujar Tegmark. Menurutnya, tanpa adanya undang-undang yang jelas, perusahaan AI tidak memiliki perlindungan hukum ketika pemerintah tiba-tiba menuntut penggunaan teknologi untuk tujuan militer yang kontroversial.
Ancaman Superintelligence dan Geopolitik
Tegmark juga menepis argumen umum bahwa regulasi akan membuat AS kalah bersaing dari China. Ia menunjukkan bahwa China justru sedang memperketat aturan terhadap AI, termasuk melarang AI Agent yang bersifat antropomorfik, karena dianggap mengancam stabilitas sosial.
Lebih jauh, ia memperingatkan bahwa pengembangan Superintelligence yang tidak terkendali bukan sekadar aset, melainkan ancaman keamanan nasional. Jika sebuah perusahaan membangun entitas yang mampu melampaui kecerdasan manusia di Data Center, hal itu dapat dianggap sebagai ancaman bagi kedaulatan pemerintah.
Beberapa jam setelah krisis ini mencuat, OpenAI dikabarkan langsung mengambil langkah berbeda dengan menyetujui kesepakatan baru dengan Pentagon yang mencakup pengamanan teknis tertentu. Fenomena ini memaksa setiap raksasa teknologi untuk menunjukkan posisi mereka yang sebenarnya: bertahan pada prinsip etika atau menyerah pada tuntutan anggaran pertahanan.
Dampak bagi Indonesia
Krisis yang dialami Anthropic memberikan pelajaran penting bagi ekosistem digital di Indonesia:
- Urgensi Regulasi yang Mengikat: Saat ini Indonesia masih bersandar pada Surat Edaran Menkominfo Nomor 9 Tahun 2023 tentang Etika Kecerdasan Artifisial. Kasus di AS menunjukkan bahwa panduan etika saja tidak cukup untuk melindungi perusahaan atau publik saat berhadapan dengan kepentingan strategis atau keamanan.
- Kedaulatan Data dan Cloud Computing: Ketergantungan instansi pemerintah atau Fintech lokal pada penyedia LLM asing seperti Claude (Anthropic) atau GPT (OpenAI) berisiko tinggi terhadap gangguan layanan jika terjadi konflik geopolitik. Harga layanan API yang berkisar antara Rp300.000 hingga Rp700.000 per juta token bisa melonjak atau bahkan diputus aksesnya secara sepihak.
- Peluang LLM Lokal: Peristiwa ini dapat memacu percepatan pengembangan model AI lokal yang lebih sesuai dengan regulasi domestik dan tidak terikat pada kebijakan pertahanan negara asing.
Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.
Ad space available
Ditulis oleh
Tim Rekayasa AI
Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.


