Advertisement

Ad space available

Berita AI

Anthropic Masuk 'Jebakan' Sendiri: Diblokir AS Akibat Tolak AI Militer

Anthropic kini masuk dalam daftar hitam Pentagon setelah menolak penggunaan teknologinya untuk surveilans massal. Pakar memperingatkan bahwa ketiadaan regulasi resmi justru merugikan perusahaan AI.

Tim Rekayasa AI
Penulis
1 Maret 2026
5 min read
#Anthropic#Pentagon#Regulasi AI#Cybersecurity#Superintelligence
Anthropic Masuk 'Jebakan' Sendiri: Diblokir AS Akibat Tolak AI Militer

Anthropic Masuk 'Jebakan' Sendiri: Diblokir AS Akibat Tolak AI Militer

SAN FRANCISCO, (1 Maret 2026)

Key Takeaway
  • Anthropic resmi diblacklist oleh pemerintah AS dan Pentagon setelah menolak penggunaan teknologinya untuk surveilans massal warga AS dan drone otonom mematikan.
  • Max Tegmark (MIT) berargumen bahwa penolakan industri AI terhadap regulasi pemerintah selama bertahun-tahun kini menjadi bumerang bagi perusahaan itu sendiri.
  • OpenAI mengambil langkah kontras dengan mengumumkan kesepakatan baru dengan Pentagon segera setelah Anthropic diblokir.

Mengutip laporan dari TechCrunch, sebuah drama besar sedang mengguncang lembah silikon. Presiden Trump melalui Truth Social memerintahkan seluruh lembaga federal untuk "segera menghentikan penggunaan teknologi Anthropic." Tak lama kemudian, Menteri Pertahanan Pete Hegseth menggunakan undang-undang keamanan nasional untuk memasukkan Anthropic ke dalam daftar hitam (blacklist) rantai pasokan militer.

Langkah ini diambil setelah CEO Anthropic, Dario Amodei, menolak izin penggunaan teknologi mereka untuk sistem pengawasan massal terhadap warga AS atau drone bersenjata otonom yang dapat memilih dan membunuh target tanpa input manusia. Akibatnya, Anthropic berisiko kehilangan kontrak senilai hingga $200 juta (sekitar Rp3,1 triliun) dan dilarang bekerja sama dengan kontraktor pertahanan lainnya.

Kegagalan Regulasi Mandiri

Melansir data dari fisikawan MIT dan pendiri Future of Life Institute, Max Tegmark, krisis yang dialami Anthropic adalah buah dari keputusan industri itu sendiri. Selama bertahun-tahun, Anthropic, OpenAI, dan Google DeepMind telah berjanji untuk mengatur diri mereka sendiri secara bertanggung jawab tanpa perlu regulasi pemerintah yang mengikat.

"Jalan menuju neraka diaspal dengan niat baik," ujar Tegmark. Ia menyoroti ironi di mana perusahaan-perusahaan AI ini melobi pemerintah agar tidak membuat aturan ketat, dengan dalih 'percayalah pada kami'. Namun, tanpa adanya hukum yang jelas, perusahaan seperti Anthropic kini tidak memiliki perlindungan hukum saat pemerintah memberikan tuntutan yang melampaui batas etika mereka.

Tegmark membandingkan regulasi AI dengan standar keamanan pangan. Di Amerika Serikat, aturan mengenai kebersihan toko roti jauh lebih ketat dibandingkan aturan pengembangan Superintelligence. Ketiadaan binding safety regulation membuat perusahaan AI berada dalam vakum hukum di mana pemerintah bisa tiba-tiba menuntut penggunaan teknologi untuk tujuan militer yang kontroversial.

Pergeseran Komitmen Keamanan

Menariknya, Anthropic baru saja mencabut poin utama dalam janji keamanan mereka sendiri, yaitu janji untuk tidak merilis sistem AI yang semakin kuat hingga perusahaan yakin sistem tersebut tidak akan menyebabkan bahaya. Pergeseran ini mengikuti jejak raksasa lain:

  • Google: Menghapus slogan "Don't be evil" dan mulai menjual AI untuk senjata.
  • OpenAI: Menghapus kata safety dari pernyataan misi mereka dan baru saja menandatangani kesepakatan dengan Pentagon.
  • xAI: Menutup seluruh tim keamanan mereka.

Tegmark menegaskan bahwa narasi "balapan dengan China" sering digunakan sebagai alasan untuk menghindari regulasi. Padahal, China sendiri sedang memperketat aturan AI, termasuk melarang AI girlfriends dan chatbot antropomorfik untuk melindungi stabilitas sosial mereka.

Dampak bagi Indonesia

Eskalasi konflik antara pengembang AI dan militer AS ini memberikan beberapa dampak signifikan bagi lanskap teknologi di Indonesia:

  1. Kedaulatan Data dan Etika AI: Indonesia perlu mempercepat perumusan regulasi AI yang mengikat (bukan sekadar surat edaran etika) untuk melindungi warga dari potensi penyalahgunaan AI dalam pengawasan massal oleh pihak asing maupun domestik.
  2. Ketergantungan Infrastruktur: Dengan masuknya Anthropic ke daftar hitam Pentagon, perusahaan atau instansi di Indonesia yang menggunakan model Claude (melalui Cloud Computing seperti AWS) harus mulai memetakan risiko jika terjadi sanksi geopolitik lebih lanjut yang membatasi akses teknologi.
  3. Harga Layanan: Pergeseran fokus perusahaan AI ke kontrak militer besar dapat mengubah struktur harga layanan AI komersial untuk pasar retail dan Enterprise di Indonesia, seiring dengan berubahnya prioritas pendapatan para raksasa AI global.
  4. Adopsi AI Militer: Indonesia mungkin akan menghadapi tekanan atau tawaran serupa untuk mengintegrasikan Neural Networks ke dalam sistem pertahanan nasional, yang memerlukan kajian mendalam mengenai keamanan dan kontrol manusia (human-in-the-loop).

Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin