Ad space available
Krisis Kebenaran AI: Konten Palsu Tetap Berpengaruh Meski Sudah Dibongkar
Peringatan soal 'serangan kebenaran' akibat AI kini menjadi kenyataan. Ternyata, label otentisitas gagal membuat publik tak terpengaruhi konten palsu.

Ketika Fakta Tak Lagi Menjadi Reset Button
Jakarta, 2 Februari 2026 — Era "kebusukan kebenaran" yang lama diperingatkan kini benar-benar tiba: konten buatan AI mampu membentuk kepercayaan, bahkan setelah kebohongannya terbongkar.
- Departemen Keamanan Dalam Negeri AS mengakui pakai AI Google & Adobe untuk bikin video sosmed soal deportasi massal.
- Label otentisitas Adobe hanya muncul jika konten 100% dibuat AI; platform seperti X bisa menghapusnya.
- Studi baru menunjukkan bahkan setelah tahu rekaman palsu, orang tetap terpengaruh secara emosional.
Dari Peringatan Jadi Kenyataan
Baru pekan lalu MIT Technology Review mengkonfirmasi bahwa DHS—departemen yang menaungi imigrasi AS—menggunakan generator video Google dan Adobe untuk memproduksi materi publik yang mendukung agenda deportasi massal Presiden Trump. Sebuah video soal "Natal pasca deportasi" menjadi sorotan karena diduga dibuat dengan AI.
Reaksi pembaca terbagi dua. Kelompok pertama tak terkejut: Gedung Putih pernah memakai foto hasil editan agar seorang demonstran tampak histeris. Kelompok kedua menganggap petunjuk ini tak berguna karena media pun diklaim kerap memakai foto hasil AI; contohnya jaringan MS Now yang mempercantik wajah komentator Alex Pretti tanpa sadar.
Gagalnya Solusi Teknis
Inisiatif Otentisitas Konten yang diusung Adobe—yang diikuti raksasa teknologi—menjanjikan label otomatis soal asal-usul konten. Kenyataannya, label tersebut hanya aktif bila karya sepenuhnya dibuat AI; selebihnya bersifat opsional bagi kreator. Ditambah, platform seperti X bisa saja membuang metadata ini, membuat jejak teknologi lenyap.
Fakta Bukan Lawan Kuat Disonansi
Studi terbaru dalam jurnal Communications Psychology menambah keprihatinan. Partisipan yang menyaksikan "pengakuan" rekayasa masih menilai terdakwa bersalah, meski eksperimen secara eksplisit mengatakan rekaman itu palsu. "Transparansi membantu, tapi tak cukup," kata peneliti disinformasi Christopher Nehring.
Menuju Dunia Pasca-Kebenaran
AI kini lebih canggih, murah, dan mudah dioperasikan; pemerintah pun makin rajin memakainya. Kita dipersiapkan untuk dunia yang bahayanya "kebingungan"; yang terjadi justru dunia di mana pengaruh bertahan meski terbongkar, keraguan mudah disenjatakan, dan membuktikan fakta tak lagi membangun kepercayaan publik.
Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.
Ad space available
Ditulis oleh
Tim Rekayasa AI
Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.


