Ad space available
Inovasi MIT: Kini AI Bisa Jelaskan Alasan Prediksi dalam Bahasa Manusia
Peneliti MIT mengembangkan teknik baru yang memungkinkan AI menjelaskan proses pengambilan keputusannya menggunakan konsep yang dipahami manusia. Metode ini meningkatkan transparansi dan akurasi pada sistem Computer Vision untuk sektor kesehatan.

Inovasi MIT: Kini AI Bisa Jelaskan Alasan Prediksi dalam Bahasa Manusia
CAMBRIDGE, (10 MARET 2026)
- Peneliti MIT memperkenalkan metode untuk mengubah model Computer Vision standar menjadi sistem yang dapat menjelaskan logikanya kepada manusia.
- Teknik ini menggunakan Sparse Autoencoder dan Multimodal LLM untuk mengekstrak pengetahuan internal tanpa kebocoran informasi.
- Implementasi ini terbukti meningkatkan akurasi pada tugas krusial seperti identifikasi penyakit kulit dan klasifikasi spesies.
Dalam industri dengan risiko tinggi seperti kesehatan, memahami alasan di balik prediksi AI sangatlah penting. Peneliti dari MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) baru-baru ini memperkenalkan teknik yang memungkinkan model AI memberikan penjelasan berbasis konsep yang mudah dimengerti manusia.
Metode ini mengandalkan Concept Bottleneck Modeling (CBM). Selama ini, CBM mengharuskan manusia menentukan konsep secara manual, yang sering kali tidak efisien. Namun, tim MIT berhasil mengotomatisasi proses ini dengan mengekstrak konsep langsung dari apa yang dipelajari model selama pelatihan.
Cara Kerja Sistem
Sistem ini bekerja dengan dua komponen utama. Pertama, Sparse Autoencoder mengidentifikasi fitur paling penting dalam data. Kedua, Multimodal LLM menerjemahkan fitur tersebut ke dalam deskripsi tekstual. Dengan cara ini, model tidak lagi menjadi 'kotak hitam' yang misterius, melainkan sistem yang akuntabel.
"Kami ingin pengguna bisa memverifikasi apakah AI membuat keputusan berdasarkan indikator klinis yang benar atau hanya kebetulan," ujar Antonio De Santis, peneliti utama di MIT.
Relevansi bagi Indonesia
Teknologi ini memiliki potensi besar di Indonesia, terutama dalam mendukung implementasi Strategi Nasional Kecerdasan Artifisial. Di sektor kesehatan, dokter dapat menggunakan AI untuk mendapatkan 'pendapat kedua' yang dapat diverifikasi secara logika. Selain itu, transparansi ini sejalan dengan Surat Edaran Menkominfo No. 9 Tahun 2023 dalam menciptakan ekosistem AI yang etis dan bertanggung jawab.
Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.
Ad space available
Ditulis oleh
Tim Rekayasa AI
Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.


