Advertisement

Ad space available

Berita AI

Inovasi MIT: Kini AI Bisa Jelaskan Alasan Prediksi dalam Bahasa Manusia

Peneliti MIT mengembangkan teknik baru yang memungkinkan AI menjelaskan proses pengambilan keputusannya menggunakan konsep yang dipahami manusia. Metode ini meningkatkan transparansi dan akurasi pada sistem Computer Vision untuk sektor kesehatan.

Tim Rekayasa AI
Penulis
9 Maret 2026
3 min read
#Artificial Intelligence#MIT#Computer Vision#Explainable AI#Teknologi
Inovasi MIT: Kini AI Bisa Jelaskan Alasan Prediksi dalam Bahasa Manusia

Inovasi MIT: Kini AI Bisa Jelaskan Alasan Prediksi dalam Bahasa Manusia

CAMBRIDGE, (10 MARET 2026)

Key Takeaway
  • Peneliti MIT memperkenalkan metode untuk mengubah model Computer Vision standar menjadi sistem yang dapat menjelaskan logikanya kepada manusia.
  • Teknik ini menggunakan Sparse Autoencoder dan Multimodal LLM untuk mengekstrak pengetahuan internal tanpa kebocoran informasi.
  • Implementasi ini terbukti meningkatkan akurasi pada tugas krusial seperti identifikasi penyakit kulit dan klasifikasi spesies.

Dalam industri dengan risiko tinggi seperti kesehatan, memahami alasan di balik prediksi AI sangatlah penting. Peneliti dari MIT Computer Science and Artificial Intelligence Laboratory (CSAIL) baru-baru ini memperkenalkan teknik yang memungkinkan model AI memberikan penjelasan berbasis konsep yang mudah dimengerti manusia.

Metode ini mengandalkan Concept Bottleneck Modeling (CBM). Selama ini, CBM mengharuskan manusia menentukan konsep secara manual, yang sering kali tidak efisien. Namun, tim MIT berhasil mengotomatisasi proses ini dengan mengekstrak konsep langsung dari apa yang dipelajari model selama pelatihan.

Cara Kerja Sistem

Sistem ini bekerja dengan dua komponen utama. Pertama, Sparse Autoencoder mengidentifikasi fitur paling penting dalam data. Kedua, Multimodal LLM menerjemahkan fitur tersebut ke dalam deskripsi tekstual. Dengan cara ini, model tidak lagi menjadi 'kotak hitam' yang misterius, melainkan sistem yang akuntabel.

"Kami ingin pengguna bisa memverifikasi apakah AI membuat keputusan berdasarkan indikator klinis yang benar atau hanya kebetulan," ujar Antonio De Santis, peneliti utama di MIT.

Relevansi bagi Indonesia

Teknologi ini memiliki potensi besar di Indonesia, terutama dalam mendukung implementasi Strategi Nasional Kecerdasan Artifisial. Di sektor kesehatan, dokter dapat menggunakan AI untuk mendapatkan 'pendapat kedua' yang dapat diverifikasi secara logika. Selain itu, transparansi ini sejalan dengan Surat Edaran Menkominfo No. 9 Tahun 2023 dalam menciptakan ekosistem AI yang etis dan bertanggung jawab.


Artikel ini akan diperbarui seiring tersedianya informasi baru. Join Komunitas Rekayasa AI di Discord untuk diskusi lebih lanjut.

Advertisement

Ad space available

✍️

Ditulis oleh

Tim Rekayasa AI

Kontributor Rekayasa AI yang passionate tentang teknologi AI dan dampaknya di Indonesia.

Bagikan:𝕏fin