Kanker payudara merupakan salah satu penyakit tidak menular yang paling sering diderita oleh wanita di seluruh dunia dan menjadi penyebab utama kematian akibat kanker. Berdasarkan data internasional, lebih dari sepertiga kasus kanker yang terjadi pada wanita berasal dari kanker payudara. Meskipun teknologi medis telah berkembang pesat, deteksi dini tetap menjadi faktor kunci yang menentukan keberhasilan terapi. Lebih dari 90% kasus dapat disembuhkan jika terdiagnosis pada tahap awal. Namun, dalam praktiknya, proses diagnosis ini tidak selalu mudah karena hasil pencitraan seperti ultrasonografi (USG), mammografi, dan MRI membutuhkan analisis mendalam dari tenaga medis profesional yang berpengalaman. Perbedaan tekstur, ukuran, dan bentuk lesi sering kali menimbulkan ambiguitas yang berpotensi menyebabkan kesalahan diagnosis.
Kemajuan teknologi kecerdasan buatan, khususnya di bidang deep learning, membuka peluang baru untuk membantu proses diagnosis kanker payudara secara otomatis. Berbagai model seperti Convolutional Neural Network (CNN) dan Vision Transformer sudah diterapkan untuk klasifikasi citra medis. Namun masih menghadapi kendala dalam mengenali lesi berukuran kecil dan citra dengan kontras rendah. Untuk mengatasi keterbatasan tersebut, penelitian ini memperkenalkan BreastDiff, sebuah model multi-condition guided diffusion yang dikembangkan untuk meningkatkan kemampuan sistem dalam mengenali dan mengklasifikasikan jenis lesi kanker payudara dari berbagai modalitas citra medis.
Efektifitas penggunaan model BreastDiff
Penelitian ini mengusulkan sebuah model baru bernama BreastDiff yang dikembangkan untuk meningkatkan akurasi klasifikasi kanker payudara dari berbagai jenis citra medis. Seperti ultrasonografi (USG), mammografi, dan magnetic resonance imaging (MRI). Model ini memanfaatkan pendekatan berbasis diffusion model, yaitu teknik pembelajaran mendalam yang bekerja dengan cara menambahkan dan kemudian menghapus derau (noise) secara bertahap untuk mempelajari distribusi data yang kompleks.
Tujuan utama dari metode ini adalah agar model tidak hanya mampu mengenali pola global dari keseluruhan citra, tetapi juga mampu memperhatikan area lokal yang relevan, yaitu area lesi atau massa yang mencurigakan. Dengan demikian, sistem ini dapat melakukan klasifikasi secara lebih akurat meskipun lesi berukuran kecil atau citra memiliki kontras yang rendah.
Tiga Mekanisme Utama
Secara prinsip, BreastDiff dibangun dengan tiga mekanisme utama yang saling melengkapi. Pertama, Multi-Condition Guided Diffusion (Diff-MCG) berfungsi untuk mengintegrasikan informasi global dari keseluruhan citra payudara dengan informasi lokal dari area lesi. Dengan pendekatan ini, fitur-fitur penting dapat diperkuat tanpa kehilangan konteks anatomi secara keseluruhan.
Kedua, UC-Net dengan Tri-Channels Attention menerapkan mekanisme perhatian tiga arah yang melibatkan spatial attention, channel attention, dan coordinate attention. Ketiganya bekerja bersama untuk meningkatkan sensitivitas model terhadap detail-detail kecil pada area lesi. Sehingga sistem mampu membedakan jaringan sehat dari jaringan yang mengindikasikan adanya kanker meskipun perbedaannya sangat halus.
Ketiga, Contrastive Maximum Mean Discrepancy (MMDC) Loss Function merupakan fungsi kehilangan baru yang menggabungkan contrastive loss dan maximum mean discrepancy. Pendekatan ini membantu model untuk membedakan citra antar-kelas dengan lebih tegas sekaligus meningkatkan kemampuan generalisasi agar tetap stabil ketika dihadapkan pada variasi data yang berbeda.
Kombinasi ketiga komponen tersebut menjadikan BreastDiff lebih efisien dan akurat dalam mengenali pola kanker payudara. Terutama pada kondisi citra dengan kualitas rendah atau tingkat kebisingan tinggi yang sering dijumpai pada data klinis. Melalui pendekatan ini, sistem mampu membangun pemahaman baru yang lebih kontekstual dan adaptif terhadap karakteristik citra medis yang beragam dan BreastDiff berpotensi menjadi model yang andal dan aplikatif dalam mendukung diagnosis kanker payudara secara otomatis di lingkungan klinis modern.
Metode dan Hasil
Penelitian ini menggunakan tiga jenis dataset citra payudara, yaitu BUSI (ultrasonografi), CMMD (mammografi), dan BreastDM (MRI). Dataset BUSI terdiri dari 437 citra jinak dan 210 citra ganas, CMMD terdiri atas 5.210 citra jinak dan 2.619 citra ganas, sedangkan BreastDM memiliki 2.448 citra jinak dan 2.505 citra ganas. Semua dataset dibagi menjadi data pelatihan, validasi, dan pengujian dengan perbandingan 80%, 10%, dan 10%.
Proses pelatihan dilakukan pada lingkungan Ubuntu 20.04 menggunakan GPU NVIDIA Tesla T4 (16 GB) dengan optimisasi stochastic gradient descent (SGD) selama 100 epochs. Evaluasi kinerja model dilakukan menggunakan metrik Accuracy, Precision, Recall, dan F1-Score.
Hasil penelitian menunjukkan bahwa BreastDiff mencapai tingkat akurasi 96,16% pada dataset BUSI dan 96,89% pada dataset CMMD. Artinya terdapat peningkatan sekitar 12,9% daripada model dasar serta rata-rata 2,6% lebih tinggi daripada model-model canggih lain seperti Swin-Transformer, D-Cube, dan DIFFMIC.
Selain itu, uji efisiensi menunjukkan bahwa proses quantization dan pruning dapat menurunkan ukuran model dari 613 MB menjadi 324 MB dengan penurunan akurasi hanya sekitar 3,9%. Hal ini menunjukkan bahwa BreastDiff tetap stabil meskipun dimensinya diperkecil. Sehingga lebih efisien untuk diterapkan pada perangkat medis portabel di lingkungan klinis.
Penulis: Yuxin You, Chenyi Zhuang, Hong-Seng Gan, Riries Rulaningtyas, Muhammad Hanif Ramlee, dan Asnida Abdul Wahab.
Informasi detail dari riset ini dapat dilihat pada tulisan kami di: You, Y., Zhuang, C., Gan, H.-S., Rulaningtyas, R., Ramlee, M. H., & Wahab, A. A. (2025). BreastDiff: A multi-condition guided diffusion model for breast cancer classification in diverse modalities. Biomedical Signal Processing and Control, 112, 108708. https://doi.org/10.1016/j.bspc.2025.108708





