Self Supervised pada klasifikasi Image medis


Hari ini saya lagi baca paper Big Self-Supervised Models Advance Medical Image Classification, karya Azizi dkk. Paper ini cerita tentang percobaan mereka yang menggunakan self-supervised untuk klasifikasi gambar medis. Percobaannya dilakukan pada 2 task:

  1. Klasifikasi foto penyakit kulit dari kamera digital
  2. Klasifikasi foto X-ray dada multilabel pada 5 kondisi patologi dari dataset CheXpert

Menurut mereka dengan Self-supervised di training di ImageNet, trus self-supervised pada gambar medis tidak berlabel, akurasi klasifikasi image medis meningkat. Metode usulannya dikasi nama Multi-Instance Contrastive Learning (MICle).

MICLE ini meningkatkan akurasi sebesar 6,7% (top 1-akurasi) dan peningkatan AUC 1,1%. Performa ini mengalahkan metode supervised yang dipretraining pada ImageNet. Selain itu metode ini kuat terhadap distribution shift dan cuman membutuhkan jumlah gambar medis berlabel yang kecil.

Untuk klasifikasi image medis, masalah yang dihadapi adalah gambarnya terbatas, kemudian proses labeling, mahal dan lama. 2 pendekatan pre-training yang digunakan biasanya:

  1. Pre-training dengan supervised pada dataset besar seperti ImageNet (14 juta gambar; 21.800 kelas)
  2. Self-supervised pretraining dengan contrastive learning pada data tidak berlabel.

Setelah pretraining, fine-tuning dengan supervised dilakukan pada dataset berlabel yang menjadi target. Sejauh ini pendekatan pre-training pertama yang populer di medis. Namun pendekatan self-supervised menghasilkan performa lebih baik.

Performa ini dibantu dengan adanya domain shift dan perbedaan antara task recognition di ImageNet dan klasifikasi image medis. Untuk mengatasinya dilakukan pre-training dengan self-supervised pada gambar medis. MICLE membantu adaptasi contastive learnign ke gambar medis dengan pathology berbeda pada pasien.

Data multi-instance banyak tersidia pada dataset medis diantaranya tampilan fromtal dan lateral dari mammograms, gambar retinal fundus dari mata dll. Dengan adanya berbagai gambar medis pada kasus seorang pasien, diiajukan pembuatan pasangan positif untuk self-supervised contrastive. Caranya dengan membuat 2 potongan dari 2 gambar berbeda dari kasus pasien yang sama.

2 potongan ini bisa gambar dari dari sudut berbeda, dan menunjukan bagian tubuh berbeda pada penyakit yang sama. Dengan cara ini algoritma Self-supervised dapat mempelajari representasi yang kuat terhadap perubahan sudut pandang, kondisi gambar dan faktor lainnya.

MICLe gak perlu label, hanya mengandalkan gambar-gambar berbeda dari kasus penyakit yang sama. Kasus penyakit yang belum diketahui

Secara umum transder learning banyak digunakan di bidang medis. Walaupun ada perbedaan antara gambar biasa dan gambar medis. Namun Raghu dkk menunjukan bahwa performa dalam konteks gambar medis tidak selalu meningkat dengan transfer learning. Namun transfer learning ImageNet dapat mempercepat konvergen, dan sangat membantu untuk gambar medis yang terbatas. Selain itu peningkatan juga diperoleh dengan menggunakan arsitektur ResNet-50 yang lebih besar.

Sampai disini dulu, besok insyaallah saya lanjutkan pembahasan tentang paper ini. Papernya bisa dilihat disini:

https://ieeexplore.ieee.org/document/9710396

Semoga Bermanfaat!


Silahkan tuliskan tanggapan, kritik maupun saran