Fine-tuning MICLe


Mari kita lanjutkan bahasan tentang paper Big Self-Supervised Models Advance Medical Image Classification, karya Azizi dkk. Pada tulisan sebelumnya telah dibahas tentang proses pre-training metode MICLe. Kali ini saya lanjutkan bahasan tentang fine-tuning yang dilakukan.

Pada saat finetuning, model ditraining menggunakan weight yang didapat pada saat pretraining. Model ditraining untuk downstream task menggunakna SimCLR. Training dilakukan dengan 30.000 steps dan batch size 256 menggunakan SGD (stochastic gradietn descent) dengan parameter momentum 0,9.

Untuk augmentasi data digunakan random color augmentation, crops dan resize, blurring, rotasi, dan flips (dibalik) pada kedua task. Dari hasil pengamatan, augmentasi yang digunakan mempengaruhi performa yang didapat. Dataset Derm di ubah ukurannya menjadi 448 × 448 pixels dan dataset CheXpert menjadi 224 × 224.

Untuk setiap kombinasi dari strategi pretraining dan downstream (finetuning) dilakukan pencarian hyperparameter. Learning rate dan weight decay dipilih setelah pencarian grid pada tujuh learning rates antara 10e−3.5 dan 10e−0.5 dan tiga weight antara 10e−5 dan 10e−3, serta tanpa weight decay.

Untuk baseline pretraining supervised digunakan protokol yang sama. Dari hasil pengamatan didapatkan 30.000 steps sudah cukup untuk mendapat performa terbaik. Baseline supervised dibandingkan dengan hasil Resnet ResNet models yang di pretraining pada ImageNet dengan nilai cross-entropy loss standar.

Model-model ini ditraining dengan teknik augmentasi data yang sama seperti model self-supervised (crops, strong color augmentation, and blur).

Setelah identifikasi nilai hyperparameter terbaik untuk finetuning, model dipilih berdasarkan performa set validasi. Kemudian diuji beberapa kali. 10 kali untuk gambar X-ray dan 5 kali untuk gambar kulit.

Untuk gambar kulit didapat akurasi top-1 dengan AUC seperti pada tabel dibawah. Untuk gambar X-ray, rata-ratanya juga dapat dilihat pada tabel. Digunakan juga non-parametric bootstrap untuk memperkirakan perbedaan performa model

dari paper Azizi dkk 2021

Sampai disini dulu, besok insyaallah saya lanjutkan dengan pembahasan hasil eksperimen.

Papernya bisa dilihat disini:

https://ieeexplore.ieee.org/document/9710396

Semoga Bermanfaat!


Silahkan tuliskan tanggapan, kritik maupun saran