Pengalaman Vaksin Booster

Alhamdulillah hari ini saya udah beres vaksin booster. Saya ikut yang dari pemkot Bandung, tempatnya di taman dewi sartika, balaikota bandung. Caranya daftar dulu di form antrique, linknya dishare di instagram dinkes kota bandung https://www.instagram.com/dinkeskotabdg/

Saya datang ke balkot sekitar jam 11an, karena emang sebelumnya di wa- klo saya dapet jatah vaksinnya jam 11-12. Ternyata sudah ngantri panjang bgt kayak ngantri sembako. Baru aja berdiri disana, ada orang yang melintas dia cerita sama temennya, katanya dia baru beres suntik, setelah ngantri dari jam 8. Wah nguji mental nih, jadi mikir mau lanjut apa gak ya. Cmn berhubung cuaca mendung romantis dan angin sepoi2 jadinya sudahlah lanjut aja.

Setelah sekitar 1 jam kurang ngantri kyk maen uler2an, akhirnya kebagian duduk. Di kursi ini masih ngantri juga diatur sama petugas keamanan, jadi kita musti geser klo ada kursi kosong di depan kita. Gak lama kemudian diminta sama petugas nunjukin fotocopy ktp sama bukti antrian di form antrique. Oiya syarat utamanya ktpnya harus kota bandung. Ada di depan saya yang gak bisa lanjut ikut vaksin, karena ktpnya gak kota bandung. Selain itu syaratnya adalah jarak setelah vaksin kedua adalah sudah 6 bulan.

Kalo udah dicek sama petugasnya ktp dan bukti antrian, kita dikasi formulir, disuruh ngisi nama, nik, alamat, sama vaksin primer kita dapetnya apa. Setalah itu baru dapet nomer antrian. Saya dapet nomer 698.

Kemudian dipanggil ke meja 1, disini dicek tekanan darah alias tensi. Kemudian disuruh lanjut ke meja 2, disini dicek sama dokter, saya ditanya macem2, apakah ada alergi setelah vaksin sebelumnya, trus ada keluhan apa dll. Setelah itu lanjut ke bagian vaksin. Saya kebagian vaksin pfizer (alias pijer). Lanjut ke meja sertifikat, disana saya nyerahin form, nomer antrian dan fotocopy ktp. Trus nunggu dipanggil lagi. Disana petugasnya kayaknya masukin data kita ke peduli lindungi. Setelah itu saya dipanggil dan dapet sertifikat.

Alhamdulillah jam 1 dah beres. Jadi total gak nyampe 2 jam prosesnya. Menurut saya, cukup rapih pengaturannya, yang ngantri juga alhamdulillah disiplin gak maen serobot dan pada jaga jarak.

Oiya, klo ada yang nanya, kenapa sih harus booster, trus klo gak booster gimana? Saya pernah baca penelitian, kesimpulannya 6 bulan setelah vaksin kedua, daya tahan tubuh kita terhadap covid19 tuh menurun. Jadi butuh booster untuk naekin lagi. Padahal sekarang varian omicron lagi mulai naik. Jadi ya mumpung booster dah digratisin sama pemerintah, ya kenapa gak nyoba. Oiya klo mau vaksin jangan lupa makan dulu sebelumnya, dan bekel minum sama pulpen.

Semoga Bermanfaat!

Metode Self-supervised – Ishan Misra

Saya lanjutkan pembahasan kuliah Ishan Misra tentang Self-supervised. Pada tulisan sebelumnya telah dibahas tentang trivial solutions. Yaitu dimana sistem menghasilkan fitur yang sama untuk semua input gambar. Representasi yang dipelajari menjadi tidak dapat digunakan untuk task recognition downstream. Atau bisa dikatakan nilai fungsi encodernya menjadi konstan.

Untuk mengatasi permasalahan trivial solutions ini ada 2 metode self-supervised yang dapat digunakan yaitu:

  1. Maximize similarity
  2. Mengurangi redundancy

Untuk maximize similarity beberapa teknik yang bisa digunakan adalah:

  1. Contrastive Learning (MoCo, PIRL, SimCLR)
  2. Clustering (DeepCluster, SeLA, SwAV)
  3. Distillation (BYOL, SimSiam)

Sementara untuk redundancy reduction contohnya adalah Barlow Twins.

Untuk menguji metode SSL diatas, sebuah subset dari dataset Imagenet dataset yang memiliki 1,3 juta gambar dengan lebih dari 1000 kategori tanpa label digunakna untuk melakukan pre-train pada model Resnet-50 yang diinisialisasi secara random. Hasil pre-train akan ditransfer ke downstream task dengan 2 kemungkinan:

  1. Training sebuah klasifier linear pada fitur yg dibekukan (frozen)
  2. Finetuning keseluruhan jaringan

Contrastive Learning

Teknik ini digunakan untuk mempelajari fitur umum dari dataset tanpa label dengan mengajari model datapoin mana yang mirip dan yang mana yang berbeda.

Dengan cara ini kita dapat melatih model untuk mempelajari data tanpa membutuhkan anotasi atau lebel (Self-Supervised learning)

Beberapa teknik contrastive learning diantaranya:

  1. Pretext-Invariant Representation Learning (PIRL)
  2. SimCLR
  3. MoCo

Contohnya kita punya sekelompok gambar yang berhubungan (related) dan unraleted contohnya biru dengan biru tua, hijau dengan hijau muda dst

Kemudian gambar-gambar tersebut dimasukan ke jaringan siamese dan dihitung fitur imagenya (embeddingnya). Embedding adalah mapping dari variabel diskret/kategorikal ke vektor kontinu. Neural network embeddings berguna karena dapat mengurangai dimensi dari variabel kategorikal dan dapat merepresentasikan kategori secara berarti pada transformed space.

Kemudian dari loss function terlihat bahwa gambar yang berhubungan memiliki nilai loss yang lebih kecil dibandingkan gambar yang tidak berhubungan.

PIRL (Pretext Invariant Representation Learning)

Sebuah Image I dan augmentasinya I^t dimasukan ke jaringan siamese dan dihitung contrastive learning loss sehingga jaringan menjadi invariant terhadap pretext task. Tujuannya adalah untuk mencapai kemiripan yang tinggi pada image dan fitur patch pada gambar yang sama. Dan kemiripan yang rendah pada fitur dari image random lainnya. Pretext task dari PIRL mencoba mencapai invariance terhadap data augmentasi, tidak untuk memprediksi data augmentasi. Image augmentasi dibuat dengan pretext task seperti jigsaw/rotasi.

Loss functionnya membandingkan image fetaure dan patch feature. Dimana loss functionnya lebih kecil pada gambar yang sama, dibandingkan loss function pada gambar yang random.

Sampai disini dulu, insyaallah besok akan saya lanjutkan penjelasan tentang metoda PILR

https://towardsdatascience.com/understanding-contrastive-learning-d5b19fd96607

tentang embedding

https://towardsdatascience.com/neural-network-embeddings-explained-4d028e6f0526

Self Supervised Learning pada Komputer Vision – Ishan Misra

Saya baru dengerin kuliah Ishan Misra tentang Self-Supervised learning pada komputer vision. Menurut dia fokus penelitian komputer vision saat ini adalah bagaimana belajar representasi visual dari supervised data dan menggunakan representasi ini (weight modelnya) sebagai inisialisasi untuk task lainnya yang memiliki data berlabel yang sedikit. Proses memberi label pada data itu mahal, contohnya dataset Imagenet memiliki 14 juta gambar dengan 22 ribu kategori. Proses pemberian labelnya membutuhkan 22 tahun (human years)

Ada 2 teknik yang sedang berkembang untuk menangani kesulitan pemberian label ini, yaitu dengan:

  1. Semi-automatic process : misalnya dari hastag gambar, atau dari info GPS
  2. Self-supervised learning: menggunakan data dan dipelajari data, atau dengan prediksi bagian data dari bagian lainnya.

Pada komputer vision ada yang disebut pretext task. Pretext task ini adalah task self-supervised learning yang digunakan untuk learning visual representation. Tujuannya representasi yang dipelajari atau weight model yang diperoleh dapat digunakan untuk downstream task. Pretext task biasanya dilakukan pada sebuah properti yang ada pada dataset. Sementara downstream task yang dimaksud adalah task yang dilakukan machine learning seperti klasifikasi gambar atau deteksi obyek.

Contoh pretext task pada image:

  1. Prediksi posisi relatif sebuah patch pada gambar
  2. Prediksi tipe permutasi sebuah patch gambar, misalnya pada puzzle
  3. Prediksi jenis rotasi yang terjadi pada sebuah gambar

Pada gambar diatas contohnya ada dua patch pada gambar kucing, kotak biru diketahui posisinya dan kotak merah yang belum diketahui. Kemudian akan dilakukan prediksi posisi kotak hitam ada dimana. Ada 8 kemungkinan posisi dari kotak merah, sehingga menjadi klasifikasi 8 kelas menggunakan dua jaringan CNN dengan masing2 memiliki input kotak biru dan merah.

Pada gambar diatas ada 9 patch gambar, yang posisinya termutasi dengan salah satu dari permutasi N. Kemudian mesin akan melakukan klasifikasi N-kelas dengan N << 9!

Pada gambar diatas mesin mendapat input sebuah gambar yang telah dirotasi sebanyak 0, 90, 180 dan 270 derajat. Mesin kemudian diminta melakukan klasifikasi 4 kelas untuk menentukan gambar tersebut termasuk dalam rotasi yang mana.

Namun ternyata ada mismatch antara pretext task dengan apa yang diinginkan pada task sebenarnya (transfer task). Sehingga apa yang diselesaikan pada saat pretext task tidak sesuai dengan final task.

Contohnya pada gambar diatas, dilakukan pretraining dengan model jigsaw di bagian kiri. Kemudian hasil representasinya digunakan untuk transfer task di sebelah kanan, misalnya untuk deteksi obyek atau klasifikasi gambar. Hasilnya bisa dilihat pada gambar berikut ini:

Terlihat dengan jaringan resnet5 akurasinya terus meningkat pada setiap layer, mulai dari convolutional 1, resnet2, 3 dan 4. Namun terjadi penurunan pada layer resnet 5. Karena model pada layer tersebut tidak berhasil melakukan generalisasi. Model tersebut hanya bagus untuk task jigsaw. Pada kasus ini, gak gak ngaruh berapa layer yg digunakan, polanya akan sama, yaitu ada penurunan performa di layer terakhir, karena dia spesifik ke task tertentu. Jadi walaupun misalnya layer 5 kita buang, hasilnya juga tidak akan memuaskan.

Lantas apa yang kurang dari pretext task (general proxy task) ini?

Sebelumnya kita harus mengetahui bahwa fitur pre-training harus memenuhi dua karakteristik dasar yaitu:

  1. Harus dapat merepresentasikan bagaimana gambar-gambar berhubungan (relate) satu sama lain
  2. Robust (kuat) terhadap faktor nuisance atau invariance. Maksudnya mesin harus mengenali obyek yang sama walaupun memiliki lokasi yang berbeda pada gambar, atau memiliki pencahayaan yang berbeda, atau memiliki warna yang berbeda.

Salah satu metode yang popular untuk self-supervised learning adalah untuk mempeljari fitur yang robust terhadap augmentasi data. Contohnya pada gambar rusa berikut ini:

Pada gambar diatas terlihat ada sebuah gambar rusa, yang telah diaugmentasi. Ada yang posisinya diubah, ada yang warnanya diubah bahkan ada yang resolusinya berubah. Sistem yang dibangun harus dapat mengenali bahwa gambar-gambar tersebut adalah rusa. Dengan berbagai variasinya.

Pada gambar diatas, gambar rusa dgn berbagai teknik data augmentasi, di masukin ke encoder (assigning method), kemudian dihitung kesamaannya (maximize similarity), dicari nilai gradientnya dan dilakukan backpropagation. Pengukuran akan dilakukan menggunakan loss function (bisa dengan max cosine similarity, minimazi equal distance, dll). Jaringan akan mempelajari representasi dan menghasilkan representasi konstan untuk kedua augmentasi tersebut.

Inilah yang kemudian disebut sebagai trivial solution, dimana sistem robust terhadap invariance, namun menghasilkan fitur yang sama untuk semua input gambar. Sistem ini tidak dapat menangkap fitur yang mengenali bagaimana satu gambar berhubungan (relate) dengan gambar lainnya. Representasi ini menjadi tidak dapat digunakan untuk task downstream recognition.

Masih panjang kuliahnya, sementara sampai disini dulu, besok akan saya lanjutkan pembahasannya. Materinya bisa dilihat pada link berikut:

https://atcold.github.io/NYU-DLSP21/en/week10/10-1/

slidenya ada disini:

https://drive.google.com/file/d/1BQlWMVesOcioW69RCKWCjp6280Q42W9q/edit

Videonya:

video

Semoga Bermanfaat!

Hidden Markov Model

Hari ini saya lagi belajar tentang Hidden markov model (HMM). HMM ini adalah pemodelan sistem statistik dimana ada proses markov dan proses yang tidak dapat diamati (unobserved). Jelasin teorinya agak ribet, tapi ada video bagus berikut ini yang ngejelasin HMM dengan mudah:

Contohnya di video itu ada Alice dan Bob, mereka berdua berada di kota yang berbeda (LDR ceritanya). Misalnya Alice di Jakarta, Bob di Bandung. Trus mereka suka telpon-telponan. Si Bob sering cerita hari ini dia lagi hepi atau lagi sedih (grumpy). Nah dari cerita si Bob itu Alice coba nebak cuaca di Bandung pada saat itu kayak gimana. Kondisi cuaca ini yang disebut hidden state. Caranya si alice bikin dulu model markovnya. Kemudian dari model markov itu dia bisa memprediksi probabilitas cuacanya.

Model HMM memiliki beberapa komponen: ada alphabet, kumpulan state, probabilitas transisi antara state, start probability dan emission probability, seperti di slide berikut:

Terus HMM ini disebut juga memoryless

Dengan HMM kita bisa ngitung 3 jenis perhitungan berikut: decoding, evaluation dan learning:

Untuk persoalan decoding digunakan algoritma Viterbi. Persoalan backward dengan algoritma backward. Sementara untuk persoalan learning bisa menggunakan algoritma baum-welch. Sampai disini dulu semoga bermanfaat!

ICE Institute

Materi kuliah saya tentang Keamanan Jaringan sekarang bisa diakses di ICE institute. ICE ini platform belajar digital yang disediakan Kemendikbud, UT dan kerjasama dengan berbagai kampus. Jadi kayak SPADA yang dulu. ICE ini katanya dipake juga buat program Merdeka Belajarnya mas menteri.

Nah dari kampus ternyata mata kuliah saya termasuk 1 dari 10 mata kuliah yang diajuin ke ICE. Konon dipilih karena topiknya populer. Materi keamanan jaringan ini bisa diakses di sini:

https://icei.ac.id/courses/course-v1:TELUx+DCH3D3+2021.2/about

Materi kuliah ini sebenernya sama dengan materi kuliah di CELOE. Celoe tuh platform kuliah onlinenya tel-u. Jadi karena untuk anak D3 teorinya gak terlalu banyak. Lebih banyak praktek. Materi di ICE ini materi kamjar tahun 2020. Nah di ICE ini sayangnya gak interaktif bentuknya, jadi mahasiswa register, ngeliat materi, ngerjain tugas udah deh dapet nilai. Beda banget dengan kuliah yg saya kasi di kelas. Karena biasanya tiap semester materinya saya update, terus klo di kelas prakteknya lebih bebas. Kalo online emang agak terbatas perangkat/platform yang bisa dipakte buat latihan. Terus saya juga gak bisa mantau, berapa orang yang ikut kuliah ini. Karena di tel-u kayaknya dihandle sama tim Celoe. Tapi ada mahasiswa yang kirim email nanya2 tentang kuliah ini dari Universitas IVET Semarang. Yah semoga materi kuliahnya bermanfaat. Oiya, kalo ada siswa yang join kelas saya di ICE silahkan jangan ragu2 nanya ya.

Semoga Bermanfaat!

Pengalaman tes TPA online

Kampus minta saya diminta ikut tes TPA (Tes Potensi Akademik), untuk sebuah syarat administrasi. Cuma karena masih pandemi jadinya saya coba daftar tes TPA online. Ternyata koperasinya bappenas ada nyelenggarain ujian TPA online. Pendaftarannya gampang, berikut ini saya share pengalaman tes tpa online:

Pendaftaran

  1. Buka halaman https://koperasi.bappenas.go.id/jadwal-tpa/
  2. Disana ada banyak jadwal TPA & TOEFL, ada yang online dan ada yang offline. Kalo ada jadwal yang cocok tinggal klik rincian. Nanti akan muncul rincian tentang tes tersebut seperti tanggal ujiannya, batas pendaftarannya dll. Jangan lupa baca bagian deskripsi tes online di link berikut, disana ada penjelasan teknis tentang tes ini. Waktu saya daftar syarat2nya ada laptop yang punya webcam dan mic. Sistem operasinya harus windows, mereka belum support Mac. Ada akses internet, perlu kuota 2 GB, speed 2 MBps, . Punya whatsapp. Punya Cermin, dan papan tulis kecil atau plastik mika yang bisa dihapus untuk corat-coret.
  3. Terus klo udah cocok klik tombol Daftar Jadwal ini di web REI Education Consultant
  4. Di web REI ini tar pilih lagi jadwalnya terus akan diarahkan ke sebuah form
  5. Di Form ini diminta masukin alamat email, upload bukti transfer, foto selfie, identitas kayak nama, nik, alamat, ttl, no whatsapp sama upload scan scan KTP.
  6. Trus cek email tar dapet akun buat login ke sistemnya dan notifikasi pendaftaran telah berhasil.
  7. Waktu itu biayanya sekitar 500 ribu udah sekalian ongkos kirim sertifikatnya.

Persiapan

  1. Menjelang hari ujian saya dapat email dari UUO bappenas tentang petunjuk teknis ujian. Waktu itu saya daftar ujiannya hari sabtu, batas akhir pendaftaran hari rabu, nah hari kamisnya saya dapet email dari UUO bappenas.
  2. Di email itu ada info tentang cara instalasi perangkat. Jadi ujiannya tuh pake SEB (Safe Exam Browser) dan Zoom. SEB ini browser khusus buat ujian, jadi klo dah buka browser ini, kita cuman bisa terhubung ke aplikasi buat ujian, dan gak bisa buka aplikasi lainnya. SEB ini perlu browser firefox. Jadi tar diminta install Firefox dulu, trus unduh file konfigurasi SEB.
  3. Zoom yang dipake juga beda. Jadi walaupun kita udah punya Zoom, tetep musti install zoom dari sana.
  4. Terus ada info tentang Tes TPA, tesnya dibagi 3 kategori, verbal, numerik dan Penalaran. Verbal ada 90 soal dengan waktu 60 menit. Numerik juga 90 soal selama 60 menit. Penalaran 70 soal selama 60 menit.
  5. Ada tautan juga yang berinsi info tentang tutorial penggunakan aplikasinya
  6. Dan satu lagi diminta join ke grup WA khusus peserta dan panitia ujian tes tersebut.
  7. Instalasinya gak ribet sebenernya. Tinggal ngikutin petunjuk yang diberikan. Kalo bingung bisa nanya juga di grup WA.
  8. Kalo instalasinya berhasil kita bisa nyoba ikut simulasi tes. Jadi tar kita bisa nyoba ikut simulasi tes, ada beberapa soal yang diberikan ada timernya juga.
  9. Trus jangan lupa setting cermin. Cermin ini mereka mintanya cermin yang gede, ukuran setengah badan. Cermin ini ditaro dibelakang/atau samping kita. Cermin ini tar harus disetting supaya panitia bisa ngeliat layar laptop kita. Jadi bisa coba buka zoom, terus cerminnya disetting biar bisa keliatan layar laptop kita di cermin tersebut.
  10. Untuk corat-coret gak boleh pake kertas, jadi pilihannya bisa pake whiteboard kecil yang bisa dihapus, atau map mika plastik yang bisa dihapus juga. Tentunya dengan spidol non-permanent.
  11. Trus setting ruangan diminta klo bisa dikamar, yang kita sendirian, alias gak ada orang lain yang bantuin kita.

Hari-H Ujian

  1. Di email saya dapet jadwal ujian jam 7.30. Dan diminta jam 7 udah beres semua instalasi.
  2. Jadi jam 7 saya coba hidupkan aplikasinya dan konek ke zoom. Oiya link zoom dishare di grup WA pas hari H.
  3. Join zoom harus pake no peserta kita
  4. sekitar Jam 7.45-an ada semacam penjelasan dari panitia tentang pelaksanaan tes, setelah itu saya dimasukan ke break room zoom
  5. Masing-masing break room ada 1 pengawas. Sekitar jam 8, di room itu semua peserta diabsen satu2 sama pengawas. Diminta nunjukin ktp juga, oiya kamera harus on terus. Terus setiap peserta diminta ngeliatan kondisi ruangan dan mejanya. Jadi laptopnya diputer 360 derajat, kayaknya buat mastiin gak ada orang lain. Trus meja juga dicek ada contekan apa gak. Cermin juga diminta diatur lagi biar pengawas bisa ngeliat layar laptop kita.
  6. Sekitar jam 8.30 baru mulai ujian.
  7. Ujiannya kan dibagi 3, untuk masuk ke masing2 ujian tuh ada kode yang harus diinputkan ke aplikasi. Kode ini dishare pengawas di zoom.
  8. Walaupun pelaksanaan masing-masing ujian itu 60 menit, tapi klo kita udah beres di satu ujian, bisa langsung pindah ke ujian berikutnya, tinggal minta kode ujiannya ke pengawas.
  9. Klo udah beres semua ujian, musti lapor ke pengawas, trus tar sama dia kita dibalikin lagi ke room utama.
  10. Di room utama tar diminta ngapus semua coret2 yang di whiteboard atau plastik mika. Trus diminta tunjukin whiteboardnya ke panitia. Kalo udah ok bisa leave.

Hasil ujian

  1. Abis ujian, panitianya ngumumin hasil ujian keluar 3 hari kerja setelah ujian, kalo gak ada kecurangan. Saya waktu itu ujiannya Sabtu, hari Rabu berikutnya udah diemail nilai ujiannya.
  2. Scan sertifikatnya dikirim ke email hari berikutnya, hari kamis.
  3. Terus sertifikatnya dikirim ke alamat yang kita daftarin. Waktu itu saya nerima sertifikatnya sekitar seminggu setelah ujian.

Tentang ujiannya, soalnya banyak banget dan susah menurut saya, mana waktunya juga cepet banget. Pas bagian ngitung2 kayaknya saya cuman berhasil ngeberesin setengah dari semua soalnya. Sisanya nembak :) Karena menurut panitia gak ada nilai minus. Yang pas bagian penalaran juga lumayan banyak yg nembak. Intinya saya kurang persiapan untuk ujian TPA kali ini. Paling malamnya cuman sempet nonton bentar video2 TKDA . Soalnya gak jauh beda emang sama TKDA, cuman lebih banyak. Tapi alhamdulillah nilanya mencukupi :) Trus jangan lupa koneksi internet musti stabil, karena koneksi saya sempet agak lemot, trus sempet putus. Untungnya langsung cepet nyambung lagi dan bisa lanjut ujian lagi. Ok sampai disini dulu, semoga bermanfaat!

Sejarah Islam – Karen Armstrong -2

Saya lanjutkan kronologi sejarah Islam menurut buku Karen Armstrong – Islam A brief History. Pada bagian 1, telah ditulis sejarah dari turunnya Al-Quran hingga wafatnya Ali. Sekarang dilanjutkan dengan kekhalifaan Muawiyah.

661-680 M : Kekhalifahan Muawiyah I. Muawiyah bin Abu Sofyan mendirikan dinasti Umayyah, beliau memindahkan pusat pemerintahan dari Madinah ke Damaskus

669 M: Hasan Bin Ali meninggal di Madinah

680 M: Yazid I menjadi kalifah Umayyah ke 2 setelah ayahnya Muawiyah meninggal

680-692: Fitnah kedua. Perang saudara kembali terjadi

680 : Muslim di Kufah yang menyebut dirinya Shiah- Ali (pendukung Ali) mengangkat Husain putra kedua Ali bin Abi Thalib sebagai kalifah. Husaih berangkat dari Madinah ke Kufah dengan sedikit tentara dan dibunuh di Kerbala oleh pasukan Yazid. Abdullah bin Zubair memberontak terhadap Yazid di Arab

683 M: Yazid I meninggal. Putra Yazid yang masih kecil Muawiyah II meninggal. Marwan I menjadi khalifah, didukung oleh Suriah.

684 M: Pemberontakan Khawarij. Khawarij semakin populer di Irak dan Irak. Munculnya Syiah di Kufah.

685-705: Kekhalifahan Abdul Malik, berhasil mengembalikan kekuasaan Umayyah

691 M: Umayyah mengalahkan pemberontak khawarij dan Syiah. Pembangunan Dome of the rock (Kubah batu) di Yerusalem

692 M: Pasukan Umayah mengalahkan dan membunuh Abdullah bin Zubair. Munculnya gerakan keagamaan di Basrah, Madinah dan Kufah yang mendorong penerapan ajaran Quran yang lebih ketat dalam kehidupan pribadi dan masyarakat

705-717 M; Khalifah Al-Walid; pembebasan Afrika Utara dan Spanyol

717-720 Khalifah Umar bin Abdul Aziz; beliau mendukung gerakan keagamaan untuk kembali ke Quran

720-724: Khalifah Yazid II, pemberontakan khawarij dan Syiah

724-743: Khalifah Hisham I

728: Hasan Basri wafat, ulama perawi hadis

732 M: Perang Tours (Battle of Poitiers) antara bangsa Frank yang dipimpin Charles Martel mengalahkan pasukan Muslim Spanyol yang dipimpin Al-Ghafiqi gubernur Andalusia.

Abu Hanifah memulai studi Fiqih; Muhammad Ibnu Ishaq menulis biografi Rasulullah SAW

743-744: Kelompok Abbasiyah mendukung pemberontakan Syiah terhadap bani Umayyah di Iran

743 M: Khalifah Walid II

744-749 M: Marwan II menaklukan pasukan Syiah dan mengembalikan kekuasaan Umayyah.

749 M: Kelompok Abbasiyah menaklukan Kufah dan mengalahkan bani Umayyah

Sampai disini dulu, nanti insyaallah akan saya lanjutkan pada tulisan berikutnya dengan kekhalifahan Abbassiyah. Semoga Bermanfaat!

Referensi

Buku Karen Armstrong, Islam A brief History:

https://archive.org/details/IslamAShortHistoryKarenArmstrong/

Sejarah Islam – Karen Armstrong

Saya lagi baca buku Karen Armstrong judulnya Islam A short History. Bukunya menarik, didalamnya dia ada nulis sejarah Islam secara kronologis. Dia mulai dari saat Rasulullah SAW pertama nerima wahyu. Berikut ini urutan sejarah islam menurut Karen Armstrong:

610 M : Rasulullah pertama kali menerima wahyu di Mekah, dan mulai dakwah secara terbuka 2 tahun kemudian

616 M : Hubungan antara pengikut Rasulullah dengan para penguasa Mekah semakin memburuk, ada penyiksaan dan posisi Rasulullah semakin terancam

620 M: Masyarakat Arab dari Yathrib mulai bertemu dengan Rasulullah, dan mengundang Rasul untuk memimpin masyarakat Yathrib

622 M: Rasulullah bersama sekitar 70 keluarga muslim hijrah dari Mekah ke Madinah (Yathrib).

624 M : Perang Badar:

625 M: Perang Uhud; Bani Qainuqa dan Bani Nadir diusir dari Madinah

627 M: Perang Khandak; Pengkhianatan Bani Qurayzah

628 M: Perjanjian Hudaibiyah. Banyak suku-suku di Arab yang bergabung dengan Muslim

630 M : Mekah melanggar perjanjian Hudaibiyah. Pembebasan Mekah

632 M: Rasulullah wafat; Abu Bakar diangkat menjadi khalifah

632-634 M: Kekalifahan Abu Bakar. Perang Riddah terhadap suku yang memberontak dan menolak membayar zakat. Abu Bakar berhasil menyatukan kembali suku-suku di arab

634-644 M: Kekalifahan Umar Bin Khattab.

638 M: Pembebasan Yerusalem

641 M: Pasukan Muslim mengalahkan tentara Persia, pembebasan Syria, Palestina dan Mesir. Pembangunan kota-kota di Kufah Basrah dan Fustat untuk pasukan muslim.

644 M: Kalifah Umar dibunuh oleh tahanan perang Persia. Usman Bin Affan terpilih jadi kalifah ketiga

644-650 M: Pembebasan Syprus, Tripoli, Iran, Afganisthan dan Sind (Pakistan)

656 M : Khalifah Usman dibunuh, Ali diangkat menjadi Khalifah

656-660 M: Fitnah pertama, perang saudara

656 M: Perang Jamal: Thalha, Zubair dan Aishah dengan pendukung Ali. Di Siria oposisi dipimpin oleh Muawiyah bin Abu Sofyan

657 M: Usaha perdamaian di Siffin. Ketika usaha perdamaian gagal Muawiyah berontah terhadap Ali dan mendeklarasikan diri sebagai Khalifah di Yerusalem. Khawarij memisahkan diri dari kubu Ali

661 M: Ali dibunuh oleh Khawarij. Pendukung Ali mengangkat Hasan sebagai khalifah berikutnya. Namun Hasan mengadakan perjanjian dengan Muawiyah dan kembali ke Madinah.

Masih banyak kronologi sejarahnya. Insyallah pada tulisan berikutnya saya lanjutkan. Semoga Bermanfaat!

Buku Karen Armstrong – Islam – A Short History bisa diakses pada link berikut:

https://archive.org/details/IslamAShortHistoryKarenArmstrong/

Decision Tree – Overfitting

Saya lanjutkan bahasan tentang Decision Tree . Salah satu kelemahan Decision Tree (DT) adalah Overfitting. Contoh overfitting misalnya pada kasus ada noise (data salah), kemudian dibentuk pohon yang mengakomodasi data ini. Pohon ini cenderung membesar. Jadi tree ini dikatakan terlalu ditune untuk mengakomodasi data training tertentu.

error train (h) adalah error tree pada saat training. Sementara error train (h’) error training pada hipotesis lain. Error pada train misalnya terjadi karena datanya sangat besar dan kompleks. Error d(h) adalah true error (eror pada tes data), misalnya error pada data yang besar sekali.

Untuk mencegah overfitting:

  1. Berhenti ketika split data tidak signifikan secara statistik
  2. Atau terus menumbuhkan pohon kemudian melakukan post pruning, atau dipotong daunnya secara selektif hingga performa tes validasi membaik.

Bagaimana memilih pohon yang baik?

  1. Mengukur performa data training
  2. Mengukur performa menggunakan dataset validasi yang terpisah (banyak digunakan)
  3. Menggunakan MDL (minimum disruption length) atau minimize

     size(tree) + size (misclassification(tree))

Pada metode 2, kita bisa membagi dataset jadi 3, data training, tes dan validasi. Pada saat training diukur performanya secara bertahap, mulai dari 1 simpul 2 simpul dan seterusnya. Pada saat tree mulai terbentuk, kemudian dilakukan pengujian dengan data validasi. Disini diperhatikan grafik perform tree. Biasanya performanya akan meningkat ketika simpul2nya ditambah. Namun akan ada satu titik dimana performanya akan menurut. Nah pada saat inilah terjadi overfitting, dan sebaiknya pada saat ini dihentikan penambahan simpulnya.

Sementara pada teknik MDL diukur ukuran tree dan ukuran kesalahan klasifikasinya (misclassification). Pada MDL ini dicari ukuran tree yang kecil namun kesalahannya juga kecil. Titik ini yang disebut optimal. Karena bisa saja ukuran tree nya membesar dan error nya mengecil.

Teknik lainnya adalah Pruning (reduced-error pruning). Disini pohon ditumbuhkan dulu sampai penuh. Teknik ini menggunakan data validasi juga. Kemudian dilakukan pemotongan simpul, kemudian diuji performanya dengan data validasi. Bila performanya meningkat, kemudian lakukan lagi pemotongan simpul berikutnya dan diuji lagi performanya dengan data validasi. Proses ini dilakukan berulang-ulang hingga didapat nilai performa yang terbaik dengan tree terkecil. Metode pruning ini bisa meningkatkan performa pada data tes.

Bagaimana bila datanya sedikit? bisa digunakan juga metode cross-validation.

Sampai disini dulu. Semoga Bermanfaat!

Wolfram – New Kind of Science

Hari ini saya baru baca buku Stephen Wolfram – New Kind of Science. Wolfram ini ahli fisika, komputer dan matematika. Jadi dia berkesimpulan bahwa perkembangan komputer dan pemrograman ini didukung oleh perkembangan matematika. Namun pada kenyataannya di dunia banyak hal yang terlalu kompleks untuk dijelaskan dengan rumus matematika. Misalnya bentuk pohon, bagaimana kita bisa menjelaskan bermacam-macam bentuk pohon dengan rumus matematika yang ada. Atau bentuk kristal salju yang bermacam-macam. Komputer bisa saja membuat program untuk menghitung bentuk pohon maupun kristal salju. Namun membutuhkan algoritma pemrograman yang panjang dan kompleks.

Dia mengusulkan perlu pendekatan baru untuk menjelaskan berbagai hal kompleks tersebut. Caranya dengan membuat sebuah program sederhana yang kemudian bisa berkembang menghasilkan berbagai bentuk yang kompleks. Menurut dia penemuan ini bisa membuat revolusi baru dalam ilmu fisika, kimia, biologi dan bidang lainnya.

Contohnya adalah dia menggunakan celular automata yang dia sebut untuk mengembangkan bentuk yang sangat kompleks seperti pada gambar berikut:

Bukunya bisa diakses secara daring pada tautan berikut:

https://www.wolframscience.com/nks/

Sedikit penjelasan tentang buku ini bisa dilihat disini:

https://writings.stephenwolfram.com/2017/05/a-new-kind-of-science-a-15-year-view/

https://en.wikipedia.org/wiki/A_New_Kind_of_Science

Tentang Stephen Wolfram:

https://en.wikipedia.org/wiki/Stephen_Wolfram

Video penjelasan wolfram tentang teorinya bisa dilihat disini:

Video kuliah umumnya di kampus university of california bisa dilihat disini: