[Audio] Selamat pagi/siang Bapak Dosen dan teman-teman. Perkenalkan, kami dari kelompok yang akan mempresentasikan materi tentang Algoritma AdaBoost atau Adaptive Boosting. Ini adalah salah satu algoritma ensemble learning yang sangat populer dalam dunia Data Science. Kami terdiri dari Dony Kurniawan, Alqizah Fadillah Akbar, dan Nicholas Mahardian. Presentasi ini untuk mata kuliah Data Science dengan dosen pengampu Bapak Gus Nanang Syaifuddiin. 1.
[Audio] Data Science berkembang pesat dan dibutuhkan di berbagai bidang industri. Namun, ada tantangan utama: bagaimana mengklasifikasikan data dengan akurasi tinggi? Satu model saja sering tidak cukup. Di sinilah konsep ensemble learning muncul — khususnya Adaptive Boosting atau AdaBoost, yang menggabungkan banyak model lemah untuk menghasilkan prediksi yang lebih kuat dan akurat. 2.
[Audio] AdaBoost adalah salah satu algoritma boosting paling populer. Pertama diperkenalkan oleh Freund dan Schapire pada tahun 1995. Intinya: kita gabungkan banyak model lemah (weak learner) secara berurutan. Setiap iterasi, data yang salah diklasifikasi diberi bobot lebih besar sehingga model berikutnya lebih fokus ke sana. Hasilnya adalah model yang jauh lebih akurat. 3.
[Audio] Konsep utama AdaBoost: pertama, semua data diberi bobot awal yang sama. Kedua, model pertama dilatih — setelah itu, data yang salah diprediksi mendapat bobot lebih besar. Ketiga, model berikutnya lebih fokus pada data yang susah. Keempat, proses ini diulang beberapa kali. Akhirnya, semua model digabung dengan voting berbobot untuk menghasilkan prediksi final. 4.
[Audio] Inilah inti cara kerja AdaBoost. Langkah 1: semua data diberi bobot sama 1/N. Langkah 2: latih weak learner pertama — biasanya decision stump. Langkah 3: hitung error rate dari model tersebut. Langkah 4: hitung alpha yaitu bobot model berdasarkan seberapa bagus performanya. Langkah 5: perbarui bobot data — data yang salah diklasifikasi bobotnya dinaikkan. Ulangi langkah 2-5 sebanyak T iterasi. Prediksi akhir adalah voting berbobot dari semua model. 5.
[Audio] AdaBoost memiliki banyak kelebihan yang membuatnya populer di industri. Akurasinya tinggi, mudah dikonfigurasi, dan tidak butuh tuning yang rumit. Namun ada kekurangannya juga: sensitif terhadap outlier karena bobot data yang salah terus dinaikkan. Juga lebih lambat dibanding single model karena proses iterasi berulang. Penting untuk memahami trade-off ini sebelum memilih AdaBoost untuk sebuah masalah. 6.
[Audio] AdaBoost banyak digunakan di industri nyata. Yang paling terkenal adalah penerapannya dalam deteksi wajah — algoritma Viola-Jones yang digunakan di hampir semua kamera digital menggunakan AdaBoost sebagai intinya. Selain itu, AdaBoost juga efektif untuk deteksi spam email, fraud detection di perbankan, hingga diagnosis medis dari data citra. Ini membuktikan bahwa AdaBoost bukan hanya teori, tapi sangat praktis. 7.
[Audio] Berikut adalah contoh implementasi AdaBoost menggunakan scikit-learn Python. Pertama kita import library yang dibutuhkan. Kedua kita load dataset — di sini menggunakan Breast Cancer dataset. Ketiga kita konfigurasi model: base learner adalah Decision Stump dengan max_depth=1, dan n_estimators=50 artinya kita akan membangun 50 weak learner. Keempat, kita train model dan evaluasi akurasinya. Biasanya akurasi mencapai 95%+ dengan dataset ini. 8.
[Audio] Untuk merangkum: AdaBoost adalah algoritma boosting yang adaptif, menggabungkan banyak weak learner menjadi satu strong learner. Keunggulannya ada pada kemampuannya meningkatkan fokus pada data yang sulit diprediksi. AdaBoost sangat cocok digunakan untuk klasifikasi biner dengan dataset yang bersih dan berukuran sedang. Namun harus berhati-hati dengan outlier dan noise dalam data. 9.
[Audio] Demikianlah presentasi kami tentang Algoritma AdaBoost. Semoga materi ini dapat memberikan pemahaman yang baik tentang cara kerja dan penerapan AdaBoost dalam Data Science. Kami dari kelompok — Dony, Alqizah, dan Nicholas — membuka sesi tanya jawab. Apakah ada pertanyaan dari teman-teman atau Bapak Dosen? Terima kasih banyak atas perhatiannya. 10.