• ismi bana ilk programcı olan ada lovelace'ı anımsatsa da aslında adaptive boosting'in kısaltılmasıdır.

    zayıf sınıflandırıcıların bir araya gelerek güçlü bir sınıflandırıcı oluşturması prensibine dayanıyor. eski mısır'ı göz önüne getirin. piramitlerin inşası için kullanılan devasa kayalar bireysel bir insan gücü ile kıpırdatılamazken işçiler bir araya gelerek bu kayaları hareket ettirebiliyorlardı.

    elimizde aslında bir karar ağacı bile bulunmuyor. decision stump dediğimiz ve en az %51 başarı sağladığını bildiğimiz tek seviyeden oluşan bir if else cümlesi var. örneğin aşağıdaki gibi bir kontrolün mükemmel çalışmayacağını tahmin edebiliyoruz.

    def checkheight(height):
    if height > 170:
    return 1 #man
    else:
    return 0 #woman

    benzer bir kontrolümüz de kişinin kilosu için olsun.

    def checkweight(weight):
    if weight > 70:
    return 1 #man
    else:
    return 0 #woman

    bu iki kontrol de tekil olarak çok başarılı sonuç vermeyecekken 0.7 x checkheight(height) + 0.3 x checkweight(weight) denkleminin sonucu tekil kontrollerden daha başarılı olabilir. denklemdeki 0.7 ve 0.3 katsayılarını hesaplamak da adaboost algoritması içerisinde gerçekleşiyor.

    (bkz: gradient boosting machines)
  • ensemble sınıfından bir makiene öğrenimi algortimasidir.
  • sonucu tahmin etmek için çok sayıda model kullanan ancak bu modellerin doğruluğuna göre ağırlıklandırılan sınıflandırma veya regresyon tekniği. mesela kredi kartı işlemlerinde sahtekarlık faaliyetlerini tespit edebilir.
    görüntüleri sınıflandırmak için basit, düşük maliyetli bir yol (örneğin, iklim değişikliği modelleri için uydu görüntülerinden arazi kullanımını tanır).

    ek: derin öğrenmeden daha düşük doğruluk payı elde eden algoritmadır.
hesabın var mı? giriş yap