• istatistiksel ogrenme teorisinin temeli. vapnik ve dadasi cervonenkis tarafindan yaratilmistir. ogrenme hipotezlerinin hata sinirini belirleyen parametrik fonksiyonlardan bahseder. onemli konseptlerinden biri vc dimension'dir; temel vc teoremi hipotezin yapacagi hata sinirinin yaklasik (vc dim/l) ile orantili soyler. burada vc dim = hipotezin vc boyutu, l = sample sayisi. yani misal vc boyutu yuksek bir hipotez icin genellemenin (hipotezin yeni gelen veriyi dogru siniflandirma yeteneginin) yuksek olmasi icin bol sayida ornege ihtiyac vardir..

    boyle boyle derken margin temelli sinirlardan filan da bahsedilir ve optimizasyon teorisiyle* birlestirildiginde nur topu gibi bir ogrenme tekniginin teorik temeli olusturulur:
    (bkz: support vector machines)
hesabın var mı? giriş yap