![]() 44
?
??? -> weak atau basic classifiers
?
?
-> tingkat pembelajaran (learnig rate)
H(x) -> dilambangkan dengan F(x) strong atau final classifier
Kelebihan dari algoritma Adaboost :
Adaboost
mampu
mengurangi
nilai
bias
maupun
perbedaan
pada
weak
classifier.
Adaboost memiliki kemampuan generalisasi yang baik.
Output Adaboost mengkonversi ke logaritma dengan rasio terdekat.
Adaboost
dapat
dilihat
sebagai
pemilih
fitur
dengan
strategi
berprinsip
(minimalisasi dari batas atas error).
Adaboost dekat dengan pembuatan keputusan linier.
Algoritma: Algoritma Adaboost (Freund and Schapire)
Input : Sebuah algoritma pembelajaran yang lemah (WeakLearn), sebuah integer
t
yang
menspesifikasi
banyaknya
iterasi,
dan
data
training
sebanyak
N
{(x1,y1),...,(x
N
,y
N
)}.
Output : strong classifier F.
Inisialisasi vektor weight ?
?
=
?
, untuk i = 1,
, N.
for t ...
1, 2, . . . , t do
p
t
...
w
t
/
?
?
?
?
?
?
Panggil WeakLearn,
masukkan distribusi pada
p
t
;
akan didapat sebuah
pembelajaran weak baru h
t
: X -+
±1.
|