Home Start Back Next End
  
 ?
44
?
??? -> weak atau basic classifiers
?
?
-> tingkat pembelajaran (learnig rate)
H(x) -> dilambangkan dengan F(x) strong atau final classifier
Kelebihan dari algoritma Adaboost :
Adaboost 
mampu 
mengurangi 
nilai 
bias 
maupun 
perbedaan 
pada 
weak
classifier.
Adaboost memiliki kemampuan generalisasi yang baik.
Output Adaboost mengkonversi ke logaritma dengan rasio terdekat.
Adaboost 
dapat 
dilihat 
sebagai 
pemilih 
fitur 
dengan 
strategi 
berprinsip
(minimalisasi dari batas atas error).
Adaboost dekat dengan pembuatan keputusan linier.
Algoritma: Algoritma Adaboost (Freund and Schapire)
Input : Sebuah algoritma pembelajaran yang lemah (WeakLearn), sebuah integer
yang
menspesifikasi 
banyaknya 
iterasi, 
dan 
data 
training 
sebanyak 
N
{(x1,y1),...,(x
N
,y
N
)}.
Output :   strong classifier F.
Inisialisasi vektor weight ?
?
=
?
, untuk i = 1,…, N.
for t ...
1, 2, . . . , t do
p
t
...
w
t
/
?
?
?
?
?
?
Panggil WeakLearn,
masukkan distribusi pada
p
t
;
akan didapat sebuah
pembelajaran “weak” baru h
t
: X -+
±1.
Word to PDF Converter | Word to HTML Converter