![]() 16
digunakan
dan semua pengaturan
lainnya adalah default program WEKA (Butler,
Webb, & Lewis, 2011).
Algoritma
pembelajaran
Bayesian
(Lang, 2002) menggabungkan
data
pelatihan
dengan
pengetahuan
apriori untuk
mendapatkan
probabilitas
posteriori
hipotesis.
Jadi
adalah
mungkin
untuk
mengetahui
hipotesis
yang
paling
mungkin
menurut data pelatihan. Dasar untuk semua algoritma pembelajaran
Bayesian
adalah Peraturan Bayes.
P(h | D) =
P(D | h)P(h)
P(D)
P(h)
=
kemungkinan
prior dari hipotesis h
(prior probability of hypothesis h)
P(D) = kemungkinan
prior dari hipotesis h
(prior probability of training data D)
P(h|D) = kemungkinan
h
pada D
(probability
of h given D)
P(D|h) = kemungkinan
D
pada h
(probability
of D given h)
Cara
kerja
Naïve Bayes classifier
adalah sebagai
berikut:
Misal
D menjadi
seperangkat
tuple dan label
kelas
asosiasi.
Seperti
biasa,
masing-masing
tuple
direpresentasikan
oleh
sebuah
dimensional
n
vektor
atribut,
X
=
(x1,
x2,
,
xn),
menggambarkan
pengukuran
n
yang
dilakukan
pada
tuple
dari
atribut
n,
masing-
masing,
A1,
A2,
,
An.
Misalkan
terdapat
m
classes,
C1,
C2,
,
Cm.
Berikan
tuple,
X, pengklasifikasi
akan
memprediksikan
bahwa
X kepunyaan
kelas
yang
mempunyai
kemungkinan
posterior
tertinggi,
dikondisikan
pada
X.
Maka,
Naïve
|