Home Start Back Next End
  
16
digunakan
dan semua pengaturan
lainnya adalah default program WEKA  (Butler,
Webb, & Lewis, 2011).
Algoritma
pembelajaran
Bayesian  
(Lang, 2002) menggabungkan
data
pelatihan
dengan
pengetahuan
apriori untuk
mendapatkan
probabilitas
posteriori
hipotesis.
Jadi
adalah
mungkin
untuk
mengetahui
hipotesis
yang
paling
mungkin
menurut  data  pelatihan.  Dasar  untuk  semua  algoritma  pembelajaran 
Bayesian
adalah Peraturan Bayes.
P(h | D) =
P(D | h)P(h)
P(D)
P(h) 
=
kemungkinan
prior dari hipotesis h
(prior probability of hypothesis h)
P(D)  = kemungkinan
prior dari hipotesis h
(prior probability of training data D)
P(h|D)  = kemungkinan
h
pada D
(probability
of h given D)
P(D|h)  = kemungkinan
D
pada h
(probability
of D given h)
Cara
kerja
Naïve Bayes classifier
adalah sebagai
berikut:
Misal
D menjadi
seperangkat
tuple dan label
kelas
asosiasi.
Seperti
biasa,
masing-masing
tuple
direpresentasikan
oleh
sebuah
dimensional
n
vektor
atribut,
X
=
(x1,
x2,
…,
xn),
menggambarkan
pengukuran
n
yang
dilakukan
pada
tuple
dari
atribut
n,
masing-
masing,
A1,
A2,
,
An.
Misalkan
terdapat
m
classes,
C1,
C2,
…,
Cm.
Berikan
tuple,
X, pengklasifikasi
akan
memprediksikan
bahwa
X kepunyaan
kelas
yang
mempunyai
kemungkinan
posterior
tertinggi,
dikondisikan
pada
X.
Maka,
Naïve
Word to PDF Converter | Word to HTML Converter