![]() 12
2.1.6. Markov-Chain
Apabila
suatu
kejadian
tertentu
dari
suatu
rangkaian eksperimen
tergantung dari
beberapa
kemungkinan
kejadian,
maka
rangkaian
eksperimen tersebut
disebut
proses
stokastik
(
Judge
G.G
and
E.R
Swanson, 1981, P.9) . Proses stokastik dengan waktu diskrit serta properti
markov didefinisikan sebagai rantai markov.
Misalkan suatu proses stokastik { X
n
,
n=0,1,2,
} apabila X
n
=
I,
maka
proses
dikatakan berada
pada
state
i.
Misalkan apabila
proses
berada
pada
state-i
maka
akan
berpindah
ke
state-j
dengan
peluang
p
ij
,
dimana p
ij
tidak tergantung pada n.
Proses X
n
dinamakan rantai markov jika,
P( X
n
1
j
/
X
n
i, X
n
1
i
n
i
,..., X
1
i1
,
X
0
i
0
)
P( X
n
1
j
/
X
n
i)
(2.1)
Untuk
semua i
0,
i1,
,
i
n-1
,i,j dan
semua n
>
0.
Maka
proses
stokastik tersebut disebut Markov Chain Stationer.
Persamaan (2.1) dapat diinterpretasikan sebagai berikut :
Untuk
suatu rantai
markov, peluang bersyarat kejadian
yang akan
datang X
n+1
,
hanya tergantung pada kejadian sekarang X
n
.
Hal
ini disebut
markovian. Karena
peluang
dimulai
non-negatif dan
proses
harus
melakukan transisi ke berbagai state, maka :
pij
0,
i,j µ 0 ;
pij
1, i
0,1,2,...
j
1
(2.2)
Untuk
selanjutnya,
mengingat
aplikasi
rantai
markov
pada
|