58
Training
Backpropagation
hanyalah
salah
satu versi
dari
gradien
descent,
suatu
jenis
algoritma
yang
mencoba
untuk
mengurangi
nilai
target
(error,
dalam
kasus
jaringan saraf) dalam tiap langkah. Algoritma ini bekerja seperti berikut:
Feed
forward:
Nilai
dari
simpul
output
dihitung
berdasarkan
nilai
simpul
input
dan bobot-bobot
awal.
Nilai-nilai
dari
simpul
input
ini dikombinasikan
dalam
hidden
layers,
dan
nilai
dari
simpul-simpul
di hidden
layer
digabungkan
untuk
menghitung
nilai output.
Backpropagation:
Error dalam output dihitung
dengan mencari
beda antara output
terhitung
dan output
yang
diinginkan.
Kemudian,
error
dari output
dimasukkan
kembali
ke
hidden layer
secara
proporsional, sesuai
dengan
bobotnya. Hal
ini
akan
membuat
error dihitung
untuk
tiap
simpul
output
dan
simpul
tersembunyi
dalam
jaringan.
Akhirnya,
error
di tiap
simpul
tersembunyi
dan
simpul
output
digunakan
oleh
algoritma
untuk
mengatur
bobot
yang
masuk
ke simpul
untuk
mengurangi error.
Proses
ini berulang
untuk
tiap
baris
dalam
himpunan
traininng.
Tiap
lewatan
terhadap
tiap
baris
dalam
himpunan
traininng
disebut
epoch.
Himpunan
training
ini
akan
digunakan
berulang
kali,
sampai
error
yang
dihasilkan
tidak
lagi
berkurang. Pada
titik
tersebut jaringan saraf
dianggap teah
terlatih untuk
menemukan
pola dalam
himpunan
test. Karena
banyak
sekali
parameter
yang
mungkin
ada
dalam jaringan
tersembunyi,
suatu
jaringan
saraf
dengan
simpul-
simpul
tersembunyi
yang
cukup
akan
selalu
menyelesaikan
training
set jika
dibiarkan
berjalan
cukup
lama.
Untuk
menghindari
jaringan
saraf
yang overfitted
|