P. 1
perceptron

perceptron

|Views: 527|Likes:
Published by BhiLa Kiranie

More info:

Published by: BhiLa Kiranie on Feb 25, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

05/18/2013

pdf

text

original

TUGAS MATA KULIAH

:

NEURAL NETWORK

OLEH KELOMPOK II: 1. Yenita Mirawanti 2. Maslim Rajab Syafrizal 3. Agus Widodo 4. Dewi Fenti Ekasari

DOSEN :

PROGRAM MAGISTER JURUSAN STATISTIKA (KOMPUTASI STATISTIK) FAKULTAS MATEMATIKA DAN ILMU PENGETAHUAN ALAM (FMIPA) INSTITUT TEKNOLOGI SEPULUH NOVEMBER SURABAYA 2010

DAFTAR ISI
BAB I SELF ORGANIZING MAPS …………………………………………………………………… 1.1 PENDAHULUAN…………………………………………………………………………. 1.1.1 PENGERTIAN…………………………………………………………………….. 1.1.2 ARSITEKTUR …………………………………………………………………….. 1.1.3 ALGORITMA ………………………………………………………………………. 1.2 BAB II PEMBAHASAN ……………………………………………………………………………. 1 1 1 2 2 3 10 10 10 10 11 12 17 17 17 17 18 20 25 25 25 25 29

LEARNING VECTOR QUANTIZATION …………………………………………………. 2.1 PENDAHULUAN …………………………………………………………………………. 2.1.1 PENGERTIAN …………………………………………………………………… 2.1.2 ARSITEKTUR ……………………………………………………………………. 2.1.3 ALGORITMA …………………………………………………………………….. 2.2 PEMBAHASAN …………………………………………………………………………….

BAB III

BACKPROPAGATION ………………………………………………………………………….. 3.1 PENDAHULUAN …………………………………………………………………………. 3.1.1 PENGERTIAN …………………………………………………………………. 3.1.2 ARSITEKTUR …………………………………………………………………… 3.1.3 ALGORITMA ……………………………………………………………………. 3.2 PEMBAHASAN …………………………………………………………………………….

BAB IV

RADIAL BASIS FUNCTION NEURAL NETWORK ………………………………….. 4.1 PENDAHULUAN …………………………………………………………………………. 4.1.1 PENGERTIAN ………………………………………………………………….. 4.1.2 ARSITEKTUR ………………………………………………………………….. 4.2 PEMBAHASAN ……………………………………………………………………………

BAB I SELF ORGANIZING MAPS

1.1

PENDAHULUAN

Analisis Cluster adalah upaya menemukan sekelompok obyek yang mewakili suatu karakter yang sama atau hampir sama ( similar) antar satu obyek dengan obyek lainnya pada suatu kelompok dan memiliki perbedaan (not similar) dengan obyek–obyek pada kelompok lainnya. Tentunya persamaan dan perbedaan tersebut diperoleh berdasar informasi yang diberikan oleh obyek– obyek tersebut beserta hubungan (relationship) antar obyek. Berdasarkan tipe pembelajarannya, jaringan syaraf tiruan (JST) dapat dibagi menjadi dua macam tipe JST, JST supervised dan JST unsupervised. Perbedaan kedua macam JST tersebut didasarkan pada sifat data dan kemampuan pembelajaran JST. Pada JST supervised data pelatihannya terdapat data masukan dan data pembimbing, proses pembelajaran adalah penyesuaian bobot JST agar dengan keluaran proses data masukan akan menyerupai data bimbingan. Sedangkan yang dimaksud JST unsupervised adalah JST yang mempunyai kemampuan penyesuaian bobot JST hanya didasarkan data masukannya (tanpa data pembimbing). SOM merupakan salah satu model jaringan syaraf unsupervised yang menyerupai model jaringan syaraf manusia. 1.1.1. Pengertian Self Organizing Maps (SOM) merupakan perluasan dari jaringan kompetitif yang sering disebutsebagai jaringan Kohonen. Jaringan ini menggunakan metode pembelajaran unsupervised. Jaringan ini pertama kali diperkenalkan oleh Prof. Teuvo kohonen pada tahun 1982. Pada jaringan ini, suatu lapisan yang berisi neuron-neuron akan menyusun dirinya sendiri berdasarkan input nilai tertentu dalam suatu kelompok yang dikenal dengan istilah cluster. Selama proses penyusunan diri, cluster yang memiliki vektor bobot paling cocok dengan pola input (memiliki jarak paling dekat) akan terpilih sebagai pemenang. Neuron yang menjadi pemenang beserta neuron-neuron tetangganya akan memperbaiki bobot-bobotnya. Metode SOM digunakan untuk pemetaan seperti clustering dimana prosesnya adalah suatu objek masuk pada cluster ke-j tergantung pada jarak yang ditetapkan. Jumlah neuron target sama dengan maksimum jumlah kelompok yang hendak kita buat. Dalam iterasinya , bobot neuron yang diubah tidak hanya bobot garis yang terhubung ke neuron pemenang saja, tetapi juga bobot neuron sekitarnya.
Tugas Neural Network kelompok II 1

Gambar1.1. Arsitektur SOM Penulisan istilah: X : vektor input pembelajaran. Gambar struktur JST Kohonen terlihat seperti pada Gambar 1 berikut ini.2.x2. Arsitektur Jaringan Kohonen SOM terdiri dari dua lapisan ( layer). Setiap neuron dalam lapisan output merepresentasikan kelas dari input yang diberikan.…. yaitu lapisan input dan lapisan output. X = (x1.xj.1. 𝛼 : learning rate R : radius neighborhood XI : neuron/node input. lakukan step 2 – 8 Step 2: untuk semua input vektor x lakukan step 3 – 5 2 Tugas Neural Network kelompok II .3.1. w0j : bias pada neuron output ke-j Yj : neuron/node output ke-j C : konstanta 1. Setiap neuron dalam lapisan input terhubung dengan setiap neuron pada lapisan output. Algoritma Berikut ini adalah tahapan dalam algoritma pembelajaran SOM: Step 0: Inisialisasi bobot (Wij) Tentukan parameter jarak (R) Tentukan learning rate (∝) Step 1: Jika kondisi stop salah.….xn).

Kediri 21.Step 3: untuk setiap j 𝐷 𝑗 = 𝑛 𝑖 (𝑊𝑖𝑗 − 𝑋𝑖)2 Step 4: Step 5: dapatkan j sehingga D(j) minimal untuk semua j yang berada dalam jarak dan untuk semua i Wij (baru) = Wij (lama) + ∝(Xi – Wij) lama Step 6: update learning rate Step 7: Update jarak Step 8: Uji kondisi stop (Stop jika 𝑊𝑖𝑗 𝑏𝑎𝑟𝑢 − 𝑊𝑖𝑗 (𝑙𝑎𝑚𝑎) ≤ 𝜀) 1. Kota Batu Tugas Neural Network kelompok II 3 . Madiun 5. Blitar 20. Lumajang 23. Bojonegoro 8. Pacitan 16. Kota Probolinggo 33. Banyuwangi 25. Magetan 6. Tuban 9. Mojokerto 2. PEMBAHASAN Data yang digunakan dalam pelatihan ini adalah data komponen IPM propinsi Jawa Timur Tahun 2004 yang terdiri dari 29 kabupaten dan 7 kota. Kota Madiun 35. Situbondo 27. Nganjuk 4. Jombang 3. Adapun kabupaten/kota yang dimaksud adalah sebagai berikut: Daerah tingkat II kabupaten terdiri dari: 1. Bangkalan 12. Bondowoso 26. Ngawi 7. Kota Kediri 31. Kota Surabaya 36. Probolinggo 28. Gresik 11. Ponorogo 17. Malang 22. Sampang 13. Tulungagung 19. Pasuruan 29. Trenggalek 18. Kota Pasuruan 34. Sidoarjo Daerah tingkat II kota terdiri dari: 30.2. Sumenep 15. Jember 24. Lamongan 10. Kota Blitar 32. Pamekasan 14.

11. 22.5 69.3 96.5 66.2 5.8 613.0 615.9 67.0 6.1 7. 21.6 61.7 84. 14.7 636. 28.6 85.2 61. 29.9 60.6 62.5 6.4 4. 26.3 615.1 67.4 7.0 5.0 67.8 613.3 79. 27.3 6.1 615.5 609.9 70.8 616.4 84.5 5.5 95. 19. Komponen IPM Menurut Kabupaten/Kota Di Propinsi Jawa Timur Tahun 2005 No.7 617.7 61.3 73.3 66. 7. 17.4 67.2 61. 32.2 627.9 6.1 9.1 4. 24.4 6.0 9.1 87.1 78.5 ALS (X3) 6.9 5.7 9.4 74.9 79. 18.3 639. 3.5 69.2 68. 13.5 6.5 614.4 96. 9.7 59.7 615.5 616.9 69.3 7.7 61.7 62.0 65.0 95.4 620. 16.4 67. 31.1 70.9 615.7 619.6 7.6 601. 5.1 84. 10.4 5.8 79. Kab/Kota Pacitan Ponorogo Trenggalek Tulungagung Blitar Kediri Malang Lumajang Jember Banyuwangi Bondowoso Situbondo Probolinggo Pasuruan Sidoarjo Mojokerto Jombang Nganjuk Madiun Magetan Ngawi Bojonegoro Tuban Lamongan Gresik Bangkalan Sampang Pamekasan Sumenep Kt Kediri Kt Blitar Kt Probolinggo AHH (X1) 70.0 636. 30.7 69.1 616.3 PPP (X4) 615.6 91.8 3.8 592.7 72.6 6.0 612.1 64.2 6. 23.6 83. 8.1.5 6. 1. 25.3 5.5 67.1 81.8 4.1 609.6 59.9 5. 20.2 69.2 9.5 67.7 5. 12. 6.5 608.3 68.6 4 Tugas Neural Network kelompok II .7 609.3 69.7 620. 4.0 91.0 78.9 6.8 80.0 68.3 73.8 88.8 AMH (X2) 83.Sedangkan variabel-variabel yang akan digunakan untuk pengelompokan adalah: X1 = Angka Harapan Hidup X2 = Angka Melek Huruf (AMH) X3 = Rata-rata lama sekolah (ALS) X4 = Pengeluaran riil perkapita (PPP) Adapun data asal yang akan digunakan ditampilkan sebagai berikut: Tabel 1.1 613.1 88.4 606.0 6.3 609.8 73.8 82.3 89.5 85. 15.4 619. 2.5 620.8 68.

5 66.1 78.iw{1.6 85.7 609.6 6.6 91.96 Selanjutnya dari nilai maksimum minimum tersebut digunakan sebagai acuan untuk proses pengelompokan data.8 68.5 614.b{1} net=train(net.5 67.2 6.2 9.9 69.1 4.2 88.6 635.8 613.epochs=3000.9 95.0 67.9 96.9 69.9 5.6 59.4 84.5 608.trainParam.8 8.7 631.p).1 7.3 96.7 615 612.4 5.30 Rata-rata 66.2.3). 35.1} net.5 95 95.3 7.1 65.6 83.9 61.3 5 5. net.7].5 69.9 60.6.4 4.4 67 65.7 84 91.2 9.1 88.1 67. Kt Pasuruan Kt Mojokerto Kt Madiun Kt Surabaya Kt Batu 68.5 85.4 74.2 69.3 69 68.11 613.5 69.6 7.9 6. 1.5 6.30 96.5 69.74 617. b=sim(net.20 61.5 620.5 88 95.3 79.1 616.1 7.50 84.2 68.61.5 67.2 61.9 69.4 9.3.1 615.3 7.3 6.5 616 615. maka diperoleh nilai maksimum minimum pada masing-masing variabel adalah sebagai berikut: Tabel 1. 615.8 80.1 84. 2.2 627.9 619.4 94.3 68.7 5.9 5. Adapun pengolahan data pengelompokan ini menggunakan sofware statistik yaitu MATLAB dengan sintax sebagai berikut: clc p=[70. Variabel X1 X2 X3 X4 Maksimum 70. 4.3 89.6 62. 36.60 9.7 72.8 592.4 7.9 79.7 89.2 61. 6 6 6.8 8.7 61.3 609.85 6. 37.9 6.4 96.8 79.4 9.3 639 636.40 9.3 635. Deskriptif data komponen IPM Propinsi Jawa Timur Tahun 2004 No.6 635.33.20 70.9 96.9 70.8 3.30 3.5 5. 34.p) ac=vec2ind(b) Tugas Neural Network kelompok II 5 .6 601.1 9.4 70.2 9. net=train(net.2.9 67.8 82.8 88.3 73.4 619.3 73.7 636.4 70.7 62.7 Minimum 59.0 95.9 619.6 632.7 59.2 5.4 6.50.5 6.7 617.p) ac=vec2ind(b) net=init(net).4 620.40 592.1.80 635.1 87.8 68.1 609.4 606.8 4.8 73.9 95.6 61.6 632. 83.8 9.7 620.1 81 78.60.0 Berdasarkan data tersebut di atas.8 613.3 66.5 609.6 631.7 631.8 9.1 65.50 96.1 64. 3.7 619.80.3 615.592.7 9 9.p) b=sim(net.8 616. net.6 631] net=newsom([59.1 70.4 67.7 61.5 69.5 6.4 94.

7000 69.2000 84.9500 6.0000 ans = 64.7000 68.Dengan epoch sebanyak 10.4000 59.0000 614.1000 68.7000 72.6000 70.1000 639.3000 5.4000 8.8000 Columns 10 through 18 64.0000 7.9000 84.8000 6.5000 59.5000 95.5000 60.9000 619.7000 73.0000 67.0000 614.3000 91.4000 609.6000 6.5000 82.1000 61.9000 89.6000 631.0000 62.8000 7.8000 66.0000 65.9000 Columns 19 through 27 67.3000 70.7000 6.2000 615.1000 6.6000 614.9000 95.1000 9.2000 84.6000 4.3000 636.5000 615.1000 5.5000 613.2000 68.5000 94.8000 67.3000 88.4000 4.0000 85.9000 616.5000 617.1000 6.4000 5.4000 95.0000 83.8500 ans = [] net = Neural Network object: architecture: numInputs: numLayers: biasConnect: inputConnect: layerConnect: outputConnect: 1 1 [0] [1] [0] [1] (read-only) (read-only) (read-only) 78.0000 620.1000 61.0000 5.3000 Column 37 69.000 diperoleh hasil pengelompokan sebagai berikut: p = Columns 1 through 9 70.1000 88.7000 79.5000 9.5000 61.6000 68.0000 9.4000 631.0000 6.0000 620.5000 67.6000 74.3000 636.7000 612.8500 64.5000 6.7000 69.6000 613.8000 635.8000 6.7000 Columns 28 through 36 61.4000 70.2000 616.6000 67.1000 7.1000 615.9000 73.0000 83.4000 69.1000 78.8000 95.5000 67.1000 96.7000 67.9000 601.9000 89.4000 609.9000 9.7000 5.5000 85.2000 61.9500 78.2000 96.3000 4.5000 78.8000 5.6000 6.5000 609.8000 619.7000 615.6000 614.1000 79.9000 69.9000 592.3000 6.7000 5.3000 81.3000 3.4000 61.6000 6.9000 6.4000 606.0000 615.2000 91.8500 64.4000 88.6000 7.8000 7.8000 69.5000 9.8000 609.8000 620.2000 613.4000 6.6000 73.3000 6.9000 9.1000 5.6000 9.0000 62.0000 608.1000 619.2000 632.7000 79.7000 69.1100 68.3000 616.3000 66.6000 numOutputs: 1 numInputDelays: 0 numLayerDelays: 0 Tugas Neural Network kelompok II 6 .4000 87.9500 78.3000 627.8000 96.5000 80.7000 65.

30) (1.32) (1.14) (1.24) (1.showWindow.23) (1. .'plotsomnd'.subobject structures: inputs: layers: outputs: biases: inputWeights: layerWeights: functions: adaptFcn: 'trains' divideFcn: (none) gradientFcn: 'calcgrad' initFcn: 'initlay' performFcn: (none) plotFcns: {'plotsomtop'.'plotsomhits'.26) (2.'plotsomnc'.3) (1.11) (1.show.showCommandLine. .20) (2.1) (1.16) (1.6) (1.31) (1.12) (1.'plotsomplanes'.goal.4) (1.time {1x1 {1x1 {1x1 {1x1 {1x1 {1x1 cell} cell} cell} cell} cell} cell} of inputs of layers containing containing containing containing 1 output no biases 1 input weight no layer weights weight and bias values: IW: {1x1 cell} containing 1 input weight matrix LW: {1x1 cell} containing no layer weight matrices b: {1x1 cell} containing no bias vectors other: name: '' userdata: (user information) b = (1.29) (1. .25) (2.17) (1.13) (1. .21) (2.33) 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Tugas Neural Network kelompok II 7 .10) (2.'plotsompos'} trainFcn: 'trainr' parameters: adaptParam: divideParam: gradientParam: initParam: performParam: trainParam: .19) (1.27) (2.15) (1.epochs.28) (1.8) (2.9) (1.passes (none) (none) (none) (none) .5) (1. .7) (1.18) (3.22) (2.2) (1.

24) (1.35) (1.37) ac = Columns 1 through 15 1 1 1 1 1 1 1 2 2 1 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 Columns 16 through 30 1 1 1 3 1 2 2 2 1 1 2 2 2 1 1 Columns 31 through 37 1 1 1 1 1 1 1 Tugas Neural Network kelompok II 8 .5) (1.1) (1.28) (1.9) (1.19) (1.3) (1.27) (2.(1.36) (1.11) (1.23) (1.16) (1.36) (1.22) (2.15) (1.33) (1.34) (1.20) (2.4) (1.25) (2.8) (2.37) ac = 1 1 1 1 Columns 1 through 15 1 1 1 1 1 1 1 1 2 1 2 1 1 1 1 Columns 16 through 30 1 1 1 3 1 2 2 2 1 1 2 2 2 1 1 Columns 31 through 37 1 b = (1.14) (1.31) (1.13) (1.6) (1.17) (1.35) (1.30) (1.12) (1.21) (2.32) (1.7) (2.26) (2.34) (1.2) (1.10) (2.18) (3.29) (1.

25. Ngawi 22. Sumenep Kelompok II terdiri dari 10 kabupaten yaitu: 8.000 epoch No. 16. 22. Bondowoso 28. Kota Mojokerto 6. 37 8. Kediri 18. Bojonegoro Kelompok III hanya terdiri dari 1 kabupaten yaitu: 19. Pacitan 13. Kota Probolinggo 4. 24. Jember 27. Bangkalan 9. Pasuruan 31. Trenggalek 15.Berdasarkan input data. Banyuwangi 25. Kota Madiun 7. Ponorogo 14. 11. 32. 33. Nganjuk 35. Jombang 34. Hasil pembacaan Clustering data untuk 10. 21. 34. 10. 15. 14. Probolinggo 30. 9. 5. 4. 31. Lumajang 26. Sidoarjo 32. 1 2 3 Cluster ke I II III Masukan ke 1. dan setelah pengolahan seperti di atas. 7. Kota Surabaya 10. 18. 12. 36. 19 Pengelompokan kabupaten/kota secara lengkap adalah sebagai berikut: Kelompok I terdiri dari 26 kabupaten/kota yaitu: 1. 23. Malang 24. Lamongan 36. Kota Blitar 3. Sampang 11. Kota Batu 12. 2. Situbondo 29. 13. didapatkan pengelompokan sebagai berikut: Tabel 1.3. Tulungagung 16. 27. 3. Madiun Tugas Neural Network kelompok II 9 . 28. 29. Kota Pasuruan 5. 6. 35. Mojokerto 33. Gresik 37. Magetan 21. 30. 20. Pamekasan 20. 26. Blitar 17. Kota Kediri 2. 17.

1 Pengertian Learning Vector Quantization (LVQ) adalah salah satu metode jaringan syaraf tiruan yang digunakan dalam klasifikasi dan pengenalan pola. Contoh arsitektur jaringan LVQ X1 W11 W21 W31 W12 Y1 X2 W22 W32 Y2 W23 W13 𝑋1 . Pada metode ini.1. 𝑋𝑛 Xn W33 Ym Tugas Neural Network kelompok II 10 .1 PENDAHULUAN 2. 𝑋2 . … . Setelah pembelajaran selesai dijalankan. dalam proses pembelajaran. Apabila beberapa vector input memiliki jarak yang sangat berdekatan. proses pembelajaran atau pelatihan harus dilakukan terlebih dahulu.BAB II LEARNING VECTOR QUANTIZATION 2.1. Kelas yang memiliki jarak terdekat dengan vektor input akan menadi pemenang. maka langkah selanjutnya adalah melakukan pengujian bias. Pada jaringan LVQ. vector input yang diberikan akan terklasifikasikan secara otomatis.2 Arsitektur LVQ merupakan jaringan syaraf tiruan yang terdi atas unit masukan (Xn) dan unit keluaran (Ym). maka vector-vektor input tersebut akan dikelompokkan dalam kelas yang sama. masing-masing unit output mewakili kategori atau kelas tertentu. Pengujian dilakukan dengan menghitung jarak antara input pengujian dengan bobot akhir dari masing-masing kelas output. Adapun arsitekturnya seperti gambar di bawah ini : Gambar 1. 2.

… 2.1. … . 3. … .Keterangan : = Vektor input = Vektor Output = Bobot input ke-I pada kelompok ke-j i. j = 1. 𝑌2 . 2. 𝑌𝑛 Wij ΙΙX – WjΙΙ : Jarak Euclidian Step 0 Step 1 Inisialisasi Jika kondisi stop salah lakukan step 2 – 6 Step 2 Step 3 Step 4 Untuk setiap training vector lakukan step 3 – 4 Dapatkan j sehingga ΙΙX – WjΙΙ min Update Wj Jika T = Cj 𝑊 𝑏𝑎𝑟𝑢 = 𝑊 𝑙𝑎𝑚𝑎 + 𝛼 (𝑋 − 𝑊 𝑙𝑎𝑚𝑎 ) 𝑗 𝑗 𝑗 Jika T ≠ Cj 𝑊 𝑏𝑎𝑟𝑢 = 𝑊 𝑙𝑎𝑚𝑎 − 𝛼 (𝑋 − 𝑊 𝑙𝑎𝑚𝑎 ) 𝑗 𝑗 𝑗 Step 5 Step 6 Update learning rate uji kondisi stop Tugas Neural Network kelompok II 11 .3 Algoritma Notasi : X T Wj Cj : Training Vektor : Kategori dari training vector : Vektor bobot untuk kategori ke-j : Kategori j (hasil training) 𝑋1 . 𝑋2 . 𝑋𝑛 𝑌1 .

0 620.7 Blitar 69.1 9.5 94.9 592. Kabupaten-kabupaten di jawa Timur dikelompokkan berdasarkan IPM.2 615.7 Tuban 66.2 84.9 Ngawi 67.3 Bondowoso 60. 1. 7.2 61. 12. 13.0 615.7 612.1 96. akan dijadikan sebagai vector input (masukan)-nya.9 73.8 5.7 79.4 615.3 616.0 608.4 Lumajang 65. 22.1 6.4 5.6 4.4 6.2 Ponorogo 67.7 615.1 615.4 609. 16. Sedangkan pengelompokkan kabupaten berdasarkan IPM dijadikan sebagai vector output (keluaran)-nya.3 636. Rata-rata Lama Sekolah (ALS) dan Pengeluaran Riil Perkapita (PPP).5 78.8 620.5 609. 15. 9.6 613.4 609.5 80.6 614. 19.2 84. 23.3 6.1 79.8 Pacitan 70.5 Kt Kediri 69.0 Ssampang 59. dan kelompok 3 menunjukkan kelompok kabupaten degan IPM tinggi.7 5.7 79.2. Angka Melek Huruf (AMH). 6. 18.5 Jombang 68.2 616.2 632.8 7.5 9.8 6.1.0 5. kelompok 2.5 82. 3.6 74.6 73.1 5.9 616.7 72.4 87. 21. 20.1 5.0 6.7 Probolinggo 59.3 6.3 81.9 9. 25.6 6.8 Kediri 68.1 Kt Madiun 70.8 609.9 Kt Batu 69.2 PEMBAHASAN Berikut disajikan penerapan pengkategorisasian menggunakan jaringan LVQ berdasarkan IPM Provinsi Jawa Timur tahun 2004.0 Bojonegoro 66.1 78. 26.4 88. Pengelompokkan kabupaten berdasarkan IPM di Provinsi Jawa Timur 2004 Kab/Kota AHH AMH ALS PPP (X1) (X2) (X3) (X4) Bangkalan 61.3 3.5 85.8 Lamongan 67.4 Banyuwangi 64. Kabupaten yang berada pada kelompok 1 menunjukkan bahwa kabupaten tersebut memiliki IPM rendah. 5. 2.8 Nganjuk 67.0 83.6 631.4 4.7 Situbondo 61.5 Sumenep 62.7 6 620.3 4.5 Madiun 67.9 601.4 606.7 73.3 No.6 7. Kel (Y) 1 1 2 2 3 3 2 2 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 2 12 Tugas Neural Network kelompok II .7 5. Pengelompokkan kabupaten dapat dilihat pada tabel berikut ini : Tabel 2.5 Pamekasan 61.2 96.5 613.0 85. 4.1 Gresik 69. 24. 14.3 Pasuruan 62.3 5. IPM sedang. Adapun komponen pembentuk IPM yang meliputi Angka Harapan Hidup (AHH). 11.9 84. 17.2 91.1 Jember 61. 10.8 6. 8.

7 631. 35.5 616. 37.9 70.4 68.0 631.1 620.1 8. 33.4 88. data ke-7 sampai 37.4 616.3 7.6 2 2 2 2 2 2 3 3 3 3 3 Informasi yang diperoleh dari table di atas adalah :     Jumlah data = 37 Jumlah variable input (n) = 4 Jumlah kelas atau cluster (m) = 3 Misalkan ditetapkan  maksimum epoch = 500  Learning rate =0. 32. 6.6 64.4 69 69.1 70.9 7.4 7.5 6.3 7.7 636. Instruksi : Tugas Neural Network kelompok II 13 .8 ALS (X3) 4.8 91. 2 dan 3 (Tabel 2) : Tabel 2.1 96. Bobot Awal No.5 95. akan dipakai sebagai data-data yang akan dilakukan pelatihan.9 9. Kab/Kota Bangkalan Banyuwangi Jombang Kediri Blitar Gresik AHH (X1) 61.6 9.8 69.1 89.2 69.6 88.1 88.8 PPP (X4) 609.4 68.9 89.3 87. 3.8 613.2 7.4 619. yang terdiri dari 4 neuron pada lapisan kompetitif (lapisan tersembunyi). 34.1 617.1 67.9 68.5 6.2 AMH (X2) 73.27.9 68.8 613.3 639.3 69. Magetan Mojokerto Trenggalek Tulungagung Kt Batu Kt Kediri Kt Blitar Kt Mojokerto Kt Pasuruan Kt Probolinggo Kt Surabaya 69.6 635.0 620.2 6.0 95. 3 kelas dengan masing-masing memiliki kemungkinan kemunculan yang sama (1/3).6 619. 28.5 96.8 6.3 9.8 9.6 619.0 9.1 6. 36.3 69.6 84. 1. 29. 4. 31.8 91. Akan dibentuk jaringan kompetitif dengan algoritma pembelajaran LVQ net.5 65.6 85. 30.5 95. 5.7 636.1 Dari ke-37 data tersebut akan diambil 6 data pertama untuk dijadikan bobot yang masing-masing akan mewakili kelas 1.1 Kel (Y) 1 1 2 2 3 3 Sedangkan sisanya.0 95.2. 2.

8 91. 613.JumlahKlas)). JumlahNeuron = 4.JumlahNeuron. 616. Tugas Neural Network kelompok II 14 .T = ind2vec(Tc). JumlahKlas = size(full(T).3 87.6 84. bobot_awal_input = net.5. instruksi : net.trainparam.8.3 7.4 69.01.3 7.01. 636.goal = 0.5 6. dengan input yang sama dengan input data pelatihan (data training).(1/JumlahKlas)*ones(1. JumlahKlas = size(full(T).8 609. net = train(net.trainparam. Jaringan ini akan dilatih dengan dengan menggunakan algoritma pembelajaran LVQ dengan maksimum epoch = 500 dan toleransi error 0.6 64. net = newlvq(minmax(p).6 85.T).8 4.1] p = p' Tc = [1 1 2 2 3 3] T = ind2vec(Tc).JumlahKlas)).epochs = 500.4 68.IW{1.2 6.2 73.1.1). net = newlvq(minmax(p).trainparam.(1/JumlahKlas)*ones(1.p. 620. Output hasil simulasi akan disimpan pada vector H instruksi : y = sim (net.LW{2.JumlahNeuron. yc = vec2ind(y) Hasilnya adalah : Columns 1 through 12 3 3 1 1 1 1 1 1 2 1 2 1 Columns 13 through 24 1 1 1 1 1 1 1 3 3 2 3 2 Columns 25 through 31 3 3 3 3 3 1 3 Progam pengolahan dengan menggunakan Matlab selengkapnya : p = [61.7.1} bobot_awal_lapisan = net.4. Kemudian hasilnya akan disimulasikan.6 88. net.epochs = 500.0 69.m).8 6.1} net. 616.1). JumlahNeuron = 4.9 68.

8 96.5 80.5 69.3 6.3 88.4 4. 636.5.5 9.7.2 68. net = train(net.3 3.9 89.1.4 68.3.5 9.1 69. 2.3 5.01.5.8 67. 7. 612.0 61.2 84. 5.8 7.6 631.5.9 592.0 59.9 6.net.trainparam. 615. 613.7.8 67.7.1.8 95.3. 1. 635.4 67.0 70.1 79.3.4 62. 11.9 59.6 9. 10.7. 12.1 639.5 94.3 69.1 96. 9.6.2 69.0.5 68.7 72.4 5. 615.3.4 6. 632.6 615 627.0 60.3 81. 616.8. 4.7 67. 615.7 5.5 85. 619.4 8.4 95. 617.1 5.2 96.1 78.8 6.T).1 5.p.7] Tabel 2.3 4.goal = 0.9 9.9 65.2 61. 3.0 7.6.7 79.0 83.9 95.1 66. 614.4. 609. Kab/Kota Bangkalan Banyuwangi Jombang Kediri Blitar Gresik Kt Madiun Kt Batu Bojonegoro Bondowoso Jember Lamongan Pengelompokkan awal 1 1 2 2 3 3 2 2 1 1 1 1 Pengelompokkan LVQ 1 1 2 2 3 3 3 3 1 1 1 1 15 Tugas Neural Network kelompok II .9.7 73.9.7 61.1 7. 619. 615. 9.5 82.8.6 67. 601.6 74.0 83.4.0 608.0. 613.9 73.m). 609.7.3 m = M' y = sim (net.1 62.5 6.5 70. Pengelompokkan yang terjadi : No. 5.4 61. 6. 5. 620. yc = vec2ind(y) 9.4 67.5 78. 8.9 9.0 6.1 6.2.1 88.9 89.3 91. 606. 620.7 79. 609.8 5.2 84.7 6.6 619.5. 631.2 67.0.8.1 6.9 70. 615.5 95. M = [70.7 66.6 65.0 69.

32. Lumajang Madiun Nganjuk Ngawi Pacitan Pamekasan Pasuruan Ponorogo Probolinggo Ssampang Situbondo Sumenep Tuban Kt Kediri Magetan Mojokerto Trenggalek Tulungagung Kt Batu Kt Kediri Kt Blitar Kt Mojokerto Kt Pasuruan Kt Probolinggo Kt Surabaya 1 1 1 1 1 1 1 1 1 1 1 1 1 2 2 2 2 2 2 2 3 3 3 3 3 1 1 2 1 2 1 1 1 1 1 1 1 1 3 3 2 3 2 3 3 3 3 3 1 3 Tugas Neural Network kelompok II 16 . 19. 24. 34. 37. 15. 25. 28. 27. 33. 26. 30. 18. 23. 36. 14. 35. 31.13. 21. 17. 22. 20. 29. 16.

2009) 3.(F.1. hidden layer. Backpropagation memiliki beberapa unit yang ada dalam satu atau lebih hidden layer. dan output.1 Pengertian (Backpropagation) merupakan sebuah metode sistematik pada jaringan saraf tiruan dengan menggunakan algoritma pembelajaran yang terawasi dan biasanya digunakan oleh perceptron dengan banyak layar lapisan untuk mengubah bobot-bobot yang ada pada lapisan tersembunyinya.2 Arsitektur Arsitektur dalam Backpropagation yang merupakan salah satu multi layer perceptron.Suhandi. serta m buah unit keluaran. sebuah layer tersembunyi yang terdiri dari p unit (ditambah suatu bias). Gambar dibawah ini adalah arsitektur backpropagation dengan n buah masukan (ditambah suatu bias).BAB III BACKPROPAGATION 3. Backpropagation adalah pelatihan jenis terkontrol (supervised) dimana menggunakan pola penyesuaian bobot untuk mencapai nilai kesalahan yang minimum antara keluaran hasil prediksi dengan keluaran yang nyata. terdiri dari input. PENDAHULUAN 3.1. Backpropagation Tugas Neural Network kelompok II 17 .1.

z_ini merupakan nilai input pada ke-i. tiap unit keluaran membandingkan perhitungan aktivasinya yk dengan nilai targetnya tk untuk menentukan kesalahan pola tersebut dengan unit itu. tiap unit masukan ( xi) mengirimkan sebuah masukan sinyal ini ke tiap-tiap lapisan tersembunyi z1. didasarkan pada faktor δj dan dan aktivasi xi unit masukan. 3. Pada setiap unit keluaran (yk) akan menghitung aktivasinya yang digunakan untuk membentuk respon pada jaringan sehingga akan memberikan pola masukan..xj.tm). Untuk langkah selengkapnya adalah : Tugas Neural Network kelompok II 18 . e.m) dihitung. α adalah Learning rate.tk. Tidak perlu untuk menyebarkan kesalahan kembali ke lapisan masukan...….. x2. δj adalah bagian koreksi error penyesuaian bobot vij berpedoman pada error output neuron zj. δk adalah bagian koreksi error penyesuaian bobot w jk berpedoman pada error output neuron yk.Berikut ini penulisan istilah yang dipakai dalam proses Backpropagation....p) dihitung untuk tiap unit tersembunyi zj.…. t : Vektor target output. Juga digunakan (nantinya) untuk mengupdate bobot-bobot antara keluaran dan lapisan tersembunyi. T = (t1. Pada perambatan maju.xn).. xi merupakan Input neuron. Selama pelatihan.. Berdasarkan kesalahan ini.3 Algoritma a.. t2. y_ink merupakan nilai input untuk Yk m. b. faktor ( j = 1.. Pengaturan bobot wjk (dari unit tersembunyi zj ke unit keluaran yk) didasarkan pada faktor δk dan aktivasi zj dari unit tersembunyi zj. faktor δk (k = 1. bobot untuk semua lapisan diatur secara serentak. Dengan cara yang sama. i. Setiap unit tersembunyi ini kemudian menghitung aktivasinya dan mengirimkan sinyalnya (zj) ke tiap unit keluaran.. k... wok merupakan bias pada output neuron ke-k... Setelah seluruh faktor δ ditentukan. tetapi δj digunakan untuk mengupdate bobot-bobot antara lapisan tersembunyi dan lapisan masukan. Yk : nilai output neuron ke-k dengan menggunakan fungsi aktivasi yang dipilih. x merupakan vektor input pembelajaran. l. δk digunakan untuk menyebarkan kesalahan pada unit keluaran yk kembali ke semua unit pada lapisan sebelumnya (unit-unit tersembunyi yang dihubungkan ke yk). voj merupakan bias pada Hidden neuron ke. d.. Algoritma Pelatihan Dalam pelatihan suatu jaringan dengan algoritma backpropagation terdapat dua tahapan yaitu tahapan perambatan maju dan tahapan perambatan mundur.. h.. j. f.. θ adalah Toleransi error...1. zj merupakan nilai output dengan menggunakan fungsi aktivasinya. g. sebagai berikut : a. X = (x1.zp... c..j.

Langkah 4 : Setiap unit tersembunyi (xi. lakukan langkah 3-8.…. w jk    k z j hitung koreksi biasnya (digunakan untuk memperbaharui wok nantinya). hitung kesalahan informasinya. : Setiap unit lapisan tersembunyi ( zj.….b. i = 1. k = 1. (sebaiknya diatur pada nilai acak yang kecil). Prosedur Pelatihan Langkah 0 : Inisialisasi bobot. z _ in j  voj   xi vij i 1 n Langkah 5 sebagai bias pada unit tersembunyi j aplikasikan fungsi aktivasinya untuk menghitung sinyal keluarannya. i = 1.…. dan kirimkan sinyal ini keseluruh unit pada lapisan diatasnya (unit keluaran). p) : Tugas Neural Network kelompok II . : Tiap unit keluaran (yk. p) jumlahkan hasil perubahan masukannya (dari unit-unit lapisan diatasnya). Langkah 2 : Untuk setiap pasangan pelatihan. n) menerima sinyal xi dan menghantarkan sinyal ini ke semua unit lapisan di atasnya (unit tersembunyi). m) update bias dan bobotnya (j = w jk (baru) = wjk (lama) + wjk 19 Langkah 8 0.…. m) menerima pola target yang saling berhubungan pada masukan pola pelatihan. lakukan langkah 2-9. : Tiap unit keluaran (yk. yk = f (y_ink). zj = f (z_inj). Perambatan Maju : Langkah 3 : Tiap unit masukan (xi.  _ in j    k w jk k 1 m Langkah 7 kalikan dengan turunan fungsi aktivasinya untuk menghitung informasi kesalahannya. p) jumlahkan bobot sinyal masukannya. Langkah 1 : Jika kondisi tidak tercapai. Perambatan Mundur : Langkah 6 : Tiap unit keluaran (yk . voj y _ ink  wok   z j w jk j 1 n wok merupakn bias pada unit keluaran k dan aplikasikan fungsi aktivasinya untuk menghitung sinyal keluarannya. dan kirimkan δk ke unit-unit pada lapisan dibawahnya.  k  (tk  yk ) f '( y _ ink ) hitung koreksi bobotnya (digunakan untuk memperbaharui wjk nantinya).  j   _ in j f '( z _ in j ) hitung koreksi bobotnya (digunakan untuk memperbaharui voj nanti).…. k = 1. m) jumlahkan bobot sinyal masukannya. j = 1. k = 1.….….

…. 4. sehingga diperoleh keluaran prediksi jumlah pengangguran ditahun berikutnya. Angkatan kerja. n : atur aktivasi unit masukan xi . Langkah 2 : for i = 1. sebagai berikut : 1. 7. Dengan menggunakan beberapa variabel masukan dari tahun 2003-2006. lakukan langkah 2-4. PDRB (Produk Domestik Regional Bruto) atas dasar harga konstan 2000. Data historis TPAK (Tingkat Partisipasi Angkatan Kerja) menurut kelompok umur. p : z _ in j  voj   xi vij i 1 n z j  f ( z _ in j ) Langkah 4 : for k = 1. Berikut ini data yang dikumpulkan : Tugas Neural Network kelompok II 20 . Data yang digunakan adalah data tahunan dari tahun 2003 – 2006.n) : vij (baru) = vij (lama) + vij Langkah 9 : Test kondisi berhenti.2 PEMBAHASAN Dengan menggunakan metode backpropagation pada jaringan syaraf tiruan. p) update bias dan bobotnya (I = 0. Data tahun 2003 – 2006.…. m : y _ ink  wok   z j w jk j 1 p yk  f ( y _ ink ) Langkah 5 : Jika yk ≥ 0.Tiap unit lapisan tersembunyi (zj. j = 1. Penduduk menururut kelompok umur dan jenis kelamin.…. Prosedur aplikasinya adalah sebagai berikut : Langkah 0 : Inisialisasi bobot (dari algoritma pelatihan). PROSEDURE PENGUJIAN : Setelah pelatihan.5 maka yk = 1.…. 2. dengan variabel masukan sebanyak 7 (tujuh) variabel.…. Langkah 1 : Untuk tiap vektor masukan. 3. else yk = 0. Algoritma pembelajaran backpropagation diterapkan untuk pelatihan variabel maskan tersebut. Langkah 3 : for j = 1. akan memprediksi jumlah pengangguran di Provinsi Jawa Timur. 3. jaringan saraf backpropagation diaplikasikan dengan hanya menggunakan tahap perambatan maju dari algoritma pelatihan. 5.) 6. Tingkat pengangguran terbuka (TPT. Angkatan kerja yang bekerja penduduk usia 15 tahun keatas.

Variabel – variabel yang digunakan X0 2003 2004 2005 2006 2007 X1 X2 X3 18097118 18822218 19335890 19244959 20117924 X4 8.19 6.1.41 36895571 68. Tugas Neural Network kelompok II 21 . 0.17 36390600 70.1 ba dengan a adalah data minimum dan b adalah data maksimum.64 36396345 69.20 36481799 69.79 X5 228884459 242228892 256374727 271249317 287579857 X6 16525698 17374955 17689834 17669660 18751421 X7 1571420 1447263 1646056 1575299 1366503 36199078 66.69 8.99 Sumber : BPS Propinsi Jawa Timur Keterangan : Input : X0 = Data tahun X1 = Jumlah penduduk Propinsi Jawa Timur X2 = Data historis TPAK (Tingkat Partisipasi Angkatan Kerja) X3 = Angkatan Kerja 15 Tahun ke atas.Tabel 3.9] dengan menggunakan fungsi: x'  0. Target X7 = Jumlah Pengangguran Data tersebut di transformasi linear ke interval [0. X6 = Angkatan kerja yang bekerja penduduk usia 15 tahun keatas. X4 = Tingkat Pengangguran Terbuka X5 = PDRB (Produk Domestik Regional Bruto) atas dasar harga konstan 2000.68 7.51 8.8( x  a)  0.1 .

69751389 0.30 0.70 0.7000 0.51117857 0.trainParam.9 X7 0. Jumlah hidden layer ditentukan dengan cara trial and error.38705378 0.9 0.1 Perancangan arsitektur backpropagation pertama adalah menentukan jumlah hidden layer.{'logsig'. [y.42473664 0.tr]= train (net.6369 0. karena semua data berada dalam range [0.2.9000 0.59040709 0.%pembentukan jaringan saraf minmax(P) net.show = 100.3200 0.9000 0. net.1 X5 0.trainParam.82804233 0.51842979 0. Laju pemahaman yang digunakan adalah sebesar 0.47468379 0.goal = 1e-5.T)%training jaringan t=[0.4247 0.10 0. net. Data hasil transformasi: X0 0. Metode pelatihan yang dipakai dalam arsitektur ini adalah dengan menggunakan metode standar dari Matlab yaitu menggunakan metode penurunan gradien.9 0.68641331 0.1] .ramal).ramal.9000 0.1] y=sim(net. Pemberian nilai bobot dan bias awal menggunakan bilangan acak kecil yang dilakukan oleh software Matlab.af.1 hidden layer (sebanyak 10 neuron) dan 1 output layer.28188047 0.6432 0.[10 1].1 0.[].t) Berikut ini matrik inputnya : P = 0.2.9 X6 0.epochs =20000.'traingd'). Batas MSE yang ditentukan sebesar 1e-05.trainParam.%epeoch maksimum 20000 net.1000 0.1 0.50 0.5987 22 Tugas Neural Network kelompok II .5000 0.48095238 0.1 0. dalam arti hasil pembelajaran yang tercepat dan terbaik itulah yang akan menentukan jumlah hidden layer tersebut.59867374 X3 0. Fungsi aktivasi yang digunakan adalah fungsi sigmoid biner (logsig).lr = 0.3266 0.[].trainParam.pf.67741982 0. Mengenai jumlah banyaknya hidden layer yang dibutuhkan.e.1 0.9 X2 0.90 X1 0.64323607 0.9 X4 0.perf]=sim(net.32658318 0.2. dan menentukan banyaknya unit dalam setiap hidden layer.9 0.31998441 0.63687003 0.Tabel 3.'logsig'}.69259259 0.33111181 0.40525164 0. tidak ada ketentuan khusus karena tidak ada teori yang dengan pasti dapat dipakai.1000 0.1000 0.3000 0. demikian juga untuk fungsi keluarannya.55440918 0.%eror hasil yang di inginkan [net.P. Berikut ini syntax yang dipakai : P = varinput %data input T =target %data target net=newff(minmax(P). Dalam hal ini arsitektur yang dirancang adalah 7 input layer.1 0.

9000 0.9000 Sedangkan matrik outputnya: 0. Dengan demikian setelah dilakukan pelatihan dan pengujian pola – pola yang dilatih.5112 0.6687 0.1000 0.1000 0.5184 0.4747 0. Berikut ini maktrik yang akan disimulasikan terhadap hasil pelatihan : ramal = 0.6926 0.9000 Hasil simulasinya adalah : y = 0.1090 Dengan mentransformasikan ke nilai sebenarnya diperoleh nilai sebesar 1298322.9000 0. diperoleh hasil bahwa test terhadap pola-pola tersebut benar (akurat).3871 0.9000 0.3311 0. Sedangkan angka prediksi BPS Propinsi Jatim sebesar 1296313.0.9000 0.1000 T = 0.2819 0.9000 0.6864 0.5904 0.9000 0.9000 0.6774 0. Tugas Neural Network kelompok II 23 .5544 0.9000 0.4810 0.6975 0.1000 Untuk memperoleh batas MSE yang ditentukan dperlukan sebanyak 17928 epochs.4053 0.1000 0.8280 0.1000 0.

Dalam penerapannya untuk mendapatkan model RBFNN terbaik. nilai tengah dan standar deviasi (skala atau width) dari variabel input pada setiap node. Sehingga pada Tugas Neural Network kelompok II 24 . Model ini adalah model jaringan saraf dengan satu unit dalam lapisan tersembunyi. Dengan terbentuknya kelompok data.1. diperlukan kombinasi yang tepat antara jumlah variabel input. Nilai varians suatu variabel input pada suatu node yang berada diluar diluar interval mengindikasikan hubungan input dengan node tidak memberi sumbangan yang signifikan pada model RBFNN. Untuk mendapatkan sejumlah node yang diinginkan dilakukan dengan mengelompokkan data.1 Pengertian Model jaringan Radial Basis Function Neural Network (RBFNN) adalah salah satu bentuk Multi layer Perceptron yang tidak ada update bobot learning rate. dimana fungsi aktivasinya adalah fungsi basis (Gaussian) dan fungsi linear pada lapisan output.2 Arsitektur Menurut Brodjol Sutijo. sehingga perlu dihapus. Subanar dan Suryo Guritno dalam Pemilihan Hubungan Input-Node pada Jaringan Syaraf Fungsi Radial Basis. sehingga diperlukan nilai interval untuk varians tersebut. 4. RBFNN didesain untuk membentuk pemetaan non linier dari variabel input ke unit hidden layer dan pemetaan linier dari hidden layer ke output. jumlah node (cluster) pada unit hidden layers. yang berimplikasi pada jumlah parameter yang optimal.BAB IV RADIAL BASIS FUNCTION NEURAL NETWORK (RBFNN) 4. Komponen invers varians pada fungsi aktivasi RBFNN merupakan bobot dari suatu pergeseran.1. Penentuan model terbaik dari RBFNN dapat diketahui dengan kriteria nilai Mean Square Error (MSE) kecil dan Koefisien Determinasi (R2) besar. maka nilai tengah dan varians variabel input pada setiap kluster dapat dihitung. Salah satu metode pengelompokan data adalah metode K-mean.1 PENDAHULUAN 4.

𝑖 = 1. Teori interpolasi multivariate secara ringkas dapat dinyatakan dengan: 𝐹: ℜ𝑁 → ℜ1 𝐹 𝑥𝑖 = 𝑑𝑖 . harus meloloskan semua data.2. 𝑁 (2) 𝑖 = 1. … . 𝑑𝑖 = ℜ1 𝑖 = 1. … .2. 𝑁 Agar memenuhi teori di atas. Interpolasi dengan menggunakan fungsi F(x) Disain dari model RBFNN untuk pendekatan suatu fungsi adalah sebagai berikut : gambar 1.2. … .2. 𝑠: ℜ𝑝 → ℜ1 (1) Berdasarkan teori interpolasi multivariate : Jika diberikan N buah titik berbeda 𝑥𝑖 ∈ ℜ𝑝 𝑖 = 1. 𝑁 Fungsi 𝐹: ℜ𝑁 → ℜ1 adalah fungsi yang memenuhi: 𝐹 𝑥𝑖 = 𝑑𝑖 . … . Design RBF network Tugas Neural Network kelompok II 25 . 𝑁 yang berhubungan dengan N buah bilangan real 𝑑𝑖 .RBFNN dilakukan pemetaan input dari ruang berdimensi p ke output ruang berdimensi satu.

2. Fungsi radial basis yang sering digunakan adalah fungsi gaussian karena mempunyai sifat lokal.2..3. maka (2) dapat dinyatakan dengan: 𝐹 𝑥 = Dimana ∅ 𝑥 − 𝑥𝑖 jarak Euclid.3.j = 1. … . Interpolasi input-output (2) dengan melihat disain model RBFNN.Pada pemodelan RBFNN dilakukan dengan memilih suatu fungsi F( x) sehingga (2) dipenuhi. Ada beberapa fungsi radial basis + 𝜎 2 + 𝜎 2 1/2 3. Fungsi Thin Plate Spline ∅ 𝑧 = 𝑧 − 𝜇 2 𝑙𝑜𝑔 𝑧 − 𝜇 2. maka fungsi membe-rikan nilai nol. sedangkan bila input jauh dari ratarata. maka fungsi akan meng-hasilkan nilai satu. diantaranya adalah : 1. 𝑁 pusat dari RBF 𝜎12 𝜎22 ⋮ 𝜎𝑁2 … 𝜎1𝑁 𝑤1 𝑑1 … 𝜎2𝑁 𝑤2 𝑑2 ⋱ ⋮ ⋮ = ⋮ … 𝜎𝑁𝑁 𝑤𝑁 𝑑𝑁 .2.. 𝑤. … . 𝑤𝑁 dan Tugas Neural Network kelompok II 26 𝑥𝑖 ∈ ℜ𝑝 𝑖 = 1. Fungsi Gaussian ∅ 𝑧 = 𝑒𝑥𝑝 − 𝑧 − 𝜇 2 /𝜎 2 Apabila diketahui N buah titik data maka persamaan (3) dapat ditulis : 𝜎11 𝜎21 ⋮ 𝜎𝑁1 Dimana ∅𝑖𝑗 = ∅ 𝑥𝑖 − 𝑥𝑗 i. Fungsi Multikuadratik ∅ 𝑧 = 𝑧 − 𝜇 2 𝑁 𝑖=1 𝑤𝑖 ∅ 𝑥 − 𝑥𝑖 (3) adalah norm 𝑖 = 1. 𝑑2 . yaitu bila input dekat dengan ratarata (pusat). 𝑁 adalah himpunan fungsi nonlinear yang disebut fungsi radial basis (Radial Basis Function = RBF) dan . … .. Fungsi Invers Multikuadratik ∅ 𝑧 = 𝑧 − 𝜇 2 −1/2 4. 𝑑𝑁 𝑤 = 𝑤1 . … . N Persamaan diatas bila dinyatakan dalam bentuk metriks menjadi: fw=d dimana 𝑑 = 𝑑1 ..

3. data dipartisi kedalam subgroup atau kluster. 2. m nilai rata-rata atau pusat.. M... Tahap pertama adalah pembelajaran unsupervisi. . Jika ada m buah unit pada RFBNN. 3.. 2. Pendekatan fungsi dengan menggunakan model RBFNN dilakukan dengan dua tahap. dengan kriteria : 𝑘 𝑥 = arg 𝑚𝑖𝑛𝑘 𝑥 𝑛 − 𝜇𝑘 (𝑛) ∅𝑖𝑗 adalah matrik interpolasi yang definit positif dan mempunyai k= 1. Pendekatan suatu fungsi dengan menggunakan RBFNN dilakukan dengan interpolasi untuk mendapatkan penyelesaian optimal dari ruang berdimensi tinggi ke dimensi yang lebih rendah. dengan meminimumkan jarak euclidian. Nilai ratarata kluster untuk iterasi ke n adalah mi(n). maka ada akan ada 𝝁𝒊 . Metode Kmean cluster adalah salah satu metode dari beberapa metode unsupervisi pada pemodelan RBFNN dan metode K-mean adalah salah satu bentuk metode pemetaan pada dirinya sendiri (Self Organizing map) yang juga dikembangkan dalan pemodelan NN. Algoritma dari metode K-mean secara garis besar adalah sebagai berikut : 1. Metode K-Mean Clusters Menurut Brodjol Sutijo. .. dimana pada setiap kluster mempunyai sifat yang homogen serta antar kluster mempunyai ciri yang berbeda.. Subanar dan Suryo Guritno dalam Pemilihan Hubungan Input-Node pada Jaringan Syaraf Fungsi Radial Basis.. i = 1. 2. 2. i = 1. . Similaritas : Dapatkan nilai k(x). . Inisialisasi : Memilih nilai secara random sebagai nilai awal dari pusat kluster 𝝁𝒊 (0).𝑓 = ∅𝑖𝑗 matrik innvers . Penentuan nilai rata-rata dari setiap kluster dilakukan dengan iterasi. Pada metode K-mean. yaitu untuk menentukan mean dan standart deviasi dari variabel input pada setiap node pada unit hidden layer. m Tugas Neural Network kelompok II 27 . indeks dari kesesuaian terbaik untuk pusat kluster. . Poggio dan Girosi (1990) menyusun teknik standar yang disebut metode Galerkin.

sebagai berikut : 𝜇𝑘 𝑛 + 1 = 𝜇𝑘 𝑛 + 𝜂 𝑥 𝑛 − 𝜇𝑘 𝑛 . Sebaliknya jika nilai bobot sangat kecil. Sehingga jika bobot bernilai sangat besar yang berarti nilai varians kecil menuju nol. berarti nilai varian besar. Ulangi langkah 2 dan 3 sampai tidak ada perubahan nilai pusat.3. Berdasarkan distribusi chi-square diketahui bahwa : 𝑛 𝑖=1 2 𝑥𝑖 − 𝑥 𝜎 2 2 ~𝜒(𝑛−1) maka interval kepercayaan (1 − 𝛼) untuk 𝑛 𝑖=1 𝑥𝑖 − 𝑥 2 = (𝑛 − 1)𝑠 2 adalah : 𝜎 2 𝜒 2𝑛 −1 .1−𝛼 /2 Batas bawah : Tugas Neural Network kelompok II 28 . Karena yang diperoleh dari data adalah dugaan dari 𝜎 2 (𝑠 2 ). Sehingga diperlukan suatu nilai batas bawah dan batas atas untuk varians ter-sebut. 𝜇𝑘 𝑛 . sehingga nilai 𝑠 2 harus berada pada suatu interval kepercayaan. sehingga tidak dapat menangkap informasi yang ada. berimplikasi pada bentuk fungsi yang lebar dan berisi banyak informasi yang kurang berguna. Update : Menghitung nilai pusat baru. dengan menggunakan suatu pendekatan. berimplikasi bentuk fungsi sempit. 𝑘 = 𝑘(𝑥) 𝑦𝑎𝑛𝑔 𝑙𝑎𝑖𝑛 dimana 𝜂adalah parameter laju pembelajaran 4. Invers Varians Pada model RBFNN dengan fungsi aktivasi adalah gaussian : − 𝑥 − 𝜇𝑗 𝜙𝑗 𝑥 = 𝑒𝑥𝑝 2𝑠𝑗 2 2 menunjukkan bahwa komponen varians (1/𝑠𝑗2 ) dapat dianggap sebagai bobot dari suatu pergeseran 𝑥 − 𝜇𝑗 . Nilai batas untuk varians dapat didekati dengan menghitung interval kepercayaan (1 − 𝛼) dari nilai varians tersebut.

ingin kita prediksi nilai inflasi pada bulan ke-77.48 0.18 -0.2 PEMBAHASAN Data inflasi merupakan data yang sangat penting dalam perkembangan perekonomian.1 Data inflasi selama 76 bulan Bulan 1 2 3 4 5 6 7 8 9 Inflasi 2.36 0.97 0.68 Bulan 21 22 23 24 25 26 27 28 29 Inflasi -0. maka nilai 𝑠 2 dicari dengan pendekatan lain. Nilai (n-1) 𝑠 2 yang berada diluar in-terval adalah petunjuk awal bahwa hubungan (link) variabel input ke node adalah calon untuk dihapus.𝛼 /2 Karena nilai 𝑠 2 tidak diketahui.32 1.57 -0.Batas atas : 𝜎 2 𝜒 2𝑛 −1 .97 1.33 0. karena terindikasi tidak dapat menangkap informasi yang ada atau terlalu banyak mendapat informasi yang tidak berguna.8 Bulan 60 61 62 63 64 65 66 67 68 Inflasi 0.68 -0.39 0.28 -0.54 1.93 -0. Berikut ditampilkan datanya. 4.2 0.02 0. yaitu dengan melakukan simulasi sebanyak n kali.34 -1.89 0.46 1.05 -0.26 -0. Tabel 3.36 0.87 0. Data inflasi ini merupakan data time series dan menunjukkan waktu tiap bulan.13 Bulan 41 42 43 44 45 46 47 48 49 Inflasi 0.02 Tugas Neural Network kelompok II 29 .82 0.94 0.88 0.53 0.09 0. Di bawah ini kami tampilkan data inflasi selama 76 bulan.85 1.06 1.29 0.8 0.16 1. Dari data tersebut.

28 0.21 0.29 0.18 -0.99 1.a). -0.64 0.89 0.89 1.97 1.56 0.94 69 70 71 72 73 74 75 76 0.2 -0.1} bobot_bias_input = net.17 1.06 1. %data input p=1:1:76.26 -0..62 1.84 0.45 0.85 1.73 1...48 0.94 0.80 0.24 0.16 1..44582e-031 bobot_input = 1 37 30 24 Tugas Neural Network kelompok II 30 .03 0.71 1. %membentuk jaringan basis radial net=newrb(p.51 30 31 32 33 34 35 36 37 38 39 40 1.99 1.09 0.02 0.43 -0.84 0..IW{1.b{1.02 0.21 0.28 0.56 0.LW{2. MSE = 0. MSE = 1. NEWRB.91 0.36 0.34].68 1. -0.1} bobot_lapisan = net.33 . MSE = 0..09 0. Setelah dilakukan pengolahan dengan Matlab diperoleh hasil sebagai berikut: NEWRB.01 0.13 1.1} bobot_bias_lapisan = net.10 11 12 13 14 15 16 17 18 19 20 0.0847929 50.32 0.55 1.45 0.06 0.56 0.03 0.67 2.20 ..84 0.32 0.36 0. 1.04 1.55 1. jumlah data sebelumnya ada 76 data.. NEWRB.05 -0.46 1. neurons neurons neurons neurons = = = = 0.89 1.34 Sintax pengolahannya adalah sebagai berikut: clc %data target a = [2.25 1.51 -0.68 0. 0.12 -0.84 0.5 1.09 0.01 0.12 -0.32 1.57 -0.93 -0.91 0.07 -0.50 .07 -0.43 -0.q) %untuk simulasi data ke 77.68 1..28 -0.04 1.94 0.68 -0.56 0.02 -0.36 .82 0.64 0.06 0.. MSE = 0.36 0.73 .80 0.23 0.39 0.67 2.87 0.574084 25.23 0.5 -0.24 50 51 52 53 54 55 56 57 58 59 60 0.71 1.34 -1.17 1.53 0. NEWRB.54 1.20 0.15 0. mka untuk bulan berikutnya bulan ke-77 y=sim(net.010377 75.21 0. %melihat bobot bobot_input = net.15 0.50 1.21 0.88 0.02 -0.62 1.1} q=77 %untuk data ke 77.25 1. 0.97 0.b{2.

47 12 72 35 75 19 8 59 65 27 23 43 4 56 17 49 31 11 60 64 7 41 70 40 38 42 74 73 76 71 32 33 34 29 28 18 15 13 67 20 22 25 26 21 50 53 55 16 2 36 51 61 62 45 46 44 48 57 58 54 52 Tugas Neural Network kelompok II 31 .

8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 Tugas Neural Network kelompok II 32 .8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.68 10 9 6 14 3 63 66 69 39 5 bobot_bias_input = 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.8326 0.

0290 -1.3261 -1.4669 -2.8326 0.8098 4.7765 2.8469 Columns 28 through 36 -1.9263 3.1115 -1.8326 0.6818 - Columns 37 through 45 -2.1550 1.2471 -1.6596 -1.8326 0.8692 Columns 10 through 18 0.0.8326 0.8326 0.8326 0.0218 -0.8326 bobot_lapisan = Columns 1 through 9 2.9406 1.9009 1.5933 3.8326 0.0564 4.5337 2.8326 0.3801 0.8326 0.5967 -0.9892 0.8326 0.1674 - Tugas Neural Network kelompok II 33 .2711 0 -1.8326 0.8326 0.4404 0.8790 1.2362 -2.8326 0.8326 0.8326 0.8326 0.8326 0.7863 0.8326 0.8326 0.8326 0.8326 0.8326 0.4696 - Columns 19 through 27 0.8326 0.8326 0.8326 0.0511 -0.3372 -0.1435 -4.1750 2.2929 -2.4127 -0.0426 -0.8326 0.0748 1.3466 -0.4107 1.8326 0.2332 1.8326 0.8326 0.2796 -1.1372 0.

8726 -1.2366 -0.6100 0.3170 - Columns 73 through 76 -0.0251 0.2333 1. Tugas Neural Network kelompok II 34 .1096 1.8640 -0.6399 -0.6562 -0.6405 -0.0990 1.0.6694 Columns 46 through 54 -2.15.0107 -0.1995 -2.1224 -0.0389 -1.6540 -1.7137 0.1621 - Columns 64 through 72 -0.0300 -2.1410 -2.2881 q = 77 y = 0.6288 -0.3734 -0.0554 - Columns 55 through 63 -1.6577 0.6030 bobot_bias_lapisan = 1.5340 -0.1528 Maka data untuk bulan ke-77 adalah 0.15 Dari pengolahan matlab di atas didapatkan bahwa prediksi inflasi pada bulan ke 77 adalah sebesar 0.1724 -1.0051 -0.2911 -0.8350 -1.7175 0.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->