P. 1
Jaringan Syaraf Tiruan

Jaringan Syaraf Tiruan

|Views: 55|Likes:

More info:

Published by: Anonymous 9qXAdTCrvt on Oct 08, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PPT, PDF, TXT or read online from Scribd
See more
See less

05/21/2015

pdf

text

original

Jaringan Syaraf Tiruan

PKB - Antonie

Biological Inspiration
‡ Animals are able to react adaptively to changes in their external and internal environment, and they use their nervous system to perform these behaviours. ‡ The nervous system is build by relatively simple units, the neurons, so copying their behavior and functionality should be the solution.

Human Brain
‡ Bertugas untuk memproses informasi ‡ Seperti prosesor sederhana ‡ Masing-masing cell tersebut berinteraksi mendukung kinerja otak ‡ Setiap sel (neuron) memiliki satu nukleus (soma), bertugas memproses informasi, informasi diterima oleh dendrit, dan disebarkan melalui akson ‡ Pertemuan informasi antar syaraf berada di sinapsis

Human Brain
‡ Manusia memiliki krg lbh 10^12 neuron! Dan 6x10^18 sinapsis! ‡ Informasi yang dikirimkan berupa rangsangan dengan sebuah batas ambang (threshold)
± Pada batas tertentu, syaraf lain akan teraktifasi dan merespon

‡ Hubungan antar syaraf terjadi secara dinamis ‡ Otak manusia memiliki kemampuan untuk belajar dan beradaptasi
± Mampu mengenali pola, wajah, mengkontrol organ tubuh!

Human Neuron Dendrites Soma (cell body) Axon .

Human Neuron (Detail) axon dendrites synapses .

neuron lain dapat tumbuh dan dilatih .Human Brain ‡ Neuron merupakan sistem yang fault tolerance ± Dapat mengenali sinyal input yang berbeda dari sebelumnya ‡ Dapat mengenali orang yg blm pernah ditemui hanya dengan melihat dari foto ‡ Dapat mengenali orang yang berubah krn tua misalnya ± Tetap dapat bekerja walau beberapa neuronnya rusak.

Learning in biological systems Learning = learning by adaptation The young animal learns that the green fruits are sour. At the neural level the learning happens by changing of the synaptic strengths. The learning happens by adapting the fruit picking behavior. while the yellowish/reddish ones are sweet. . and building new ones. eliminating some synapses.

the objective of learning in biological organisms is to optimise the amount of available resources.Learning as optimisation The objective of adapting the responses on the basis of the information received from the environment is to achieve a better state.g. juicy fruits that make its stomach full. In other words. happiness.. . E. or in general to achieve a closer to optimal state. and makes it feel happy. the animal likes to eat many energy rich.

JST ‡ Suatu sistem pemrosesan informasi yang mencoba meniru kinerja otak manusia ‡ Merupakan generalisasi model matematis dengan asumsi: ± Pemrosesan informasi terjadi pada elemen sederhana (=neuron) ± Sinyal dikirimkan diantara neuron-neuron melalui penghubung (=dendrit dan akson) ± Penghubung antar elemen memiliki bobot yang akan menambah atau mengurangi sinyal ± Untuk menentukan output. setiap neuron memiliki fungsi aktivasi (biasanya non linier) yang dikenakan pada semua input ± Besar output akan dibandingkan dengan threshold .

parallel distributed processing .JST ‡ Baik tidaknya suatu model JST ditentukan oleh: ± Pola antar neuron (arsitekur jaringan) ± Metode untuk menentukan dan mengubah bobot (disebut metode learning) ± Fungsi aktivasi ‡ JST disebut juga: brain metaphor. computational neuroscience.

JST ‡ JST dapat belajar dari pengalaman! ‡ Biasanya berhubungan dengan angka (numerik) sehingga data yang tidak numerik harus dibuat ke numerik ‡ Tidak ada rumus yang tetap (fixed) sehingga disebut dengan free-estimator! ‡ JST disebut black box atau tidak transparan karena tidak mampu menjelaskan bagaimana suatu hasil didapatkan! ‡ JST mampu menyelesaikan permasalahan yang tidak terstruktur dan sulit didefinisikan! .

Kelebihan JST ‡ Mampu mengakuisisi pengetahuan walau tidak ada kepastian ‡ Mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu ‡ JST dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan belajar (self organizing) ‡ Memiliki fault tolerance. gangguan dapat dianggap sebagai noise saja ‡ Kemampuan perhitungan secara paralel sehingga proses lebih singkat .

JST mampu: ‡ Klasifikasi: memilih suatu input data ke dalam kategori tertentu yang sudah ditetapkan ‡ Asosiasi: menggambarkan suatu obyek secara keseluruhan hanya dengan bagian dari obyek lain ‡ Self organizing: kemampuan mengolah datadata input tanpa harus mempunyai target ‡ Optimasi: menemukan suatu jawaban terbaik sehingga mampu meminimalisasi fungsi biaya .

Kelemahan JST ‡ Kurang mampu untuk melakukan operasi operasi numerik dengan presisi tinggi ‡ Kurang mampu melakukan operasi algoritma aritmatik. operasi logika dan simbolis ‡ Lamanya proses training yang mungkin terjadi dalam waktu yang sangat lama untuk jumlah data yang besar .

suara. tanda tangan. kanker ‡ Signal Processing ± Menekan noise pada saluran telepon ‡ Peramalan ± Peramalan saham ‡ Autopilot dan simulasi ‡ Kendali otomatis otomotif . gambar yang sudah sedikit berubah (mengandung noise) ± Identifikasi pola saham ± Pendeteksian uang palsu.Aplikasi JST ‡ Pengenalan pola (pattern recognition) ± Huruf.

.Aplikasi JST Tasks to be solved by artificial neural networks: ‡ controlling the movements of a robot based on selfperception and other information (e. edible or non-edible) in an artificial world. when a robot wants to catch it.g. ‡ predicting where a moving object goes. visual information).g..g.. ‡ deciding the category of potential food items (e.. a familiar face). ‡ recognizing a visual object (e.

Werbos memperkenalkan algoritma backpropagation untuk perceptron banyak lapisan . Hebb mengusulkan jaringan Hebb ‡ 1958. Widrow dan Hoff mengembangkan ADALINE dengan aturan pembelajaran Least Mean Square (LMS) ‡ 1974. Rosenblatt mengembangkan perceptron untuk klasifikasi pola ‡ 1960.Sejarah ‡ Model JST formal pertama diperkenalkan oleh McCulloch dan Pitts (1943) ‡ 1949.

ART2. Kohonen mengembangkan learning unsupervised untuk pemetaan ‡ 1982. dikembangkan Radial Basis Function . dikembangkan BAM (Bidirectional Associative Memory) ‡ 1988. ART3) ‡ 1982. Hopfield mengembangkan jaringan Hopfield untuk optimasi ‡ 1985. Grossberg dan Carpenter mengembangkan Adaptive Resonance Theory (ART. Algoritma Boltzmann untuk jaringan syaraf probabilistik ‡ 1987.Sejarah ‡ 1982.

dst« . y ! H ( z ) i !1 Y1 X2 Y2 W2 Fungsi aktivasi X3 W3 Bobot Keluaran Y3 Masukkan Y1 = X1.W3.W2 + X3.W1 + X2.Model Neuron JST X1 W1 n z ! § wi x i .

Model Neuron ‡ Pada JST. neuron-neuron akan dikumpulkan dalam lapisan lapisan yang disebut dengan layers ‡ Neuron dalam satu lapisan akan dihubungkan dengan neuron pada lapisan lainnya ‡ Kadang muncul juga layer tersembunyi (hidden layer) untuk menambah keakuratan pelatihan ‡ Informasi tersebut bisa dirambatkan secara forward ataupun backward .

supervised learning. ± Fungsi aktivasi sederhana adalah mengakalikan input dengan bobotnya dan kemudian menjumlahkannya (disebut penjumlahan sigma) ± Berbentuk linier atau tidak linier. dan sigmoid ‡ Paradigma pembelajaran: bentuk pembelajaran. atau unsupervised learning . kumpulan neuron yang saling berhubungan dan membentuk lapisan ‡ Input: sebuah nilai input yang akan diproses menjadi nilai output ‡ Output: solusi dari nilai input ‡ Hidden layer: lapisan yang tidak terkoneksi secara langsung dengan lapisan input atau output.Istilah dalam JST ‡ Neuron: sel syaraf tiruan yang merupakan elemen pengolah JST ‡ Jaringan: bentuk arsitektur JST. memperluas kemampuan JST ‡ Bobot: nilai matematis dari sebuah koneksi antar neuron ‡ Fungsi aktivasi: fungsi yang digunakan untuk mengupdate nilai-nilai bobot per-iterasi dari semua nilai input.

JST dengan 3 layer .

satu atau lebih lapisan output. dan lapisan tersembunyi ± Dapat menyelesaikan masalah yang lebih kompleks karena lebih akurat ± Fungsi pembelajarannya lebih rumit ‡ Kompetitive Model / Recurrent Model ± Hubungan antar neuron tidak diperlihatkan secara langsung pada arsitektur ± Hubungan antar neuron dapat digambarkan sebagai jaring yang rumit .Arsitektur Jaringan ‡ Single Layer ± Hanya memiliki satu lapisan dengan bobot-bobot terhubung. ± Langsung menerima input dan mengolahnya menjadi output tanpa menggunakan hidden layer ‡ Multi Layer ± Memiliki satu atau lebih lapisan input.

Model JST ‡ Single Layer ‡ Multi Layer ‡ Competitive Layer / Recurrent .

hopfield. kohonen.Pengelompokkan JST ‡ JST Feed Forward ± Tidak mempunyai loop ± Contoh: single layer perceptron. ART . lapisan output akan memberi input lagi bagi lapisan input ± Contoh: competitive networks. mutilayer perceptron. radial basis function ‡ JST Feed Backward (Recurrent) ± Memiliki loop.

biasanya ke dalam suatu kategori/kelompok2 tertentu ‡ Hibrida Learning ± Gabungan antara unsupervised dan supervised .Paradigma pembelajaran ‡ Supervised Learning ± Kumpulan input berusaha membentuk target output yang sudah diketahui sebelumnya ± Perbedaan antara output yang masih salah dengan output yang diharapkan harus sekecil mungkin ± Biasanya lebih baik daripada unsupervised ± Kelemahan: pertumbuhan waktu komputasi eksponensial. data bnyk berarti semakin lambat ‡ Unsupervised Learning ± JST mengorganisasikan dirinya untuk membentuk vektor-vektor input yang serupa tanpa menggunakan data atau contoh-contoh pelatihan.

Bobot baru = bobot lama + delta ‡ If i=n then reset i=1.Algoritma Pembelajaran Umum ‡ ‡ ‡ ‡ Dimasukkan n data pelatihan Inisialisasi bobot-bobot jaringan. else i=i+1 . set i = 1 Masukkan contoh ke-i ke dalam input Cari tingkat aktivasi unit output menggunakan algoritma yang ditetapkan ± If memenuhi kriteria output then exit else: ‡ Update bobot2 menggunakan fungsi galat error.

Hopfield. Backpropagation ‡ Pengenalan Pola: ART.JST dan Aplikasi ‡ Klasifikasi: ADALINE. Backpropagation ‡ Optimasi: ADALINE. MADALINE. Boltzman. Backpropagation ‡ Peramalan: ADALINE. Backpropagation .

Fungsi Aktivasi ‡ Fungsi undak biner (hard limit) ‡ Fungsi undak biner (threshold) U .

Fungsi Aktivasi ‡ Fungsi bipolar ‡ Fungsi bipolar dengan threshold .

Fungsi Aktivasi ‡ Fungsi Linier (identitas) ‡ Fungsi Sigmoid biner .

dan Y = 1 jika dan hanya jika inputan 1 X1 1 1 0 0 X2 1 0 1 0 Y 1 0 0 0 . input X1 dan X2.McCulloch Pitts ‡ Fungsi aktivasi biner ‡ Besar bobotnya sama ‡ Memiliki threshold yang sama Contoh buat fungsi logika ³and´.

1+1.1=1 0.1+0.1+1.1=1 0. 0 jika net < 2 1 0 0 0 X 1 1 Y 2 X 2 1 Ternyata BERHASIL mengenali pola .1=0 Y.1=2 1.1+0. 1 jika net >=2.Jawab X1 1 1 0 0 X2 1 0 1 0 net 1.

1+0.1=1 0. 1 jika net >=1.1+1. 0 jika net < 1 1 1 1 0 X1 1 Y 1 X2 1 Ternyata BERHASIL mengenali pola .1=2 1.Problem ³OR´ X1 1 1 0 0 X2 1 0 1 0 net 1.1+0.1=1 0.1+1.1=0 Y.

-1=2 1 0.-1=-1 0 0.2+0.Problem ³X1 and not(X2)´ X1 1 1 0 0 X2 1 0 1 0 net Y.-1=1 0 1. 1 jika net >=2.2+1.-1=0 0 X1 2 Y 2 X2 -1 Ternyata BERHASIL mengenali pola .2+1. 0 jika net < 2 1.2+0.

1) = 0 F(0.Problem ³XOR´ X1 1 1 0 0 X2 1 0 1 0 Y 0 1 1 0 F(0.0) = 0 F(1.1) = 1 F(1.0) = 1 GAGAL! .

Solusi ‡ XOR = (x1 ^ ~x2) V (~x1 ^ x2) ‡ Ternyata dibutuhkan sebuah layer tersembunyi 2 2 X1 Z1 1 -1 -1 1 X2 Z2 Y 1 2 2 .

Tabel .

bobot dan bias diubah berdasarkan rumus tertentu ‡ W = bobot ‡ Wbaru = Wlama + X1Y1 ‡ Algoritma: ± Init. dengan delta w = xi*y Perbaiki bias.Jaringan HEBB ‡ Menggunakan iterasi untuk menghitung bobot dan bias ‡ Dalam setiap iterasi. b(baru) = b(lama) + y . semua bobot wi = 0 ± Untuk semua input: ‡ ‡ ‡ ‡ Set fungsi aktivasi xi = si Set output y=t Perbaiki bobot: w(baru) = w(lama) + delta w.

To Be Continued ‡ ‡ ‡ ‡ Jaringan HEBB Jaringan Perceptron Jaringan Back Propagation Hybrid JST .

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->