P. 1
Apa Itu Jaringan Syaraf Tiruan

Apa Itu Jaringan Syaraf Tiruan

5.0

|Views: 689|Likes:
Published by nunir_fava

More info:

Published by: nunir_fava on Nov 29, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

04/28/2013

pdf

text

original

Apa itu Jaringan Syaraf Tiruan(JST)?

Jaringan saraf tiruan (JST) atau neural network adalah suatu metode komputasi yang meniru sistem jaringan saraf biologis. Metode ini menggunakan elemen perhitungan non-linier dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan saraf manusia. Jaringan saraf tiruan dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi karena proses pembelajaran. Layaknya neuron biologi, JST juga merupakan sistem yang bersifat fault tolerant dalam 2 hal. Pertama, dapat mengenali sinyal input yang agak berbeda dari yang pernah diterima sebelumnya. Sebagai contoh, manusia sering dapat mengenali seseorang yang wajahnya pernah dilihat dari foto atau dapat mengenali sesorang yang wajahnya agak berbeda karena sudah lama tidak menjumpainya. Kedua, tetap mampu bekerja meskipun beberapa neuron-nya tidak mampu bekerja dengan baik. Jika sebuah neuron rusak, neuron lain dapat dilatih untuk menggantikan fungsi neuron yang rusak tersebut. Jaringan saraf tiruan, seperti manusia, belajar dari suatu contoh karena mempunyai karakteristik yang adaptif, yaitu dapat belajar dari data-data sebelumnya dan mengenal pola data yang selalu berubah. Selain itu, JST merupakan sistem yang tak terprogram, artinya semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran/pelatihan. Hal yang ingin dicapai dengan melatih JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi. Yang dimaksud kemampuan memorisasi adalah kemampuan JST untuk mengambil kembali secara sempurna sebuah pola yang telah dipelajari. Kemampuan generalisasi adalah kemampuan JST untuk menghasilkan respons yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat bila pada suatu saat ke dalam JST itu dimasukkan informasi baru yang belum pernah dipelajari, maka JST itu masih akan tetap dapat memberikan tanggapan yang baik, memberikan keluaran yang paling mendekati (Puspitaningrum, 2006). Jaringan saraf tiruan berkembang secara pesat pada beberapa tahun terakhir. Jaringan saraf tiruan telah dikembangkan sebelum adanya suatu komputer konvensional yang canggih dan terus berkembang walaupun pernah mengalami masa vakum selama beberapa tahun. JST menyerupai otak manusia dalam dua hal, yaitu:
• •

Pengetahuan diperoleh jaringan melalui proses belajar Kekuatan hubungan antar sel syaraf (neuron) yang dikenal sebagai bobot-bobot sinaptik digunakan untuk menyimpan pengetahuan.

Menurut (Siang, 2004) JST ditentukan oleh 3 hal:
• •

Pola Hubungan Antar Neuron Metode untuk menentukan bobot penghubung neuron

Page | 1

Untuk supervised learning diperlukan data training yang meliputi nilai input dan nilai target. sebagai contoh: JST mampu melakukan semua yang bisa dilakukan oleh komputer. JST mampu melakukan pembelajaran terbimbing(supervised) maupun tak terbimbing(unsupervised learning). Secara definisi perceptron adalah penggolongan biner yang memetakan input X kedalam fungsi f(x).• Fungsi Aktivasi Apa yang bisa dan tidak bisa dilakukan oleh JST? Pada prinsipnya. Output yang dihasilkan pada perceptron dengan lebih dari satu layer jaringan syaraf akan menjadi input pada perceptron selanjutnya. namun pada praktiknya lebih banyak digunakan untuk supervised learning. Setelah training berhasil. sehingga sistem dapat secara otomatis mematikan mesin. Untuk mencapai keberhasilan proses training diperlukan data training dan waktu yang cukup banyak pada saat melakukan training. JST mampu melakukan komputasi dengan semua fungsi komputasi. bisa dimasukkan input data tanpa nilai target dan JST akan menghitung nilai output yang mendekati nilai target. Page | 2 . Penerapan JST yang telah digunakan dalam dunia nyata adalah sebagai berikut: • • • • • • • • Pengenalan karakter Diagnosa mesin -> mendeteksi ketika mesin mengalami kesalahan. Manajemen portofolio -> mengalokasikan aset dalam portofolio dengan tujuan untuk memaksimalkan hasil dan meminimalisir resiko Target recognition -> aplikasi militer yang menggunakan video atau data citra inframerah untuk menentukan letak target Financial forecasting Perkiraan fungsi Klasifikasi Kompresi data Apa itu perceptron? Perceptron merupakan feedforward neural network yang paling sederhana.

Watson (1964) 2. Waibel and Hinton (1990) 3. Cowan and Grant (1991)  CMAC: Cerebellar Model Articulation Controller – Albus (1975). Fausett (1994)  Higher Order – Bishop (1995)  Functional Link – Pao (1989)  MLP: Multilayer perceptron – Bishop (1995). Fausett (1994)  TDNN: Time Delay NN – Lang. Fausett (1994)  Boltzman Machine – Ackley et al. (1985). Fausett (1994)  Regression only  GNN: General Regression Neural Network – Specht (1991). 1990). Competitive  ARTMAP – Carpenter. Hinton. Fausett (1994)  Recurrent time series  Backpropagation through time – Werbos (1990)  Elman – Elman (1990)  FIR: Finite Impulse Response – Wan (1990)  Jordan – Jordan (1986)  Real-time recurrent network – Williams and Zipser (1989)  Recurrent backpropagation – Pineda (1989). Grossberg and Reynolds (1991)  Fuzzy ARTMAP – Carpenter. Minsky and Papert (1969/1988). Markuzon. Reynolds and Rosen (1992). Krogh. Moody and Darken (1989).Apa saja jenis JST yang ada? 1. Feedback – Hertz. Nadaraya (1964). Fausett (1994)  Quickprop – Fahlman (1989)  RPROP – Riedmiller and Braun (1993)  RBF networks – Bishop (1995). Masters (1993). Brown and Harris (1994)  Classification only  LVQ: Learning Vector Quantization – Kohonen (1988). and Palmer (1991). 1988. Hand (1982). Grossberg. Kasuba (1993)  Gaussian ARTMAP – Williamson (1995)  Counterpropagation – Hecht-Nielsen (1987. Medsker and Jain (2000)  BAM: Bidirectional Associative Memory – Kosko (1992). Supervised 1. Fausett (1994)   Page | 3 . Fausett (1994) Perceptron – Rosenblatt (1958). Orr (1996)  OLS: Orthogonal Least Squares – Chen. Fausett (1994)  PNN: Probabilistic Neural Network – Specht (1990). and Williams (1986)  Cascade Correlation – Fahlman and Lebiere (1990). Fausett (1994)  Adaline – Widrow and Hoff (1960). Fausett (1994)  Backprop – Rumelhart. Reed and Marks (1999). Feedforward  Linear Hebbian – Hebb (1949).

periodic posting to the Usenet newsgroup comp. Jaringan Saraf Tiruan & Pemrogramannya Menggunakan Matlab. (1988). Recurrent network memiliki memori dinamik : luaran-luaran yang berasal dari masukan. and Palmer (1991) 2.html Siang. J. Fausett (1994)  GTM: – Bishop. ed. Recurrent network : Sinyal mengalir dua arah : maju dan mundur. Dimension Reduction – Diamantaras and Kung (1996)  Hebbian – Hebb (1949). Fausett (1994)  BSB: Brain State in a Box – Anderson et al. Moore (1988). part 1 of 7: Introduction.S. Autoassociation  Linear autoassociator – Anderson et al. Neural Network FAQ. Fausett (1994) 3. and Ito (1983). (1977). W. Fausett (1994)  Oja – Oja (1989)  Sanger – Sanger (1989)  Differential Hebbian – Kosko (1992) 3. and Palmer (1991) 1. Fausett (1994)  ART 2 – Carpenter and Grossberg (1987b).. (1997). Fausett (1994) 2. Pengantar Jaringan Saraf Tiruan. Fausett (1994)  ART 2-A – Carpenter. D. Miyake.sas.ai. Competitive  Vector Quantization  Grossberg – Grossberg (1976)  Kohonen – Kohonen (1984)  Conscience – Desieno (1988)  Self-Organizing Map  Kohonen – Kohonen (1995). Fukushima. Fausett (1994)  Hopfield – Hopfield (1982). Nonlearning 1. Unsupervised – Hertz. sama Page | 4 .neural-nets. J. Sarle. Grossberg and Rosen (1991a)  ART 3 – Carpenter and Grossberg (1990)  Fuzzy ART – Carpenter. Hopfield – Hertz. URL: ftp://ftp. Krogh. various networks for optimization – Cichocki and Unbehauen (1993)  Referensi: Puspitanigrum. Yogyakarta: Penerbit Andi. Yogyakarta: Penerbit Andi. (2004). Krogh. (1977). Svensén and Williams (1997)  Local Linear – Mulier and Cherkassky (1995)  Adaptive resonance theory  ART 1 – Carpenter and Grossberg (1987a). Grossberg and Rosen (1991b)  DCL: Differential Competitive Learning – Kosko (1992) 2.com/pub/neural/FAQ. (2006).Neocognitron – Fukushima.

dan Jordan network [Jordan. JST seperti ini memliki kemampuan klasifikasi. Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas memilih suatu input data ke dalam katagori tertentu yang sudah ditetapkan. Contoh : Learning Vector Quantization (LVQ) adalah suatu metoda klasifikasi pola yang masing-masing unit keluaran mewakili kategori atau kelas tertentu (beberapa unit keluaran seharusnya digunakan untuk masing-masing kelas). 1986]. Elman network [Elman. 1990]. gangguan dapat dianggap sebagai noise saja Kemampuan perhitungan secara paralel sehingga proses lebih singkat JST Mampu : • • • • Klasifikasi memilih suatu input data ke dalam kategori tertentu yang sudah ditetapkan Asosiasi menggambarkan suatu objek secara keseluruhan hanya dengan bagian dari objek lain Self organizing : kemampuan mengubah data data input tanpa harus mempunya target Otimasi menemukan suatu jawaban terbaik sehingga mampu meminimalisasi fungsi biaya Kelemahan JST : • • • 1. 1982]. operasi logika dan simbolis Lamanya proses training yang mungkin terjadi dalam waktu yang sangat lama untuk jumlah data yang besar Page | 5 . JST-1 : a. Contoh : Hopfield network [Hopfield. Kurang mampu untuk melakukan operasi operasi numerik dengan presisi tinggi Kurang mampu melakukan operasi algoritma aritmatik. JST (Jaringan saraf tiruan) • • • • • JST dapat belajar dari pengalaman Biasanya berhubungan dengan angka (numerik) sehingga data yang tidak numerik harus dibuat ke numerik Tidak ada rumus yang tetap (fixed) sehingga disebut dengan free-estimator JST disebut black box atau tidak transparan karena tidak mampu menjelaskan bagaimana suatu hasil didapatkan JST mampu menyelesaikan permasalahan permasalahan yang tidak terstruktur dan sulit didefinisikan Kelebihan JST • • • • • Mampu mengakuisisi pengetahuan walau tidak ada kepastian Mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu JST dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan melalui pengaturan diri atau kemampuan elajar (self organizing) Memiliki fault folerance.baiknya seperti masukan dan luaran sebelumnya.

x2. Arsitektur dan Metoda masing-masing : Klasifikasi : Dimana : X = Vektor Masukan (x1….Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menggambarkan suatu obyek secara keseluruhan berdasarkan potongan informasi tentang obyek tersebut. Contoh : JST untuk dapat mengenali wajah dari sebagian potongan wajah. dan x6. Pada tiap lapis masukan terlebih dahulu diberikan dua nilai bobot yang berbeda yaitu w1 dan w2. JST seperti ini memliki kemampuan optimasi. Lapisan input memiliki 6 node yang disimbolkan dengan nilai x1. Contoh : Kohonen Self Organizing Maps (KSOM) digunakan untuk memodelkan sistem penyaringan yang dikembangkan. x4. JST seperti ini memliki kemampuan asosiasi. dapat mengenali lagu dari dua atau tiga not. x3.  Menggunakan Back propagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menemukan jawaban terbaik sehingga mampu meminimalkan biaya tertentu. Contoh : ADALINE. b. 2 node lapisan tersembunyi (Hidden layer) serta 2 node lapisan keluaran (Output layer). xn) F = Lapisan kompetitif Y_in = Masukan kelapisan kompetitif Y = Keluaran (Output) W = Vektor bobot untuk unit keluaran x  w = Selisih nilai jarak Euclidean antara vektor input dengan vektor bobot untuk unit Output[3] Arsitektur jaringan LVQ (Learning Vector Quantization) yang terdiri dari 6 node lapisan masukan (Input layer). JST seperti ini memliki kemampuan self organizing. x5. Hopfield. Backpropagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas mengolah data tanpa dibekali target tertentu. Dimana tujuan dari pemberian bobot tersebut adalah agar nilai tiap masukan memiliki penimbang (bobot) yang kemudian akan dihitung nilainya Page | 6 . xi…. Boltzman.

dan setiap layer terdiri dari satu atau lebih aritificial neuron. Dengan menggunakan arsitektur jenis ini. Sehingga jaringan memiliki dua buah kelas yang berbeda.dan diselesaikan dengan persamaan yang dimiliki oleh metode LVQ (Learning Vector Quantization). hidden layer dan output layer. Kelas 1 memiliki bobot w1 dan kelas dua memiliki bobot w2. Neuron yang satu mengeluarkan output dan kemudian menjadi input untuk semua neuron Page | 7 . Dalam jaringan diatas fungsi pembanding tersebut dituliskan dengan simbol F1 dan F2. Arsitektur ini terdiri dari input layer. Optimasi : Dalam jaringan Hopfield semua neuron berhubungan penuh. yaitu kelas 1 dan kelas 2. Keluaran dari lapisan ini akan menjadi masukan bagi lapisan tersembunyi (hidden layer) sebanyak 2 node yaitu Y_in1 dan Y_in2. Nama umum dari arsitektur ini adalah Multilayer neural network. Asosiasi : Outp y1 uj1 ut ul1 u11 Layer … Hidd b1 en Layer Inp ut Lay er x y … bl u1m ulm … bj uj1 m v v v11v1l vkl v1j vk1 a vkj vi1 ila ij a1 … … k i w11 w1k wnk wni wn1 w1i … xn 1 Backpropagation adalah salah satu pengembangan dari arsitektur Single Layer Neural Network. maka metode pelatihan yang digunakan adalah Backpropagation yang biasanya disebut juga sebagai feedforward networks. Dengan menggunakan prinsip bahwa nilai paling kecil yang dihasilkan adalah pemenang dan merupakan kelas dari input tersebut maka pada lapisan keluaran (Output layer) digunakan sebuah fungsi pembanding yang berguna membandingkan dua nilai tersebut untuk dicari nilai terkecilnya.

Dengan kata lain. Merealisasikan JST untuk system control mungkin saja dapat dilakukan. Pemanfaatan jaringan syaraf tiruan tersebut dapat mengatasi kesulitan dalam membuat dan memperbaiki basis pengetahuan pada sistem pakar shell. Merealisasikan Sistem Pakar dengan JST mungkin saja dapat dilakukan.Lapis pertama merupakan lapisan masukan yang mempunyai fungsi untuk menerima sinyal masukan. misalnya untuk menentukan lokasi gangguan pada jaringan sistem tenaga listrik dengan memanfaatkan jaringan syaraf tiruan sebagai mesin penarik kesimpulannya. Model semacam ini berisi n neuron dan jaringannya terdiri dari n(n-1) interkoneksi dua jalur. Untuk melakukan Page | 8 . Dalam model diskritnya. Secara matematis konsep di atas dapat disajikan dalam matriks simetris n×n dengan diagonal utamanya bernilai 0. Self Organizing : Jaringan kohonen ini terdiri dari dua lapis. JST-2 : a. Basis pengetahuan system pakar dengan jaringan syaraf tiruan diatas secara otomatis dapat dibentuk dari data-data masukan melalui antarmuka pemakai. 2. arsitektur JST yang banyak digunakan adalah JST umpan maju dan Diagonal Recurrent (Diagonal Recurrent Neural Network/DRRN). setiap neuron tidak memberi input kepada dirinya sendiri.1}n . identifikasi dan kontrol system adalah Jaringan Syaraf Tiruan (JST). Khusus untuk keperluan identifikasi dan kontrol system dinamik. jaringan Hopfield bobot sinaptiknya menggunakan vektor biner berdimensi n atau a{0.yang lain. Sebagai masukan sistem pakar ini adalah status operasional peralatan pemutus tenaga (pmt) dan rele proteksi. sedangkan lapis kedua adalah lapis kompetitif yang merupakan unit pengolah pada suatu jaringan. Biasanya sel-sel lapis kompetitif disusun dalam kisi-kisi dua dimensi atau urutan linier. Proses penerimaan sinyal antara neuron ini secara feedback tertutup terus menerus sampai dicapai kondisi stabil[2]. b. yaitu setiap unit pada lapis masukan harus terhubung ke semua unit pada lapis kompetitif. Kedua lapis pada jaringan kohonen terhubung penuh (fully connected). pengenalan pola. misalnya teknik yang banyak diteliti orang baik di dalam pemrosesan sinyal.

Alternatif lainnya adalah dengan menggunakan algoritma Recursive Prediction Error (RPE). 1.c||. Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF. Jaringan RBF : c. dimana || . Setiap fungsi basis akan menghasilkan sebuah keluaran dengan bobot tertentu. 3.proses identifikasi dan kontrol suatu plant menggunakan JST maka diperlukan proses pembelajaran. Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis pada hidden layer. Algoritma pembelajaran pada JST yang digunakan umumnya adalah Algoritma Propagasi Balik (PB).[6] Masing–masing unit tersembunyi merupakan fungsi aktifasi yang berupa fungsi basis radial. Parameter-parameter dalam MLP : • • • • • • • Page | 9 Jumlah lapisan tersembunyi Jumlah neuron setiap lapisan Learning rate Fungsi aplikasi Inisialisasi bobot dan bobot bias Threshold Momentum . Output jaringan ini merupakan jumlah dari seluruh output fungsi basis dikalikan dengan bobot masing–masing. hidden layer (unit tersembunyi) dan layer output. || merupakan vektor normal. Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. RBF (φ) merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai φc = φ ||x . Jaringan RBF terdiri atas 3 layer yaitu layer input. MLP : a. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu yang disebut sebagai fungsi basis.

untuk memprediksi suatu system dalam waktu yang berbeda Recurrent. Tidak mempnyai loop Contoh: single layer perceptron. Struktur perilakunya stabil dan menghasilkan dinamika yang sangat komplek c. multi layer perceptron. radial basis function mempunyai koneksi kembali dari output ke input b. kasus identifikasi dan pemodelan system non linier 3. Memiliki loop. feedforward. Contoh jaringanyang belajar dengan pengawasan adalah Backpropagation dan Perceptron. Mempunyai struktur feedback. Belajar dengan pengawasan (Supervised Learning ) Pada metode supervised learning jaringan diberikan vektor target yang harus dicapai sebagai dasar untuk mengubah hubungan interkoneksi atau bobot pada jaringan. Cocok digunakan untuk pengenalan pola. Mempunyai struktur recurrent a. Page | 10 . Struktur perilakunya stabil c. Pengaruh banyaknya layer dalam MLP : • • Meningkatkan keakuratan Dapat menangani masalah2 yang lebih komplek 2. Supervised and supervised Learning : a. SOM (Self organizing map) Manfaat : Backpropagation.• • • Set error pengujin Set error pelatihan Maksimum epoch b. Back Propagation dan Recurrent : Perbandingannya Back propagation a. lapisan output akan member input bagi lapisan input Contoh: LVQ (linier vector quanification). dimana signal bergerak melewati lapisan tersembunyi dan akhirnya mencapai unit output b.

Aturan boltzmann merupakan aturan pembelajaran pengoreksian error.b. restorasi citra b. Setiap neuron mrupakan sebuah unit setokastik yang menghasilkan output menurut distribusi mekanik statistik boltsmann. Contohnya TSP (travelling salesman problem). Optimisasi : c. Elman dan Jordan : a. Cocok untuk pengelompokan dan klasifikasi pola. Page | 11 .. Konfigurasi jaringan dikenal dengan recurrent. Vektor masukan dimasukkan ke dalam jaringan. Terdiri dari beberapa neuron yang saling terhubung 1 sama lain. Metode unsupervised learning Melatih jaringan terhadap suatu inputan tanpa adanya pengawasan.dimana vektor target tidak ditentukan. Boltzmann.kemudian sistem akan mengatur dirinya sendiri sedemikian rupa sehingga dihasilkankeluaran yang konsisten bilamana pola yang menyerupai vektor masukan tersebut diberikan. Manfaatnya untuk pengklasifikasi pola c. Boltzmann. Merupakan jst yang terhubung penuh atau fully conected Manfaatnya untuk pengenalan pola atau identifikasi. Masukan jaringan tidak hanya nilai masukan dari luar jaringan. Dapat diterapkan suatu aosiatif memori dengan memperhitungkan fungsi energi kedalam jaringan. 4. d. masing2 untuk on dan off. Jaringan Elman adalah sebuah jaringan rekurens sederhana yang memiliki umpan balik nilai sehingga dapat menangani memori jangka pendek. tetapi ditambah dengan nilai keluaran dari neuron tersembuyi dari propagasi sebelumnya . Optimasi dalam jst bermanfaat untuk menemukan suatu solusi terbaik sehingga mampu meminimalisasi fungsi biaya. Jaringan Hopfield. merupakan jst balik yang simetris terdiri dari unit2 linier +1 dan -1. salah satu metode jst dengan pola pelatihan tidak terbimbing. Jenis jst yang cocok untuk melaksanakan optimasi adalah: hopfield 5. Hopfield.

b. karena JST tidak dapat mengolah nilai kontinu. Kemungkinan penggabungan JST. Keterkaitan JST dan Fuzy Logic : JST digunakan untuk menghitung proses informasi dan melakukan pendekatan batasan keputusan yang rumit. Page | 12 . Fuzy Logic digunakan untuk mewakili derajat kebenarannya. sehingga memerlukan waktu yang lama. Tingkat pembelajarannya berlapis-lapis c. Keterkaitan JST dan GA : Algoritma genetik digunakan untuk pencarian bobot terbaik dalam JST. klemudian diolah di JST. FL dan GA : Kemungkinan dapat digabungkan : FL digunakan untuk menkonversi nilai kontinu ke nilai diskrit pada JST GA digunakan untuk pencarian bobot terbaik pada JST Keunggulannya : Keakurannya lebih optimal Kerugiannya : Karena pembelajarannya berlapis-lapis. Fuzzy Logic and Genetic Algorith : a.6. Keunggulan : Meningkatkan keakuratan nilai optimasi. Keunggulan gabungan JST dan FL : Mengolah nilai kontinu menjadi diskrit.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->