Apa itu Jaringan Syaraf Tiruan(JST)?

Jaringan saraf tiruan (JST) atau neural network adalah suatu metode komputasi yang meniru sistem jaringan saraf biologis. Metode ini menggunakan elemen perhitungan non-linier dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan saraf manusia. Jaringan saraf tiruan dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi karena proses pembelajaran. Layaknya neuron biologi, JST juga merupakan sistem yang bersifat fault tolerant dalam 2 hal. Pertama, dapat mengenali sinyal input yang agak berbeda dari yang pernah diterima sebelumnya. Sebagai contoh, manusia sering dapat mengenali seseorang yang wajahnya pernah dilihat dari foto atau dapat mengenali sesorang yang wajahnya agak berbeda karena sudah lama tidak menjumpainya. Kedua, tetap mampu bekerja meskipun beberapa neuron-nya tidak mampu bekerja dengan baik. Jika sebuah neuron rusak, neuron lain dapat dilatih untuk menggantikan fungsi neuron yang rusak tersebut. Jaringan saraf tiruan, seperti manusia, belajar dari suatu contoh karena mempunyai karakteristik yang adaptif, yaitu dapat belajar dari data-data sebelumnya dan mengenal pola data yang selalu berubah. Selain itu, JST merupakan sistem yang tak terprogram, artinya semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran/pelatihan. Hal yang ingin dicapai dengan melatih JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi. Yang dimaksud kemampuan memorisasi adalah kemampuan JST untuk mengambil kembali secara sempurna sebuah pola yang telah dipelajari. Kemampuan generalisasi adalah kemampuan JST untuk menghasilkan respons yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat bila pada suatu saat ke dalam JST itu dimasukkan informasi baru yang belum pernah dipelajari, maka JST itu masih akan tetap dapat memberikan tanggapan yang baik, memberikan keluaran yang paling mendekati (Puspitaningrum, 2006). Jaringan saraf tiruan berkembang secara pesat pada beberapa tahun terakhir. Jaringan saraf tiruan telah dikembangkan sebelum adanya suatu komputer konvensional yang canggih dan terus berkembang walaupun pernah mengalami masa vakum selama beberapa tahun. JST menyerupai otak manusia dalam dua hal, yaitu:
• •

Pengetahuan diperoleh jaringan melalui proses belajar Kekuatan hubungan antar sel syaraf (neuron) yang dikenal sebagai bobot-bobot sinaptik digunakan untuk menyimpan pengetahuan.

Menurut (Siang, 2004) JST ditentukan oleh 3 hal:
• •

Pola Hubungan Antar Neuron Metode untuk menentukan bobot penghubung neuron

Page | 1

Secara definisi perceptron adalah penggolongan biner yang memetakan input X kedalam fungsi f(x). namun pada praktiknya lebih banyak digunakan untuk supervised learning. sehingga sistem dapat secara otomatis mematikan mesin. Page | 2 . JST mampu melakukan pembelajaran terbimbing(supervised) maupun tak terbimbing(unsupervised learning).• Fungsi Aktivasi Apa yang bisa dan tidak bisa dilakukan oleh JST? Pada prinsipnya. Penerapan JST yang telah digunakan dalam dunia nyata adalah sebagai berikut: • • • • • • • • Pengenalan karakter Diagnosa mesin -> mendeteksi ketika mesin mengalami kesalahan. bisa dimasukkan input data tanpa nilai target dan JST akan menghitung nilai output yang mendekati nilai target. JST mampu melakukan komputasi dengan semua fungsi komputasi. Output yang dihasilkan pada perceptron dengan lebih dari satu layer jaringan syaraf akan menjadi input pada perceptron selanjutnya. Untuk mencapai keberhasilan proses training diperlukan data training dan waktu yang cukup banyak pada saat melakukan training. Setelah training berhasil. sebagai contoh: JST mampu melakukan semua yang bisa dilakukan oleh komputer. Manajemen portofolio -> mengalokasikan aset dalam portofolio dengan tujuan untuk memaksimalkan hasil dan meminimalisir resiko Target recognition -> aplikasi militer yang menggunakan video atau data citra inframerah untuk menentukan letak target Financial forecasting Perkiraan fungsi Klasifikasi Kompresi data Apa itu perceptron? Perceptron merupakan feedforward neural network yang paling sederhana. Untuk supervised learning diperlukan data training yang meliputi nilai input dan nilai target.

Waibel and Hinton (1990) 3. 1988. Hinton. Fausett (1994)  Quickprop – Fahlman (1989)  RPROP – Riedmiller and Braun (1993)  RBF networks – Bishop (1995). Brown and Harris (1994)  Classification only  LVQ: Learning Vector Quantization – Kohonen (1988).Apa saja jenis JST yang ada? 1. Reynolds and Rosen (1992). Watson (1964) 2. Kasuba (1993)  Gaussian ARTMAP – Williamson (1995)  Counterpropagation – Hecht-Nielsen (1987. Minsky and Papert (1969/1988). Fausett (1994)   Page | 3 . Reed and Marks (1999). Grossberg and Reynolds (1991)  Fuzzy ARTMAP – Carpenter. Competitive  ARTMAP – Carpenter. Fausett (1994)  TDNN: Time Delay NN – Lang. and Williams (1986)  Cascade Correlation – Fahlman and Lebiere (1990). Fausett (1994)  Higher Order – Bishop (1995)  Functional Link – Pao (1989)  MLP: Multilayer perceptron – Bishop (1995). Fausett (1994)  Regression only  GNN: General Regression Neural Network – Specht (1991). Medsker and Jain (2000)  BAM: Bidirectional Associative Memory – Kosko (1992). Feedback – Hertz. Feedforward  Linear Hebbian – Hebb (1949). 1990). Fausett (1994) Perceptron – Rosenblatt (1958). Hand (1982). and Palmer (1991). Nadaraya (1964). Fausett (1994)  Boltzman Machine – Ackley et al. Cowan and Grant (1991)  CMAC: Cerebellar Model Articulation Controller – Albus (1975). Grossberg. Fausett (1994)  Recurrent time series  Backpropagation through time – Werbos (1990)  Elman – Elman (1990)  FIR: Finite Impulse Response – Wan (1990)  Jordan – Jordan (1986)  Real-time recurrent network – Williams and Zipser (1989)  Recurrent backpropagation – Pineda (1989). Krogh. Masters (1993). Moody and Darken (1989). Orr (1996)  OLS: Orthogonal Least Squares – Chen. Supervised 1. Markuzon. Fausett (1994)  Adaline – Widrow and Hoff (1960). Fausett (1994)  PNN: Probabilistic Neural Network – Specht (1990). (1985). Fausett (1994)  Backprop – Rumelhart.

Krogh. Recurrent network memiliki memori dinamik : luaran-luaran yang berasal dari masukan. J. Jaringan Saraf Tiruan & Pemrogramannya Menggunakan Matlab. (1977). sama Page | 4 . Fausett (1994)  Hopfield – Hopfield (1982). and Palmer (1991) 2. part 1 of 7: Introduction. Fausett (1994)  ART 2-A – Carpenter. Fausett (1994)  ART 2 – Carpenter and Grossberg (1987b). Yogyakarta: Penerbit Andi. Neural Network FAQ.S.Neocognitron – Fukushima. (1997). Svensén and Williams (1997)  Local Linear – Mulier and Cherkassky (1995)  Adaptive resonance theory  ART 1 – Carpenter and Grossberg (1987a). URL: ftp://ftp. periodic posting to the Usenet newsgroup comp. (2004). D. Grossberg and Rosen (1991b)  DCL: Differential Competitive Learning – Kosko (1992) 2. Unsupervised – Hertz. Autoassociation  Linear autoassociator – Anderson et al. Fausett (1994) 2. Moore (1988). Fukushima. Fausett (1994)  Oja – Oja (1989)  Sanger – Sanger (1989)  Differential Hebbian – Kosko (1992) 3. Hopfield – Hertz. Fausett (1994)  GTM: – Bishop. ed.ai. various networks for optimization – Cichocki and Unbehauen (1993)  Referensi: Puspitanigrum. and Palmer (1991) 1. Fausett (1994) 3. Competitive  Vector Quantization  Grossberg – Grossberg (1976)  Kohonen – Kohonen (1984)  Conscience – Desieno (1988)  Self-Organizing Map  Kohonen – Kohonen (1995). Grossberg and Rosen (1991a)  ART 3 – Carpenter and Grossberg (1990)  Fuzzy ART – Carpenter.html Siang. Pengantar Jaringan Saraf Tiruan. Miyake.. Sarle. Nonlearning 1. and Ito (1983).com/pub/neural/FAQ. Dimension Reduction – Diamantaras and Kung (1996)  Hebbian – Hebb (1949). (1977). Yogyakarta: Penerbit Andi. (2006). Recurrent network : Sinyal mengalir dua arah : maju dan mundur. (1988). Krogh. J. Fausett (1994)  BSB: Brain State in a Box – Anderson et al.neural-nets.sas. W.

Elman network [Elman. gangguan dapat dianggap sebagai noise saja Kemampuan perhitungan secara paralel sehingga proses lebih singkat JST Mampu : • • • • Klasifikasi memilih suatu input data ke dalam kategori tertentu yang sudah ditetapkan Asosiasi menggambarkan suatu objek secara keseluruhan hanya dengan bagian dari objek lain Self organizing : kemampuan mengubah data data input tanpa harus mempunya target Otimasi menemukan suatu jawaban terbaik sehingga mampu meminimalisasi fungsi biaya Kelemahan JST : • • • 1. Contoh : Learning Vector Quantization (LVQ) adalah suatu metoda klasifikasi pola yang masing-masing unit keluaran mewakili kategori atau kelas tertentu (beberapa unit keluaran seharusnya digunakan untuk masing-masing kelas). JST seperti ini memliki kemampuan klasifikasi. 1982]. JST (Jaringan saraf tiruan) • • • • • JST dapat belajar dari pengalaman Biasanya berhubungan dengan angka (numerik) sehingga data yang tidak numerik harus dibuat ke numerik Tidak ada rumus yang tetap (fixed) sehingga disebut dengan free-estimator JST disebut black box atau tidak transparan karena tidak mampu menjelaskan bagaimana suatu hasil didapatkan JST mampu menyelesaikan permasalahan permasalahan yang tidak terstruktur dan sulit didefinisikan Kelebihan JST • • • • • Mampu mengakuisisi pengetahuan walau tidak ada kepastian Mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu JST dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan melalui pengaturan diri atau kemampuan elajar (self organizing) Memiliki fault folerance. 1990]. JST-1 : a. operasi logika dan simbolis Lamanya proses training yang mungkin terjadi dalam waktu yang sangat lama untuk jumlah data yang besar Page | 5 . 1986].baiknya seperti masukan dan luaran sebelumnya. Contoh : Hopfield network [Hopfield. Kurang mampu untuk melakukan operasi operasi numerik dengan presisi tinggi Kurang mampu melakukan operasi algoritma aritmatik. Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas memilih suatu input data ke dalam katagori tertentu yang sudah ditetapkan. dan Jordan network [Jordan.

Pada tiap lapis masukan terlebih dahulu diberikan dua nilai bobot yang berbeda yaitu w1 dan w2. x2. x4. JST seperti ini memliki kemampuan asosiasi. Boltzman. Contoh : JST untuk dapat mengenali wajah dari sebagian potongan wajah. JST seperti ini memliki kemampuan self organizing. Lapisan input memiliki 6 node yang disimbolkan dengan nilai x1. Arsitektur dan Metoda masing-masing : Klasifikasi : Dimana : X = Vektor Masukan (x1…. JST seperti ini memliki kemampuan optimasi. 2 node lapisan tersembunyi (Hidden layer) serta 2 node lapisan keluaran (Output layer). Dimana tujuan dari pemberian bobot tersebut adalah agar nilai tiap masukan memiliki penimbang (bobot) yang kemudian akan dihitung nilainya Page | 6 . x3.  Menggunakan Back propagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menemukan jawaban terbaik sehingga mampu meminimalkan biaya tertentu. Backpropagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas mengolah data tanpa dibekali target tertentu. x5. dapat mengenali lagu dari dua atau tiga not. Hopfield.Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menggambarkan suatu obyek secara keseluruhan berdasarkan potongan informasi tentang obyek tersebut. b. xn) F = Lapisan kompetitif Y_in = Masukan kelapisan kompetitif Y = Keluaran (Output) W = Vektor bobot untuk unit keluaran x  w = Selisih nilai jarak Euclidean antara vektor input dengan vektor bobot untuk unit Output[3] Arsitektur jaringan LVQ (Learning Vector Quantization) yang terdiri dari 6 node lapisan masukan (Input layer). Contoh : Kohonen Self Organizing Maps (KSOM) digunakan untuk memodelkan sistem penyaringan yang dikembangkan. Contoh : ADALINE. dan x6. xi….

Keluaran dari lapisan ini akan menjadi masukan bagi lapisan tersembunyi (hidden layer) sebanyak 2 node yaitu Y_in1 dan Y_in2.dan diselesaikan dengan persamaan yang dimiliki oleh metode LVQ (Learning Vector Quantization). yaitu kelas 1 dan kelas 2. Sehingga jaringan memiliki dua buah kelas yang berbeda. Kelas 1 memiliki bobot w1 dan kelas dua memiliki bobot w2. Dengan menggunakan prinsip bahwa nilai paling kecil yang dihasilkan adalah pemenang dan merupakan kelas dari input tersebut maka pada lapisan keluaran (Output layer) digunakan sebuah fungsi pembanding yang berguna membandingkan dua nilai tersebut untuk dicari nilai terkecilnya. Dengan menggunakan arsitektur jenis ini. Dalam jaringan diatas fungsi pembanding tersebut dituliskan dengan simbol F1 dan F2. Nama umum dari arsitektur ini adalah Multilayer neural network. hidden layer dan output layer. Optimasi : Dalam jaringan Hopfield semua neuron berhubungan penuh. dan setiap layer terdiri dari satu atau lebih aritificial neuron. Asosiasi : Outp y1 uj1 ut ul1 u11 Layer … Hidd b1 en Layer Inp ut Lay er x y … bl u1m ulm … bj uj1 m v v v11v1l vkl v1j vk1 a vkj vi1 ila ij a1 … … k i w11 w1k wnk wni wn1 w1i … xn 1 Backpropagation adalah salah satu pengembangan dari arsitektur Single Layer Neural Network. Arsitektur ini terdiri dari input layer. Neuron yang satu mengeluarkan output dan kemudian menjadi input untuk semua neuron Page | 7 . maka metode pelatihan yang digunakan adalah Backpropagation yang biasanya disebut juga sebagai feedforward networks.

Basis pengetahuan system pakar dengan jaringan syaraf tiruan diatas secara otomatis dapat dibentuk dari data-data masukan melalui antarmuka pemakai. Kedua lapis pada jaringan kohonen terhubung penuh (fully connected).yang lain. misalnya untuk menentukan lokasi gangguan pada jaringan sistem tenaga listrik dengan memanfaatkan jaringan syaraf tiruan sebagai mesin penarik kesimpulannya. Khusus untuk keperluan identifikasi dan kontrol system dinamik. Biasanya sel-sel lapis kompetitif disusun dalam kisi-kisi dua dimensi atau urutan linier. Untuk melakukan Page | 8 . b. Dalam model diskritnya.1}n . jaringan Hopfield bobot sinaptiknya menggunakan vektor biner berdimensi n atau a{0. pengenalan pola. arsitektur JST yang banyak digunakan adalah JST umpan maju dan Diagonal Recurrent (Diagonal Recurrent Neural Network/DRRN). yaitu setiap unit pada lapis masukan harus terhubung ke semua unit pada lapis kompetitif. 2. Model semacam ini berisi n neuron dan jaringannya terdiri dari n(n-1) interkoneksi dua jalur. Secara matematis konsep di atas dapat disajikan dalam matriks simetris n×n dengan diagonal utamanya bernilai 0. Pemanfaatan jaringan syaraf tiruan tersebut dapat mengatasi kesulitan dalam membuat dan memperbaiki basis pengetahuan pada sistem pakar shell. sedangkan lapis kedua adalah lapis kompetitif yang merupakan unit pengolah pada suatu jaringan. Merealisasikan Sistem Pakar dengan JST mungkin saja dapat dilakukan. Merealisasikan JST untuk system control mungkin saja dapat dilakukan. setiap neuron tidak memberi input kepada dirinya sendiri. JST-2 : a. Proses penerimaan sinyal antara neuron ini secara feedback tertutup terus menerus sampai dicapai kondisi stabil[2]. misalnya teknik yang banyak diteliti orang baik di dalam pemrosesan sinyal. Self Organizing : Jaringan kohonen ini terdiri dari dua lapis. identifikasi dan kontrol system adalah Jaringan Syaraf Tiruan (JST).Lapis pertama merupakan lapisan masukan yang mempunyai fungsi untuk menerima sinyal masukan. Dengan kata lain. Sebagai masukan sistem pakar ini adalah status operasional peralatan pemutus tenaga (pmt) dan rele proteksi.

1. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan bobot tertentu. Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu yang disebut sebagai fungsi basis.[6] Masing–masing unit tersembunyi merupakan fungsi aktifasi yang berupa fungsi basis radial. Jaringan RBF : c. RBF (φ) merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai φc = φ ||x . 3. Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF.proses identifikasi dan kontrol suatu plant menggunakan JST maka diperlukan proses pembelajaran.c||. Alternatif lainnya adalah dengan menggunakan algoritma Recursive Prediction Error (RPE). || merupakan vektor normal. MLP : a. Algoritma pembelajaran pada JST yang digunakan umumnya adalah Algoritma Propagasi Balik (PB). Jaringan RBF terdiri atas 3 layer yaitu layer input. hidden layer (unit tersembunyi) dan layer output. Output jaringan ini merupakan jumlah dari seluruh output fungsi basis dikalikan dengan bobot masing–masing. Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis pada hidden layer. dimana || . Parameter-parameter dalam MLP : • • • • • • • Page | 9 Jumlah lapisan tersembunyi Jumlah neuron setiap lapisan Learning rate Fungsi aplikasi Inisialisasi bobot dan bobot bias Threshold Momentum .

Supervised and supervised Learning : a. radial basis function mempunyai koneksi kembali dari output ke input b. dimana signal bergerak melewati lapisan tersembunyi dan akhirnya mencapai unit output b. multi layer perceptron. Mempunyai struktur feedback. Struktur perilakunya stabil c. Struktur perilakunya stabil dan menghasilkan dinamika yang sangat komplek c. Page | 10 . lapisan output akan member input bagi lapisan input Contoh: LVQ (linier vector quanification). Belajar dengan pengawasan (Supervised Learning ) Pada metode supervised learning jaringan diberikan vektor target yang harus dicapai sebagai dasar untuk mengubah hubungan interkoneksi atau bobot pada jaringan. kasus identifikasi dan pemodelan system non linier 3. SOM (Self organizing map) Manfaat : Backpropagation. feedforward. Pengaruh banyaknya layer dalam MLP : • • Meningkatkan keakuratan Dapat menangani masalah2 yang lebih komplek 2. untuk memprediksi suatu system dalam waktu yang berbeda Recurrent.• • • Set error pengujin Set error pelatihan Maksimum epoch b. Tidak mempnyai loop Contoh: single layer perceptron. Mempunyai struktur recurrent a. Cocok digunakan untuk pengenalan pola. Memiliki loop. Contoh jaringanyang belajar dengan pengawasan adalah Backpropagation dan Perceptron. Back Propagation dan Recurrent : Perbandingannya Back propagation a.

Dapat diterapkan suatu aosiatif memori dengan memperhitungkan fungsi energi kedalam jaringan. masing2 untuk on dan off. restorasi citra b. Konfigurasi jaringan dikenal dengan recurrent. Elman dan Jordan : a. Cocok untuk pengelompokan dan klasifikasi pola.dimana vektor target tidak ditentukan. tetapi ditambah dengan nilai keluaran dari neuron tersembuyi dari propagasi sebelumnya . Jaringan Elman adalah sebuah jaringan rekurens sederhana yang memiliki umpan balik nilai sehingga dapat menangani memori jangka pendek. Boltzmann.b. Jaringan Hopfield. Optimisasi : c. Merupakan jst yang terhubung penuh atau fully conected Manfaatnya untuk pengenalan pola atau identifikasi. Hopfield. Terdiri dari beberapa neuron yang saling terhubung 1 sama lain. Contohnya TSP (travelling salesman problem). Masukan jaringan tidak hanya nilai masukan dari luar jaringan. salah satu metode jst dengan pola pelatihan tidak terbimbing. Optimasi dalam jst bermanfaat untuk menemukan suatu solusi terbaik sehingga mampu meminimalisasi fungsi biaya.. Aturan boltzmann merupakan aturan pembelajaran pengoreksian error. Manfaatnya untuk pengklasifikasi pola c. Boltzmann. Page | 11 . Jenis jst yang cocok untuk melaksanakan optimasi adalah: hopfield 5. Vektor masukan dimasukkan ke dalam jaringan.kemudian sistem akan mengatur dirinya sendiri sedemikian rupa sehingga dihasilkankeluaran yang konsisten bilamana pola yang menyerupai vektor masukan tersebut diberikan. Metode unsupervised learning Melatih jaringan terhadap suatu inputan tanpa adanya pengawasan. d. 4. merupakan jst balik yang simetris terdiri dari unit2 linier +1 dan -1. Setiap neuron mrupakan sebuah unit setokastik yang menghasilkan output menurut distribusi mekanik statistik boltsmann.

Keunggulan : Meningkatkan keakuratan nilai optimasi. Page | 12 . FL dan GA : Kemungkinan dapat digabungkan : FL digunakan untuk menkonversi nilai kontinu ke nilai diskrit pada JST GA digunakan untuk pencarian bobot terbaik pada JST Keunggulannya : Keakurannya lebih optimal Kerugiannya : Karena pembelajarannya berlapis-lapis. Keterkaitan JST dan Fuzy Logic : JST digunakan untuk menghitung proses informasi dan melakukan pendekatan batasan keputusan yang rumit. Fuzzy Logic and Genetic Algorith : a. Fuzy Logic digunakan untuk mewakili derajat kebenarannya. Keterkaitan JST dan GA : Algoritma genetik digunakan untuk pencarian bobot terbaik dalam JST. Kemungkinan penggabungan JST. sehingga memerlukan waktu yang lama.6. klemudian diolah di JST. b. karena JST tidak dapat mengolah nilai kontinu. Tingkat pembelajarannya berlapis-lapis c. Keunggulan gabungan JST dan FL : Mengolah nilai kontinu menjadi diskrit.

Sign up to vote on this title
UsefulNot useful