Apa itu Jaringan Syaraf Tiruan(JST)?

Jaringan saraf tiruan (JST) atau neural network adalah suatu metode komputasi yang meniru sistem jaringan saraf biologis. Metode ini menggunakan elemen perhitungan non-linier dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan saraf manusia. Jaringan saraf tiruan dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi karena proses pembelajaran. Layaknya neuron biologi, JST juga merupakan sistem yang bersifat fault tolerant dalam 2 hal. Pertama, dapat mengenali sinyal input yang agak berbeda dari yang pernah diterima sebelumnya. Sebagai contoh, manusia sering dapat mengenali seseorang yang wajahnya pernah dilihat dari foto atau dapat mengenali sesorang yang wajahnya agak berbeda karena sudah lama tidak menjumpainya. Kedua, tetap mampu bekerja meskipun beberapa neuron-nya tidak mampu bekerja dengan baik. Jika sebuah neuron rusak, neuron lain dapat dilatih untuk menggantikan fungsi neuron yang rusak tersebut. Jaringan saraf tiruan, seperti manusia, belajar dari suatu contoh karena mempunyai karakteristik yang adaptif, yaitu dapat belajar dari data-data sebelumnya dan mengenal pola data yang selalu berubah. Selain itu, JST merupakan sistem yang tak terprogram, artinya semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran/pelatihan. Hal yang ingin dicapai dengan melatih JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi. Yang dimaksud kemampuan memorisasi adalah kemampuan JST untuk mengambil kembali secara sempurna sebuah pola yang telah dipelajari. Kemampuan generalisasi adalah kemampuan JST untuk menghasilkan respons yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat bila pada suatu saat ke dalam JST itu dimasukkan informasi baru yang belum pernah dipelajari, maka JST itu masih akan tetap dapat memberikan tanggapan yang baik, memberikan keluaran yang paling mendekati (Puspitaningrum, 2006). Jaringan saraf tiruan berkembang secara pesat pada beberapa tahun terakhir. Jaringan saraf tiruan telah dikembangkan sebelum adanya suatu komputer konvensional yang canggih dan terus berkembang walaupun pernah mengalami masa vakum selama beberapa tahun. JST menyerupai otak manusia dalam dua hal, yaitu:
• •

Pengetahuan diperoleh jaringan melalui proses belajar Kekuatan hubungan antar sel syaraf (neuron) yang dikenal sebagai bobot-bobot sinaptik digunakan untuk menyimpan pengetahuan.

Menurut (Siang, 2004) JST ditentukan oleh 3 hal:
• •

Pola Hubungan Antar Neuron Metode untuk menentukan bobot penghubung neuron

Page | 1

Penerapan JST yang telah digunakan dalam dunia nyata adalah sebagai berikut: • • • • • • • • Pengenalan karakter Diagnosa mesin -> mendeteksi ketika mesin mengalami kesalahan. Setelah training berhasil. sebagai contoh: JST mampu melakukan semua yang bisa dilakukan oleh komputer. JST mampu melakukan komputasi dengan semua fungsi komputasi. Untuk mencapai keberhasilan proses training diperlukan data training dan waktu yang cukup banyak pada saat melakukan training. JST mampu melakukan pembelajaran terbimbing(supervised) maupun tak terbimbing(unsupervised learning). Manajemen portofolio -> mengalokasikan aset dalam portofolio dengan tujuan untuk memaksimalkan hasil dan meminimalisir resiko Target recognition -> aplikasi militer yang menggunakan video atau data citra inframerah untuk menentukan letak target Financial forecasting Perkiraan fungsi Klasifikasi Kompresi data Apa itu perceptron? Perceptron merupakan feedforward neural network yang paling sederhana. namun pada praktiknya lebih banyak digunakan untuk supervised learning. Page | 2 . sehingga sistem dapat secara otomatis mematikan mesin. Secara definisi perceptron adalah penggolongan biner yang memetakan input X kedalam fungsi f(x). Output yang dihasilkan pada perceptron dengan lebih dari satu layer jaringan syaraf akan menjadi input pada perceptron selanjutnya. bisa dimasukkan input data tanpa nilai target dan JST akan menghitung nilai output yang mendekati nilai target. Untuk supervised learning diperlukan data training yang meliputi nilai input dan nilai target.• Fungsi Aktivasi Apa yang bisa dan tidak bisa dilakukan oleh JST? Pada prinsipnya.

Minsky and Papert (1969/1988). Krogh. Markuzon. Feedforward  Linear Hebbian – Hebb (1949). Competitive  ARTMAP – Carpenter. Nadaraya (1964). 1990). and Williams (1986)  Cascade Correlation – Fahlman and Lebiere (1990). Reynolds and Rosen (1992).Apa saja jenis JST yang ada? 1. Watson (1964) 2. (1985). Masters (1993). Grossberg and Reynolds (1991)  Fuzzy ARTMAP – Carpenter. Waibel and Hinton (1990) 3. Fausett (1994)  Regression only  GNN: General Regression Neural Network – Specht (1991). Grossberg. Cowan and Grant (1991)  CMAC: Cerebellar Model Articulation Controller – Albus (1975). Fausett (1994)  Adaline – Widrow and Hoff (1960). Fausett (1994)  TDNN: Time Delay NN – Lang. Fausett (1994)  Quickprop – Fahlman (1989)  RPROP – Riedmiller and Braun (1993)  RBF networks – Bishop (1995). Brown and Harris (1994)  Classification only  LVQ: Learning Vector Quantization – Kohonen (1988). Medsker and Jain (2000)  BAM: Bidirectional Associative Memory – Kosko (1992). Fausett (1994)  Higher Order – Bishop (1995)  Functional Link – Pao (1989)  MLP: Multilayer perceptron – Bishop (1995). Fausett (1994)  Backprop – Rumelhart. Orr (1996)  OLS: Orthogonal Least Squares – Chen. Fausett (1994)  Boltzman Machine – Ackley et al. Hand (1982). Fausett (1994)   Page | 3 . Supervised 1. 1988. and Palmer (1991). Fausett (1994)  PNN: Probabilistic Neural Network – Specht (1990). Kasuba (1993)  Gaussian ARTMAP – Williamson (1995)  Counterpropagation – Hecht-Nielsen (1987. Fausett (1994)  Recurrent time series  Backpropagation through time – Werbos (1990)  Elman – Elman (1990)  FIR: Finite Impulse Response – Wan (1990)  Jordan – Jordan (1986)  Real-time recurrent network – Williams and Zipser (1989)  Recurrent backpropagation – Pineda (1989). Hinton. Fausett (1994) Perceptron – Rosenblatt (1958). Reed and Marks (1999). Feedback – Hertz. Moody and Darken (1989).

J. Sarle. Autoassociation  Linear autoassociator – Anderson et al.neural-nets. and Palmer (1991) 1. Miyake. W. Grossberg and Rosen (1991a)  ART 3 – Carpenter and Grossberg (1990)  Fuzzy ART – Carpenter.html Siang. Recurrent network memiliki memori dinamik : luaran-luaran yang berasal dari masukan.. Unsupervised – Hertz. Jaringan Saraf Tiruan & Pemrogramannya Menggunakan Matlab. (1977). Yogyakarta: Penerbit Andi. Fausett (1994) 3. sama Page | 4 . Pengantar Jaringan Saraf Tiruan. part 1 of 7: Introduction.ai. ed. Dimension Reduction – Diamantaras and Kung (1996)  Hebbian – Hebb (1949). Krogh. Recurrent network : Sinyal mengalir dua arah : maju dan mundur.sas. and Palmer (1991) 2. (1988).S. Fausett (1994)  ART 2 – Carpenter and Grossberg (1987b). Nonlearning 1. Fausett (1994)  BSB: Brain State in a Box – Anderson et al. (2006). D. Fukushima. Fausett (1994)  Oja – Oja (1989)  Sanger – Sanger (1989)  Differential Hebbian – Kosko (1992) 3. URL: ftp://ftp. and Ito (1983). Grossberg and Rosen (1991b)  DCL: Differential Competitive Learning – Kosko (1992) 2. (1977). (1997).Neocognitron – Fukushima. Fausett (1994)  Hopfield – Hopfield (1982). Fausett (1994) 2. Competitive  Vector Quantization  Grossberg – Grossberg (1976)  Kohonen – Kohonen (1984)  Conscience – Desieno (1988)  Self-Organizing Map  Kohonen – Kohonen (1995). Krogh. Svensén and Williams (1997)  Local Linear – Mulier and Cherkassky (1995)  Adaptive resonance theory  ART 1 – Carpenter and Grossberg (1987a). Yogyakarta: Penerbit Andi. periodic posting to the Usenet newsgroup comp. Moore (1988). J. various networks for optimization – Cichocki and Unbehauen (1993)  Referensi: Puspitanigrum. Neural Network FAQ. Fausett (1994)  GTM: – Bishop. Fausett (1994)  ART 2-A – Carpenter.com/pub/neural/FAQ. (2004). Hopfield – Hertz.

Contoh : Learning Vector Quantization (LVQ) adalah suatu metoda klasifikasi pola yang masing-masing unit keluaran mewakili kategori atau kelas tertentu (beberapa unit keluaran seharusnya digunakan untuk masing-masing kelas). 1986]. 1982]. JST (Jaringan saraf tiruan) • • • • • JST dapat belajar dari pengalaman Biasanya berhubungan dengan angka (numerik) sehingga data yang tidak numerik harus dibuat ke numerik Tidak ada rumus yang tetap (fixed) sehingga disebut dengan free-estimator JST disebut black box atau tidak transparan karena tidak mampu menjelaskan bagaimana suatu hasil didapatkan JST mampu menyelesaikan permasalahan permasalahan yang tidak terstruktur dan sulit didefinisikan Kelebihan JST • • • • • Mampu mengakuisisi pengetahuan walau tidak ada kepastian Mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu JST dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan melalui pengaturan diri atau kemampuan elajar (self organizing) Memiliki fault folerance. gangguan dapat dianggap sebagai noise saja Kemampuan perhitungan secara paralel sehingga proses lebih singkat JST Mampu : • • • • Klasifikasi memilih suatu input data ke dalam kategori tertentu yang sudah ditetapkan Asosiasi menggambarkan suatu objek secara keseluruhan hanya dengan bagian dari objek lain Self organizing : kemampuan mengubah data data input tanpa harus mempunya target Otimasi menemukan suatu jawaban terbaik sehingga mampu meminimalisasi fungsi biaya Kelemahan JST : • • • 1. Elman network [Elman.baiknya seperti masukan dan luaran sebelumnya. 1990]. operasi logika dan simbolis Lamanya proses training yang mungkin terjadi dalam waktu yang sangat lama untuk jumlah data yang besar Page | 5 . dan Jordan network [Jordan. JST seperti ini memliki kemampuan klasifikasi. Kurang mampu untuk melakukan operasi operasi numerik dengan presisi tinggi Kurang mampu melakukan operasi algoritma aritmatik. Contoh : Hopfield network [Hopfield. JST-1 : a. Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas memilih suatu input data ke dalam katagori tertentu yang sudah ditetapkan.

xn) F = Lapisan kompetitif Y_in = Masukan kelapisan kompetitif Y = Keluaran (Output) W = Vektor bobot untuk unit keluaran x  w = Selisih nilai jarak Euclidean antara vektor input dengan vektor bobot untuk unit Output[3] Arsitektur jaringan LVQ (Learning Vector Quantization) yang terdiri dari 6 node lapisan masukan (Input layer). Lapisan input memiliki 6 node yang disimbolkan dengan nilai x1. Contoh : JST untuk dapat mengenali wajah dari sebagian potongan wajah. Hopfield. Backpropagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas mengolah data tanpa dibekali target tertentu. x3. Dimana tujuan dari pemberian bobot tersebut adalah agar nilai tiap masukan memiliki penimbang (bobot) yang kemudian akan dihitung nilainya Page | 6 .Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menggambarkan suatu obyek secara keseluruhan berdasarkan potongan informasi tentang obyek tersebut. dapat mengenali lagu dari dua atau tiga not. Contoh : Kohonen Self Organizing Maps (KSOM) digunakan untuk memodelkan sistem penyaringan yang dikembangkan. Boltzman. x5. Arsitektur dan Metoda masing-masing : Klasifikasi : Dimana : X = Vektor Masukan (x1…. Contoh : ADALINE. x2.  Menggunakan Back propagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menemukan jawaban terbaik sehingga mampu meminimalkan biaya tertentu. 2 node lapisan tersembunyi (Hidden layer) serta 2 node lapisan keluaran (Output layer). x4. Pada tiap lapis masukan terlebih dahulu diberikan dua nilai bobot yang berbeda yaitu w1 dan w2. b. JST seperti ini memliki kemampuan asosiasi. dan x6. JST seperti ini memliki kemampuan optimasi. xi…. JST seperti ini memliki kemampuan self organizing.

dan diselesaikan dengan persamaan yang dimiliki oleh metode LVQ (Learning Vector Quantization). Nama umum dari arsitektur ini adalah Multilayer neural network. Neuron yang satu mengeluarkan output dan kemudian menjadi input untuk semua neuron Page | 7 . Keluaran dari lapisan ini akan menjadi masukan bagi lapisan tersembunyi (hidden layer) sebanyak 2 node yaitu Y_in1 dan Y_in2. hidden layer dan output layer. Arsitektur ini terdiri dari input layer. Sehingga jaringan memiliki dua buah kelas yang berbeda. Dengan menggunakan arsitektur jenis ini. Dalam jaringan diatas fungsi pembanding tersebut dituliskan dengan simbol F1 dan F2. dan setiap layer terdiri dari satu atau lebih aritificial neuron. Asosiasi : Outp y1 uj1 ut ul1 u11 Layer … Hidd b1 en Layer Inp ut Lay er x y … bl u1m ulm … bj uj1 m v v v11v1l vkl v1j vk1 a vkj vi1 ila ij a1 … … k i w11 w1k wnk wni wn1 w1i … xn 1 Backpropagation adalah salah satu pengembangan dari arsitektur Single Layer Neural Network. Dengan menggunakan prinsip bahwa nilai paling kecil yang dihasilkan adalah pemenang dan merupakan kelas dari input tersebut maka pada lapisan keluaran (Output layer) digunakan sebuah fungsi pembanding yang berguna membandingkan dua nilai tersebut untuk dicari nilai terkecilnya. Optimasi : Dalam jaringan Hopfield semua neuron berhubungan penuh. yaitu kelas 1 dan kelas 2. Kelas 1 memiliki bobot w1 dan kelas dua memiliki bobot w2. maka metode pelatihan yang digunakan adalah Backpropagation yang biasanya disebut juga sebagai feedforward networks.

misalnya untuk menentukan lokasi gangguan pada jaringan sistem tenaga listrik dengan memanfaatkan jaringan syaraf tiruan sebagai mesin penarik kesimpulannya. setiap neuron tidak memberi input kepada dirinya sendiri. Secara matematis konsep di atas dapat disajikan dalam matriks simetris n×n dengan diagonal utamanya bernilai 0. Model semacam ini berisi n neuron dan jaringannya terdiri dari n(n-1) interkoneksi dua jalur. Biasanya sel-sel lapis kompetitif disusun dalam kisi-kisi dua dimensi atau urutan linier. identifikasi dan kontrol system adalah Jaringan Syaraf Tiruan (JST). Untuk melakukan Page | 8 . Pemanfaatan jaringan syaraf tiruan tersebut dapat mengatasi kesulitan dalam membuat dan memperbaiki basis pengetahuan pada sistem pakar shell. Merealisasikan JST untuk system control mungkin saja dapat dilakukan. Self Organizing : Jaringan kohonen ini terdiri dari dua lapis.Lapis pertama merupakan lapisan masukan yang mempunyai fungsi untuk menerima sinyal masukan.1}n . JST-2 : a. Proses penerimaan sinyal antara neuron ini secara feedback tertutup terus menerus sampai dicapai kondisi stabil[2]. Dalam model diskritnya. jaringan Hopfield bobot sinaptiknya menggunakan vektor biner berdimensi n atau a{0. Sebagai masukan sistem pakar ini adalah status operasional peralatan pemutus tenaga (pmt) dan rele proteksi. misalnya teknik yang banyak diteliti orang baik di dalam pemrosesan sinyal. pengenalan pola. Khusus untuk keperluan identifikasi dan kontrol system dinamik. yaitu setiap unit pada lapis masukan harus terhubung ke semua unit pada lapis kompetitif. b. 2.yang lain. sedangkan lapis kedua adalah lapis kompetitif yang merupakan unit pengolah pada suatu jaringan. Kedua lapis pada jaringan kohonen terhubung penuh (fully connected). Merealisasikan Sistem Pakar dengan JST mungkin saja dapat dilakukan. arsitektur JST yang banyak digunakan adalah JST umpan maju dan Diagonal Recurrent (Diagonal Recurrent Neural Network/DRRN). Basis pengetahuan system pakar dengan jaringan syaraf tiruan diatas secara otomatis dapat dibentuk dari data-data masukan melalui antarmuka pemakai. Dengan kata lain.

Alternatif lainnya adalah dengan menggunakan algoritma Recursive Prediction Error (RPE). Algoritma pembelajaran pada JST yang digunakan umumnya adalah Algoritma Propagasi Balik (PB). Jaringan RBF : c.[6] Masing–masing unit tersembunyi merupakan fungsi aktifasi yang berupa fungsi basis radial. dimana || . 1. Output jaringan ini merupakan jumlah dari seluruh output fungsi basis dikalikan dengan bobot masing–masing. Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF. MLP : a. || merupakan vektor normal. Jaringan RBF terdiri atas 3 layer yaitu layer input.proses identifikasi dan kontrol suatu plant menggunakan JST maka diperlukan proses pembelajaran. 3. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu yang disebut sebagai fungsi basis. Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan bobot tertentu. hidden layer (unit tersembunyi) dan layer output.c||. Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis pada hidden layer. RBF (φ) merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai φc = φ ||x . Parameter-parameter dalam MLP : • • • • • • • Page | 9 Jumlah lapisan tersembunyi Jumlah neuron setiap lapisan Learning rate Fungsi aplikasi Inisialisasi bobot dan bobot bias Threshold Momentum .

Struktur perilakunya stabil c. Cocok digunakan untuk pengenalan pola. dimana signal bergerak melewati lapisan tersembunyi dan akhirnya mencapai unit output b. kasus identifikasi dan pemodelan system non linier 3. SOM (Self organizing map) Manfaat : Backpropagation. Mempunyai struktur recurrent a. Contoh jaringanyang belajar dengan pengawasan adalah Backpropagation dan Perceptron.• • • Set error pengujin Set error pelatihan Maksimum epoch b. multi layer perceptron. radial basis function mempunyai koneksi kembali dari output ke input b. Page | 10 . Mempunyai struktur feedback. Belajar dengan pengawasan (Supervised Learning ) Pada metode supervised learning jaringan diberikan vektor target yang harus dicapai sebagai dasar untuk mengubah hubungan interkoneksi atau bobot pada jaringan. Memiliki loop. Back Propagation dan Recurrent : Perbandingannya Back propagation a. Struktur perilakunya stabil dan menghasilkan dinamika yang sangat komplek c. untuk memprediksi suatu system dalam waktu yang berbeda Recurrent. Pengaruh banyaknya layer dalam MLP : • • Meningkatkan keakuratan Dapat menangani masalah2 yang lebih komplek 2. Supervised and supervised Learning : a. Tidak mempnyai loop Contoh: single layer perceptron. feedforward. lapisan output akan member input bagi lapisan input Contoh: LVQ (linier vector quanification).

tetapi ditambah dengan nilai keluaran dari neuron tersembuyi dari propagasi sebelumnya .b. Boltzmann. Konfigurasi jaringan dikenal dengan recurrent.dimana vektor target tidak ditentukan. Hopfield. 4. Jaringan Hopfield. Masukan jaringan tidak hanya nilai masukan dari luar jaringan. Dapat diterapkan suatu aosiatif memori dengan memperhitungkan fungsi energi kedalam jaringan. salah satu metode jst dengan pola pelatihan tidak terbimbing. Jaringan Elman adalah sebuah jaringan rekurens sederhana yang memiliki umpan balik nilai sehingga dapat menangani memori jangka pendek. Page | 11 . Contohnya TSP (travelling salesman problem). Vektor masukan dimasukkan ke dalam jaringan. Aturan boltzmann merupakan aturan pembelajaran pengoreksian error. Terdiri dari beberapa neuron yang saling terhubung 1 sama lain. Optimisasi : c. Boltzmann. Jenis jst yang cocok untuk melaksanakan optimasi adalah: hopfield 5. Manfaatnya untuk pengklasifikasi pola c. d. masing2 untuk on dan off.kemudian sistem akan mengatur dirinya sendiri sedemikian rupa sehingga dihasilkankeluaran yang konsisten bilamana pola yang menyerupai vektor masukan tersebut diberikan. Optimasi dalam jst bermanfaat untuk menemukan suatu solusi terbaik sehingga mampu meminimalisasi fungsi biaya. merupakan jst balik yang simetris terdiri dari unit2 linier +1 dan -1. restorasi citra b. Metode unsupervised learning Melatih jaringan terhadap suatu inputan tanpa adanya pengawasan. Cocok untuk pengelompokan dan klasifikasi pola. Merupakan jst yang terhubung penuh atau fully conected Manfaatnya untuk pengenalan pola atau identifikasi. Elman dan Jordan : a. Setiap neuron mrupakan sebuah unit setokastik yang menghasilkan output menurut distribusi mekanik statistik boltsmann..

Tingkat pembelajarannya berlapis-lapis c. karena JST tidak dapat mengolah nilai kontinu. klemudian diolah di JST. Page | 12 .6. Keunggulan gabungan JST dan FL : Mengolah nilai kontinu menjadi diskrit. Kemungkinan penggabungan JST. Keterkaitan JST dan GA : Algoritma genetik digunakan untuk pencarian bobot terbaik dalam JST. Keterkaitan JST dan Fuzy Logic : JST digunakan untuk menghitung proses informasi dan melakukan pendekatan batasan keputusan yang rumit. FL dan GA : Kemungkinan dapat digabungkan : FL digunakan untuk menkonversi nilai kontinu ke nilai diskrit pada JST GA digunakan untuk pencarian bobot terbaik pada JST Keunggulannya : Keakurannya lebih optimal Kerugiannya : Karena pembelajarannya berlapis-lapis. Keunggulan : Meningkatkan keakuratan nilai optimasi. Fuzy Logic digunakan untuk mewakili derajat kebenarannya. Fuzzy Logic and Genetic Algorith : a. b. sehingga memerlukan waktu yang lama.

Sign up to vote on this title
UsefulNot useful