Apa itu Jaringan Syaraf Tiruan(JST)?

Jaringan saraf tiruan (JST) atau neural network adalah suatu metode komputasi yang meniru sistem jaringan saraf biologis. Metode ini menggunakan elemen perhitungan non-linier dasar yang disebut neuron yang diorganisasikan sebagai jaringan yang saling berhubungan, sehingga mirip dengan jaringan saraf manusia. Jaringan saraf tiruan dibentuk untuk memecahkan suatu masalah tertentu seperti pengenalan pola atau klasifikasi karena proses pembelajaran. Layaknya neuron biologi, JST juga merupakan sistem yang bersifat fault tolerant dalam 2 hal. Pertama, dapat mengenali sinyal input yang agak berbeda dari yang pernah diterima sebelumnya. Sebagai contoh, manusia sering dapat mengenali seseorang yang wajahnya pernah dilihat dari foto atau dapat mengenali sesorang yang wajahnya agak berbeda karena sudah lama tidak menjumpainya. Kedua, tetap mampu bekerja meskipun beberapa neuron-nya tidak mampu bekerja dengan baik. Jika sebuah neuron rusak, neuron lain dapat dilatih untuk menggantikan fungsi neuron yang rusak tersebut. Jaringan saraf tiruan, seperti manusia, belajar dari suatu contoh karena mempunyai karakteristik yang adaptif, yaitu dapat belajar dari data-data sebelumnya dan mengenal pola data yang selalu berubah. Selain itu, JST merupakan sistem yang tak terprogram, artinya semua keluaran atau kesimpulan yang ditarik oleh jaringan didasarkan pada pengalamannya selama mengikuti proses pembelajaran/pelatihan. Hal yang ingin dicapai dengan melatih JST adalah untuk mencapai keseimbangan antara kemampuan memorisasi dan generalisasi. Yang dimaksud kemampuan memorisasi adalah kemampuan JST untuk mengambil kembali secara sempurna sebuah pola yang telah dipelajari. Kemampuan generalisasi adalah kemampuan JST untuk menghasilkan respons yang bisa diterima terhadap pola-pola input yang serupa (namun tidak identik) dengan pola-pola yang sebelumnya telah dipelajari. Hal ini sangat bermanfaat bila pada suatu saat ke dalam JST itu dimasukkan informasi baru yang belum pernah dipelajari, maka JST itu masih akan tetap dapat memberikan tanggapan yang baik, memberikan keluaran yang paling mendekati (Puspitaningrum, 2006). Jaringan saraf tiruan berkembang secara pesat pada beberapa tahun terakhir. Jaringan saraf tiruan telah dikembangkan sebelum adanya suatu komputer konvensional yang canggih dan terus berkembang walaupun pernah mengalami masa vakum selama beberapa tahun. JST menyerupai otak manusia dalam dua hal, yaitu:
• •

Pengetahuan diperoleh jaringan melalui proses belajar Kekuatan hubungan antar sel syaraf (neuron) yang dikenal sebagai bobot-bobot sinaptik digunakan untuk menyimpan pengetahuan.

Menurut (Siang, 2004) JST ditentukan oleh 3 hal:
• •

Pola Hubungan Antar Neuron Metode untuk menentukan bobot penghubung neuron

Page | 1

JST mampu melakukan pembelajaran terbimbing(supervised) maupun tak terbimbing(unsupervised learning).• Fungsi Aktivasi Apa yang bisa dan tidak bisa dilakukan oleh JST? Pada prinsipnya. Secara definisi perceptron adalah penggolongan biner yang memetakan input X kedalam fungsi f(x). Untuk mencapai keberhasilan proses training diperlukan data training dan waktu yang cukup banyak pada saat melakukan training. Page | 2 . Output yang dihasilkan pada perceptron dengan lebih dari satu layer jaringan syaraf akan menjadi input pada perceptron selanjutnya. sebagai contoh: JST mampu melakukan semua yang bisa dilakukan oleh komputer. bisa dimasukkan input data tanpa nilai target dan JST akan menghitung nilai output yang mendekati nilai target. Penerapan JST yang telah digunakan dalam dunia nyata adalah sebagai berikut: • • • • • • • • Pengenalan karakter Diagnosa mesin -> mendeteksi ketika mesin mengalami kesalahan. Manajemen portofolio -> mengalokasikan aset dalam portofolio dengan tujuan untuk memaksimalkan hasil dan meminimalisir resiko Target recognition -> aplikasi militer yang menggunakan video atau data citra inframerah untuk menentukan letak target Financial forecasting Perkiraan fungsi Klasifikasi Kompresi data Apa itu perceptron? Perceptron merupakan feedforward neural network yang paling sederhana. JST mampu melakukan komputasi dengan semua fungsi komputasi. sehingga sistem dapat secara otomatis mematikan mesin. namun pada praktiknya lebih banyak digunakan untuk supervised learning. Setelah training berhasil. Untuk supervised learning diperlukan data training yang meliputi nilai input dan nilai target.

Grossberg. Minsky and Papert (1969/1988). and Palmer (1991). Fausett (1994)   Page | 3 . Nadaraya (1964). Orr (1996)  OLS: Orthogonal Least Squares – Chen. Watson (1964) 2. Fausett (1994)  Boltzman Machine – Ackley et al. Supervised 1. Krogh. Feedforward  Linear Hebbian – Hebb (1949). Cowan and Grant (1991)  CMAC: Cerebellar Model Articulation Controller – Albus (1975). 1988. Fausett (1994)  Quickprop – Fahlman (1989)  RPROP – Riedmiller and Braun (1993)  RBF networks – Bishop (1995). (1985). and Williams (1986)  Cascade Correlation – Fahlman and Lebiere (1990). Masters (1993). Moody and Darken (1989). Medsker and Jain (2000)  BAM: Bidirectional Associative Memory – Kosko (1992). 1990). Fausett (1994)  PNN: Probabilistic Neural Network – Specht (1990). Fausett (1994) Perceptron – Rosenblatt (1958). Fausett (1994)  Recurrent time series  Backpropagation through time – Werbos (1990)  Elman – Elman (1990)  FIR: Finite Impulse Response – Wan (1990)  Jordan – Jordan (1986)  Real-time recurrent network – Williams and Zipser (1989)  Recurrent backpropagation – Pineda (1989). Feedback – Hertz. Competitive  ARTMAP – Carpenter. Fausett (1994)  Adaline – Widrow and Hoff (1960). Fausett (1994)  Backprop – Rumelhart. Kasuba (1993)  Gaussian ARTMAP – Williamson (1995)  Counterpropagation – Hecht-Nielsen (1987. Fausett (1994)  Higher Order – Bishop (1995)  Functional Link – Pao (1989)  MLP: Multilayer perceptron – Bishop (1995). Waibel and Hinton (1990) 3.Apa saja jenis JST yang ada? 1. Hinton. Fausett (1994)  TDNN: Time Delay NN – Lang. Hand (1982). Reynolds and Rosen (1992). Reed and Marks (1999). Brown and Harris (1994)  Classification only  LVQ: Learning Vector Quantization – Kohonen (1988). Fausett (1994)  Regression only  GNN: General Regression Neural Network – Specht (1991). Markuzon. Grossberg and Reynolds (1991)  Fuzzy ARTMAP – Carpenter.

various networks for optimization – Cichocki and Unbehauen (1993)  Referensi: Puspitanigrum.S. Krogh. Fausett (1994)  ART 2-A – Carpenter.. Neural Network FAQ. (1977). Fausett (1994)  Hopfield – Hopfield (1982). Jaringan Saraf Tiruan & Pemrogramannya Menggunakan Matlab. and Ito (1983). Unsupervised – Hertz. Sarle. Yogyakarta: Penerbit Andi. W. Moore (1988). Svensén and Williams (1997)  Local Linear – Mulier and Cherkassky (1995)  Adaptive resonance theory  ART 1 – Carpenter and Grossberg (1987a). URL: ftp://ftp. Fukushima. D. Fausett (1994)  BSB: Brain State in a Box – Anderson et al. Grossberg and Rosen (1991a)  ART 3 – Carpenter and Grossberg (1990)  Fuzzy ART – Carpenter.com/pub/neural/FAQ. and Palmer (1991) 2. Fausett (1994) 3. ed. Krogh. (1988). part 1 of 7: Introduction. periodic posting to the Usenet newsgroup comp. Competitive  Vector Quantization  Grossberg – Grossberg (1976)  Kohonen – Kohonen (1984)  Conscience – Desieno (1988)  Self-Organizing Map  Kohonen – Kohonen (1995).neural-nets. Fausett (1994)  ART 2 – Carpenter and Grossberg (1987b). Grossberg and Rosen (1991b)  DCL: Differential Competitive Learning – Kosko (1992) 2. (2004). (2006). and Palmer (1991) 1. Miyake. J. J. Recurrent network memiliki memori dinamik : luaran-luaran yang berasal dari masukan. Recurrent network : Sinyal mengalir dua arah : maju dan mundur. (1997).Neocognitron – Fukushima.sas. Fausett (1994)  Oja – Oja (1989)  Sanger – Sanger (1989)  Differential Hebbian – Kosko (1992) 3. Hopfield – Hertz. Pengantar Jaringan Saraf Tiruan. Yogyakarta: Penerbit Andi. (1977). Dimension Reduction – Diamantaras and Kung (1996)  Hebbian – Hebb (1949). Autoassociation  Linear autoassociator – Anderson et al. Nonlearning 1. sama Page | 4 . Fausett (1994)  GTM: – Bishop.html Siang.ai. Fausett (1994) 2.

Elman network [Elman. 1986]. dan Jordan network [Jordan.baiknya seperti masukan dan luaran sebelumnya. Contoh : Learning Vector Quantization (LVQ) adalah suatu metoda klasifikasi pola yang masing-masing unit keluaran mewakili kategori atau kelas tertentu (beberapa unit keluaran seharusnya digunakan untuk masing-masing kelas). Kurang mampu untuk melakukan operasi operasi numerik dengan presisi tinggi Kurang mampu melakukan operasi algoritma aritmatik. JST seperti ini memliki kemampuan klasifikasi. JST (Jaringan saraf tiruan) • • • • • JST dapat belajar dari pengalaman Biasanya berhubungan dengan angka (numerik) sehingga data yang tidak numerik harus dibuat ke numerik Tidak ada rumus yang tetap (fixed) sehingga disebut dengan free-estimator JST disebut black box atau tidak transparan karena tidak mampu menjelaskan bagaimana suatu hasil didapatkan JST mampu menyelesaikan permasalahan permasalahan yang tidak terstruktur dan sulit didefinisikan Kelebihan JST • • • • • Mampu mengakuisisi pengetahuan walau tidak ada kepastian Mampu melakukan generalisasi dan ekstraksi dari suatu pola data tertentu JST dapat menciptakan suatu pola pengetahuan melalui pengaturan diri atau kemampuan melalui pengaturan diri atau kemampuan elajar (self organizing) Memiliki fault folerance. JST-1 : a. 1982]. Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas memilih suatu input data ke dalam katagori tertentu yang sudah ditetapkan. 1990]. gangguan dapat dianggap sebagai noise saja Kemampuan perhitungan secara paralel sehingga proses lebih singkat JST Mampu : • • • • Klasifikasi memilih suatu input data ke dalam kategori tertentu yang sudah ditetapkan Asosiasi menggambarkan suatu objek secara keseluruhan hanya dengan bagian dari objek lain Self organizing : kemampuan mengubah data data input tanpa harus mempunya target Otimasi menemukan suatu jawaban terbaik sehingga mampu meminimalisasi fungsi biaya Kelemahan JST : • • • 1. Contoh : Hopfield network [Hopfield. operasi logika dan simbolis Lamanya proses training yang mungkin terjadi dalam waktu yang sangat lama untuk jumlah data yang besar Page | 5 .

Hopfield. xi…. b. Pada tiap lapis masukan terlebih dahulu diberikan dua nilai bobot yang berbeda yaitu w1 dan w2.  Menggunakan Back propagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menemukan jawaban terbaik sehingga mampu meminimalkan biaya tertentu. Arsitektur dan Metoda masing-masing : Klasifikasi : Dimana : X = Vektor Masukan (x1…. x3. x4. JST seperti ini memliki kemampuan self organizing. dan x6.Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas menggambarkan suatu obyek secara keseluruhan berdasarkan potongan informasi tentang obyek tersebut. Backpropagation Sebuah jaringan syaraf tiruan (JST) dirancang untuk dapat melakukan tugas mengolah data tanpa dibekali target tertentu. dapat mengenali lagu dari dua atau tiga not. Dimana tujuan dari pemberian bobot tersebut adalah agar nilai tiap masukan memiliki penimbang (bobot) yang kemudian akan dihitung nilainya Page | 6 . Contoh : ADALINE. Boltzman. 2 node lapisan tersembunyi (Hidden layer) serta 2 node lapisan keluaran (Output layer). xn) F = Lapisan kompetitif Y_in = Masukan kelapisan kompetitif Y = Keluaran (Output) W = Vektor bobot untuk unit keluaran x  w = Selisih nilai jarak Euclidean antara vektor input dengan vektor bobot untuk unit Output[3] Arsitektur jaringan LVQ (Learning Vector Quantization) yang terdiri dari 6 node lapisan masukan (Input layer). x5. x2. JST seperti ini memliki kemampuan asosiasi. Contoh : JST untuk dapat mengenali wajah dari sebagian potongan wajah. Contoh : Kohonen Self Organizing Maps (KSOM) digunakan untuk memodelkan sistem penyaringan yang dikembangkan. JST seperti ini memliki kemampuan optimasi. Lapisan input memiliki 6 node yang disimbolkan dengan nilai x1.

yaitu kelas 1 dan kelas 2. Kelas 1 memiliki bobot w1 dan kelas dua memiliki bobot w2. Nama umum dari arsitektur ini adalah Multilayer neural network. Dengan menggunakan prinsip bahwa nilai paling kecil yang dihasilkan adalah pemenang dan merupakan kelas dari input tersebut maka pada lapisan keluaran (Output layer) digunakan sebuah fungsi pembanding yang berguna membandingkan dua nilai tersebut untuk dicari nilai terkecilnya. Neuron yang satu mengeluarkan output dan kemudian menjadi input untuk semua neuron Page | 7 . Dalam jaringan diatas fungsi pembanding tersebut dituliskan dengan simbol F1 dan F2. Optimasi : Dalam jaringan Hopfield semua neuron berhubungan penuh. Arsitektur ini terdiri dari input layer. Asosiasi : Outp y1 uj1 ut ul1 u11 Layer … Hidd b1 en Layer Inp ut Lay er x y … bl u1m ulm … bj uj1 m v v v11v1l vkl v1j vk1 a vkj vi1 ila ij a1 … … k i w11 w1k wnk wni wn1 w1i … xn 1 Backpropagation adalah salah satu pengembangan dari arsitektur Single Layer Neural Network. maka metode pelatihan yang digunakan adalah Backpropagation yang biasanya disebut juga sebagai feedforward networks.dan diselesaikan dengan persamaan yang dimiliki oleh metode LVQ (Learning Vector Quantization). Sehingga jaringan memiliki dua buah kelas yang berbeda. Dengan menggunakan arsitektur jenis ini. dan setiap layer terdiri dari satu atau lebih aritificial neuron. hidden layer dan output layer. Keluaran dari lapisan ini akan menjadi masukan bagi lapisan tersembunyi (hidden layer) sebanyak 2 node yaitu Y_in1 dan Y_in2.

Secara matematis konsep di atas dapat disajikan dalam matriks simetris n×n dengan diagonal utamanya bernilai 0. 2. Biasanya sel-sel lapis kompetitif disusun dalam kisi-kisi dua dimensi atau urutan linier. Merealisasikan Sistem Pakar dengan JST mungkin saja dapat dilakukan. Dengan kata lain. Sebagai masukan sistem pakar ini adalah status operasional peralatan pemutus tenaga (pmt) dan rele proteksi. jaringan Hopfield bobot sinaptiknya menggunakan vektor biner berdimensi n atau a{0. Kedua lapis pada jaringan kohonen terhubung penuh (fully connected).yang lain. Basis pengetahuan system pakar dengan jaringan syaraf tiruan diatas secara otomatis dapat dibentuk dari data-data masukan melalui antarmuka pemakai. misalnya teknik yang banyak diteliti orang baik di dalam pemrosesan sinyal. JST-2 : a. Model semacam ini berisi n neuron dan jaringannya terdiri dari n(n-1) interkoneksi dua jalur. sedangkan lapis kedua adalah lapis kompetitif yang merupakan unit pengolah pada suatu jaringan. Dalam model diskritnya.1}n . Proses penerimaan sinyal antara neuron ini secara feedback tertutup terus menerus sampai dicapai kondisi stabil[2]. pengenalan pola. b. identifikasi dan kontrol system adalah Jaringan Syaraf Tiruan (JST). Pemanfaatan jaringan syaraf tiruan tersebut dapat mengatasi kesulitan dalam membuat dan memperbaiki basis pengetahuan pada sistem pakar shell. Merealisasikan JST untuk system control mungkin saja dapat dilakukan. Untuk melakukan Page | 8 . setiap neuron tidak memberi input kepada dirinya sendiri.Lapis pertama merupakan lapisan masukan yang mempunyai fungsi untuk menerima sinyal masukan. Self Organizing : Jaringan kohonen ini terdiri dari dua lapis. yaitu setiap unit pada lapis masukan harus terhubung ke semua unit pada lapis kompetitif. Khusus untuk keperluan identifikasi dan kontrol system dinamik. arsitektur JST yang banyak digunakan adalah JST umpan maju dan Diagonal Recurrent (Diagonal Recurrent Neural Network/DRRN). misalnya untuk menentukan lokasi gangguan pada jaringan sistem tenaga listrik dengan memanfaatkan jaringan syaraf tiruan sebagai mesin penarik kesimpulannya.

Setiap input dari jaringan syaraf tiruan RBF ini akan mengaktifkan semua fungsi basis pada hidden layer. dimana || . 1. Algoritma pembelajaran pada JST yang digunakan umumnya adalah Algoritma Propagasi Balik (PB). Output jaringan ini merupakan jumlah dari seluruh output fungsi basis dikalikan dengan bobot masing–masing. 3. MLP : a. hidden layer (unit tersembunyi) dan layer output. || merupakan vektor normal. Setiap fungsi basis akan menghasilkan sebuah keluaran dengan bobot tertentu. Parameter-parameter dalam MLP : • • • • • • • Page | 9 Jumlah lapisan tersembunyi Jumlah neuron setiap lapisan Learning rate Fungsi aplikasi Inisialisasi bobot dan bobot bias Threshold Momentum . Jaringan syaraf yang dibentuk dengan menggunakan fungsi basis berupa fungsi basis radial dinamakan Jaringan Syaraf RBF. Jaringan RBF : c.proses identifikasi dan kontrol suatu plant menggunakan JST maka diperlukan proses pembelajaran.c||.[6] Masing–masing unit tersembunyi merupakan fungsi aktifasi yang berupa fungsi basis radial. Setiap unit dari hidden layer merupakan fungsi aktifasi tertentu yang disebut sebagai fungsi basis. Alternatif lainnya adalah dengan menggunakan algoritma Recursive Prediction Error (RPE). Fungsi basis radial ini diasosiasikan oleh lebar dan posisi center dari fungsi basis tersebut. RBF (φ) merupakan fungsi dimana keluarannya simetris terhadap center c tertentu atau dinyatakan sebagai φc = φ ||x . Jaringan RBF terdiri atas 3 layer yaitu layer input.

Supervised and supervised Learning : a. Struktur perilakunya stabil c. Cocok digunakan untuk pengenalan pola. Struktur perilakunya stabil dan menghasilkan dinamika yang sangat komplek c.• • • Set error pengujin Set error pelatihan Maksimum epoch b. Page | 10 . radial basis function mempunyai koneksi kembali dari output ke input b. Mempunyai struktur feedback. Belajar dengan pengawasan (Supervised Learning ) Pada metode supervised learning jaringan diberikan vektor target yang harus dicapai sebagai dasar untuk mengubah hubungan interkoneksi atau bobot pada jaringan. SOM (Self organizing map) Manfaat : Backpropagation. dimana signal bergerak melewati lapisan tersembunyi dan akhirnya mencapai unit output b. Back Propagation dan Recurrent : Perbandingannya Back propagation a. feedforward. Pengaruh banyaknya layer dalam MLP : • • Meningkatkan keakuratan Dapat menangani masalah2 yang lebih komplek 2. Mempunyai struktur recurrent a. lapisan output akan member input bagi lapisan input Contoh: LVQ (linier vector quanification). multi layer perceptron. untuk memprediksi suatu system dalam waktu yang berbeda Recurrent. kasus identifikasi dan pemodelan system non linier 3. Tidak mempnyai loop Contoh: single layer perceptron. Contoh jaringanyang belajar dengan pengawasan adalah Backpropagation dan Perceptron. Memiliki loop.

Konfigurasi jaringan dikenal dengan recurrent. Manfaatnya untuk pengklasifikasi pola c. restorasi citra b. Boltzmann. Masukan jaringan tidak hanya nilai masukan dari luar jaringan. Aturan boltzmann merupakan aturan pembelajaran pengoreksian error. Hopfield. Boltzmann. masing2 untuk on dan off. salah satu metode jst dengan pola pelatihan tidak terbimbing.dimana vektor target tidak ditentukan. Jaringan Hopfield. Page | 11 . Elman dan Jordan : a. d. Dapat diterapkan suatu aosiatif memori dengan memperhitungkan fungsi energi kedalam jaringan.kemudian sistem akan mengatur dirinya sendiri sedemikian rupa sehingga dihasilkankeluaran yang konsisten bilamana pola yang menyerupai vektor masukan tersebut diberikan. Contohnya TSP (travelling salesman problem).. Terdiri dari beberapa neuron yang saling terhubung 1 sama lain. merupakan jst balik yang simetris terdiri dari unit2 linier +1 dan -1. Merupakan jst yang terhubung penuh atau fully conected Manfaatnya untuk pengenalan pola atau identifikasi. Jaringan Elman adalah sebuah jaringan rekurens sederhana yang memiliki umpan balik nilai sehingga dapat menangani memori jangka pendek. Optimisasi : c. tetapi ditambah dengan nilai keluaran dari neuron tersembuyi dari propagasi sebelumnya . 4. Cocok untuk pengelompokan dan klasifikasi pola. Optimasi dalam jst bermanfaat untuk menemukan suatu solusi terbaik sehingga mampu meminimalisasi fungsi biaya. Vektor masukan dimasukkan ke dalam jaringan. Metode unsupervised learning Melatih jaringan terhadap suatu inputan tanpa adanya pengawasan. Setiap neuron mrupakan sebuah unit setokastik yang menghasilkan output menurut distribusi mekanik statistik boltsmann.b. Jenis jst yang cocok untuk melaksanakan optimasi adalah: hopfield 5.

Keterkaitan JST dan GA : Algoritma genetik digunakan untuk pencarian bobot terbaik dalam JST. Kemungkinan penggabungan JST. FL dan GA : Kemungkinan dapat digabungkan : FL digunakan untuk menkonversi nilai kontinu ke nilai diskrit pada JST GA digunakan untuk pencarian bobot terbaik pada JST Keunggulannya : Keakurannya lebih optimal Kerugiannya : Karena pembelajarannya berlapis-lapis. Keunggulan gabungan JST dan FL : Mengolah nilai kontinu menjadi diskrit.6. Keunggulan : Meningkatkan keakuratan nilai optimasi. Fuzzy Logic and Genetic Algorith : a. klemudian diolah di JST. Tingkat pembelajarannya berlapis-lapis c. Page | 12 . Keterkaitan JST dan Fuzy Logic : JST digunakan untuk menghitung proses informasi dan melakukan pendekatan batasan keputusan yang rumit. karena JST tidak dapat mengolah nilai kontinu. sehingga memerlukan waktu yang lama. Fuzy Logic digunakan untuk mewakili derajat kebenarannya. b.

Sign up to vote on this title
UsefulNot useful