P. 1
Markov Model

Markov Model

|Views: 490|Likes:
Published by kelompokatas1

More info:

Published by: kelompokatas1 on Oct 24, 2010
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as ODT, PDF, TXT or read online from Scribd
See more
See less

07/10/2013

pdf

text

original

Markov Chain Kismanto Prihantoro Mahasiswa Jurusan TeknikIndustri, Universitas Gunadarma E-mail : st_hanz@yahoo.

com Abstrak Prinsipnya, ketika kita mengamati rangkaian probabilitas percobaan, semua hasil masa lalu bisa mempengaruhi prediksi untuk percobaan berikutnya. Tahun 1907, A.A. Markov mulai mempelajari teori baru yang yang berkaitan dengan probabilitas, dalam proses ini hasil percobaan tertentu dapat mempengaruhi hasil percobaan berikutnya. Makalah ini akan membahas apakah proses stokastik itu, yang merupakan dasar dari Markov Chain, bagaimana prinsip dasar, teorema yang berlaku, statusstatus Markov Chain, lalu bagaimana penerapan atau aplikasinya. Contoh studi kasus mendapatkan hasil yaitu perkiraan ramalan cuaca pada hari Senin 42% peluang akan cerah, 42% akan berawan, dan 15% hujan. Kata kunci: markov chain, stokastik, state 1. Latar Belakang Sebagian besar penelitian probabilitas menangani proses percobaan independen, ini merupakan dasar teori probabilitas klasik dan mengarah ke statistik. Kita telah melihat bahwa ketika urutan eksperimen membentuk independen maka hasil yang mungkin untuk setiap percobaan adalah sama. Lebih lanjut, pengetahuan dari hasil percobaan sebelumnya tidak mempengaruhi hasil berikutnya. Teori probabilitas modern memungkinkan mengetahui hasil sebelumnya untuk memprediksi hasil percobaan selanjutnya. Prinsipnya, ketika kita mengamati rangkaian probabilitas percobaan, semua hasil masa lalu bisa mempengaruhi prediksi untuk percobaan berikutnya. Oleh karena itu dalam makalah ini akan menjelaskan lebih jauh tentang teori tersebut, yaitu Proses Markov berupa Markov Chain dan penerapan teori tersebut. 2. 2.1 Landasan Teori Sejarah Markov Chain

Markov Chain baru diperkenalkan sekitar tahun 1907, oleh seorang Matematisi Rusia Andrei A. Markov (1856-1922). Andrey Markov menghasilkan hasil pertama (1906) untuk proses ini, murni secara teoritis. Sebuah generalisasi ke bentuk tak terbatas dalam ruang diskrit diberikan oleh Kolmogrov (1936). Rantai Markov terkait dengan gerak Brown dan ergodic hipotesis dua topik dalam fisika yang penting dalam tahun-tahun awal abad ke-20, tetapi tampaknya Markov lebih fokus pada perluasan Hukum Bilangan Besar dalam percobaaan-percobaaannya. Model ini berhubungan dengan suatu rangkaian proses dimana kejadian akibat suatu suatu eksperimen hanya tergantung pada kejadian yang langsung mendahuluinya dan tidak tergantung pada rangkaian kejadian sebelum-sebelumnya yang lain. Pada 1913, ia menerapkan temuannya untuk pertama kalinya untuk 20.000 pertama Pushkin huruf ”Eugine Onegin”. 2.2 Proses Acak Pengelompokkan tipe populasi dari proses acak bisa digambarkan sebagai jika X adalah proses acak, maka populasi dari proses acak adalah semua nilai yang mungkin yang bisa dimasukkan dalam suatu proses contohnya Jika X adalah proses acak yang menggambarkan suatu persamaan, maka populasi dari X dapat digambarkan sebagai suatu nilai yang memenuhi persamaan tersebut. Jika populasi dari S dari suatu

Reachable State Status j reachable dari status i apabila dalam rantai dpat terjadi transisi dari status i ke status j melalui sejumlah transisi berhingga. jika pnii > 0. 2. dalam hal ini X disebut Discrete Time Random Process perubahan state terjadi pada titik-titik integer. X 2. sebaliknya jika pnii > 0.3 Konsep Dasar Markov Chain Apabila suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian . . (note: fi(0) didefinisikan = 1 untuk semua i) 5. Suatu Markov Chain merupakan proses stokastik berarti bahwa semua transisi adalah probabilitas (ditentukan oleh kebetulan acak dan dengan demikian tidak dapat diprediksi secara detail. Jika populasi dari S dari suatu proses acak X tidak dapat dihitung ( contoh S = ∞) maka X disebut Continuous Time Random Process perubahan state (discrete state) terjadi pada sembarang waktu. 0 ≤ n ≤ ∞. Probability of Ever Return Probabilitas akan kembalimya ke status i setelah sebelumnya meninggalkan i. mengingat keadaan masa depan dan masa lalu keadaan yang independen. 4.2. dengan kata lain nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. 2d. proses memiliki properti Markov yang berarti bahwa bentuk ke depan hanya tergantung pada keadaan sekarang. X 3.3. 3.org). hanya untuk n = d. Untuk lebih tepatnya. 3. Terdapat n. 2. meskipun mungkin diprediksi dalam sifat statistik). Markov Chain merupakan proses acak di mana semua informasi tentang masa depan terkandung di dalam keadaan sekarang (yaitu orang tidak perlu memeriksa masa lalu untuk menentukan masa depan). gambaran tentang keadaan sepenuhnya menangkap semua informasi yang dapat mempengaruhi masa depan dari proses evolusi. 6. Periodic State Suatu status i disebut periodic dengan peroda d > 1.. … maka status tersebut disebut aperiodic. Sebuah rantai Markov adalah suatu urutan dari variable-variabel acak X 1. rantai tersebut adalah irreduceable. Markov Chain adalah sebuah Proses Markov dengan populasi yang diskrit ( dapat dihitung) yang berada pada suatu discrete state (position) dan diizinkan utk berubah state pada time discrete.. Dengan kata lain. hanya untuk n = 1. .wikipedia. Status-statusnya adalah: 1. Probability of First Return Probabilitas kembali pertama kalinya ke status i terjadi dalam n transisi setelah meninggalkan i. . yaitu bahwa setelah dari i melalui sejumlah transisi terdapat kemungkinan tidak dapat kembali ke i. sehingga Pnij > 0 2. maka rangkaian eksperimen tersebut disebut Proses Stokastik.(www. 3d.proses acak X dapat dihiting (contoh S={1. dan tidak bergantung pada bentuk sebelumnya.…… sifat Markov yaitu.…}). Transient State Suatu status disebut transient jika probabilitas fi < 1. Irreduceable Chain Jika dalam suatu rantai Markov setiap status reachable dari setiap status lainnya.

4.4. Semua status adalah positif recurrent 2. Untuk i<—> j. jika dan hanya jika i dan j berada dalam kelas ekivalensi yang sama. d. jika i <—> j. yaitu bahwa setelah dari i melalui sejumlah transisi selalu ada kemungkinan untuk kembali ke i. e. maka juga j <—> i 3. 2. jumlah step rata-rata untuk kembali ke status i 9. Mean Recurrent Time of State Untuk suatu status recurrent. Relasi i <—> j merupakan relasi ekuivalen 1. Semua status trancient 2. Communicate State Dua status. Suatu Rantai Markov irreducible jika dan hanya jika didalamnya hanya terdiri atas tepat satu kelas ekivalensi.2 Teorema mengenai Irreducible Jika {Xn}suatu rantai Markov. 2. i dan j.4 Teorema-Teorema 2. maka i dan j memiliki periode yang sama. Semua status recurrent null 3. c. untuk setiap status i .7.4. jika i <—> j dan j <—> k maka i <—> k b. Status-status suatu Rantai Markov dapat dipartisi kedalam kelas-kelas ekivalensi sehingga i <—> j. Null Recurrent State Suatu Recurrent State disebut recurrent null jika mi = ∞ 10. aperiodic. Jika i<—> j.1 Teorema mengenai Relasi Ekovalensi a.3 Teorema mengenai Limiting Probability Definisi: πj(n) adalah probabilitas suatu Rantai Markov { Xn}berada dalam status j pada step ke n. irreduceable. Recurrent State Suatu status disebut recurrent jika probabilitas fi = 1. Maka πj(n) = P[ Xn = j] . dan seluruh status positive recurrent. Positive Recurrent State Suatu recurrent state disebut positive recurrent atau recurrent nonnull jika mi <∞ 11. ditulis dengan notasi 12. dikatakamn berkomunikasi jika i reachable dari j dan juga reachable dari i . jika i recurrent maka juga j recurrent. 8. maka tepat salah satu kondisi berikut ini terjadi: 1. Ergodic Rantai Markov disebut ergodic jika. berlaku i <—> i 2.

Jika suatu rantai Markov homogen waktu (stasioner dari waktu ke waktu) yang irreducible.2 Kimia Sebuah algoritma yang berdasarkan rantai Markov digunakan untuk memfokuskan pertumbuhan berdasarkan fragmen-bahan kimia di silico menuju kelas yang diinginkan dari senyawa seperti obatobatan atau produk alami. sebuah fragmen dipilih dari molekul baru lahir sebagai “saat ini” keadaan. Seperti model ideal dapat menangkap banyak statistik keteraturan sistem. ……selalu ada dan independent dari distribusu probabilitas status awal π (0) = (π0(0) . untuk j = 0. 2. π2. mengatur rantai ini di beberapa lapisan rekursif ( ‘wafering’) dan memproduksi lebih efisien set uji – sampel – sebagai pengganti pengujian lengkap.1 Aplikasi Fisika Sistem Markovian muncul secara luas dalam termodinamika dan mekanika statistika probabilitas setiap kali digunakan untuk mewakili unmodelled diketahui atau rincian dari sistem. 2. maka πj = 0 untuk semua j dan tidak terdapat distribusi probabilitas stasioner. seperti model-model sinyal dapat sangat efektif sehungga memungkinkan kompresi data melalui pengkodean entropi teknik. sebuah metode Markov conjoining rantai untuk membentuk suatu ‘Markov selimut’.4 Teori Queueing Rantai Markov juga dapat digunakan untuk model berbagai proses dalam teori queueing dan statistic.). dan bahwa tidak ada sejarah yang relevan perlu dipertimbangkan yang tidak sudah termasuk di keadaan bagian deskripsi. Ini kemudian transisi ke keadaan berikutnya ketika sebuah fragmen yang melekat padanya. jika dapat diasumsikan bahwa dinamika waktu-invarian. sementara model Markov Tersembunyi adalah secara ekstensif digunakan dalam pengenalan suara dan juga dalam bioinformatika misalnya untuk daerah pengkode / gen prediksi. 1. tidak menyadari apa yang sudah terikat untuk itu). MCST juga memiliki kegunaan dalam keadaan dunia berbasis jaringan. πn ) apabila terpenuhi persamaan π = π P asalkan setiap πi ≥ 0 dan ∑i πi =1. 4.. Bahkan tanpa menjelaskan struktur penuh dari suatu sistem sempurna. 1.Distribusi awal ( initial ) dari masing-masing status 0. 1. maka limit probabiltasnya. Mereka juga memungkinkan estimasi keadaan dan pengenalan pola. π1. untuk j = 0. 4. ‘S makalah berjudul “Temporal Ketidakpastian Penalaran Bukti Jaringan untuk Aplikasi untuk Fusion dengan Obyek Deteksi dan Pelacakan” (ScienceDirect) memberikan latar belakang yang sangat baik dan studi kasus untuk menerapkan MCSTs ke lebih beragam aplikasi. 4. Dunia sistem telepon selular tergantung pada algoritma Viterbi untuk kesalahan-koreksi.. π2(0). …… dinyatakan sebagai πj(0) = P[ X0 = j]. Jika seluruh status tidak positif recurrent (jadi seluruhnya recurrent null atau seluruhnya transient).5 Statistik Metode Rantai Markov juga menjadi sangat penting untuk menghasilkan angka acak urutan .3 Test Pengujian Beberapa teoretikus telah mengusulkan gagasan tentang rantai Markov uji statistik (MCST). 4. π1(0) . Chilukuri et al. 4. Sebagai molekul tumbuh. aperiodic. 4. …… Suatu rantai Markov memiliki distribusi probabilitas stasioner π = (π0. Hal ini tidak menyadari masa lalu (yaitu. …. ….

2. dll. X 3. dan 25% akan turun hujan Jika pada hari Jumat hujan maka perkiraan cuaca hari Senin? Terlihat jelas bahwa perkiraan cuaca dapat diselesaikan dengan Discrete Time Markov Chain 1. dan 25% hujan Cuaca pada hari Minggu π (2) Cuaca pada hari Senin π (3) maka 42% peluang akan cerah. 42% akan berawan.mencerminkan secara akurat distribusi probabilitas sangat rumit yang diinginkan. Jika hari ini hujan maka besok akan berpeluang 15% cuaca cerah. Jika hari ini berawan maka besok akan berpeluang 40% cuaca cerah. X 2. 4. Pembahasan Soal 1. rasio tinggal di pedesaan perkotaan. Sebuah rantai Markov adalah suatu urutan dari variable-variabel acak X 1. maka Matrik transisi Cuaca pada hari Sabtu π (1) maka 15% peluang akan cerah. Dalam beberapa tahun terakhir ini telah merevolusionerkan kepraktisan Inferensi Bayesian metode. seperti ukuran borjuis komersial.…… sifat Kesimpulan yang dapat diambil pada penulisan makalah tentang Markov Chain adalah: Cuaca kota Bekasi dapat diperkirakan sebagai berikut . Proses selanjutnya hanya tergantung pada proses saat ini. konfigurasi faktor struktural. Kesimpulan 1. 5. Lingkaran melambangkan fase dan anak panah diberi angka peluang yang akan terjadi. 3. Proses stokastik adalah suatu kejadian tertentu dari suatu rangkaian eksperimen tergantung dari beberapa kemungkinan kejadian. dan 10% akan turun hujan. 45% berawan. 3. Sekali suatu keadaan mencapai tingkat tertentu perkembangan ekonomi. melalui proses yang disebut Markov Chain Monte Carlo (MCMC). dan 15% akan turun hujan. Stasioner dari waktu ke waktu Discrete Time Markov Chain terdapat 3 fase. dan sebelum hari Jumat kita anggap 0. Waktu diskrit dan populasi diskrit. yang memungkinkan berbagai distribusi posterior menjadi simulasi dan parameter yang ditemukan secara numerik. kita misalkan 1= cerah. di mana saat ini kondisi konfigurasi struktural hasil masa depan. dan 15% hujan Akan sangat bermanfaat menampilkan Discrete Time Markov Chain secara grafis. 60% akan berawan. akan menghasilkan probabilitas yang lebih tinggi trensisi dari otoriter aturan demokratis. 2. 2. 3= hujan. 30% berawan. mobilisasi. Contoh adalah umumnya berpendapat hubungan antara pembangunan ekonomi dan bangkitnya demokrasi. dari soal diatas model grafiknya 6. tingkat politik. Jika hari ini cerah maka besok akan berpeluang 60% cuaca cerah. 60% berawan. 2= berawan.6 Ilmu sosial Rantai Markov biasanya digunakan dalam menggambarkan argumen.

Transient State. dan Ergodic. Sebuah Contoh Statistik Investigasi Teks Eugene Onegin Mengenai Koneksi Sampel in Chains.teorema yang berlaku pada Markov Chain yaitu teorema mengenai Relasi Ekovalensi.com(Markov Chain) MatematikaCyberBoardSOS. terj. Stochastic Processes. Null Recurrent State. Communicate Stat. “Jenderal direduksikan rantai Markov dan non-operator negatif”. 1984.org www.1953. Mean Recurrent Time of State. New York: John Wiley and Sons E. Recurrent State. dengan kata lain nilai yang mungkin untuk membentuk Xi S disebut ruang keadaan rantai. Probability of First Return. Periodic State.ISBN 0-471-52369-0. Doob. teorema mengenai Irreducible. Teorema.Markov yaitu. Science in Context 19. Nummelin. 3. ISBN 0-521-60494-X Cambridge University Press www. David Link.wikipedia. 3. . “General irreducible Markov chains and non-negative operators”. Status-status Markov Chain adalah Reachable State. Probability of Ever Return. Irreduceable Chain. Cambridge University Press. mengingat keadaan masa depan dan masa lalu keadaan yang independen. 4. Daftar Pustaka Teks klasik in Translation: AA Markov. Positive Recurrent State.google.4 (2006): 591-600. Sains dalam Konteks JL. teorema mengenai Limiting Probability 4. David Link. 7. 2004.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->