P. 1
teori pengkodean

teori pengkodean

|Views: 319|Likes:
Published by KukuhArisSantoso

More info:

Published by: KukuhArisSantoso on Aug 26, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

10/01/2014

pdf

text

original

ANALISIS BEBERAPA TEKNIK CODING RAHMAD FAUZI, ST, MT JURUSAN TEKNIK ELEKTRO FAKULTAS TEKNIK UNIVERSITAS SUMATERA UTARA BAB

I PENDAHULUAN Sistem komunikasi dirancang untuk mentransmisikan informasi yang dibangkitkan oleh sumber ke beberapa tujuan. Sumber Informasi mempunyai beberapa bentuk yang berbeda. Sebagai contoh, dalam radio broadcasting, sumber biasanya sebuah sumber audio (suara atau musik). Dalam TV broadcasting, sumber informasi biasanya sebuah sumber video yang keluarannya berupa image bergerak. Output dari sumber-sumber ini adalah sinyal analog dan sumbernya disebut sumber analog. Kontras dengan Komputer dan tempat penyimpanan data (storage), seperti disk magnetic atau optical, menghasilkan output berupa sinyal diskrit (biasanya karakter binary atau ASCII) dan tentu sanya sumbernya disebut sumber diskrit. Baik sumber analog maupun diskrit, sebuah komunikasi digital dirancang untuk mentransmisikan informasi dalam bentuk digital. Sehingga konsekuensinya keluaran dari sumber harus diubah dahulu menjadi bentuk keluaran sumber digital yang biasanya dilakukan pada source encoder, yang keluarannya dapat diasumsikan sebuah digit biner sekuensial. Pada akhir 40-an dimana dimulainya tahun Teori Informasi, ide pengembangan metode coding yang efisien baru dimulai dan dikembangkan. Dimulainya penjelajahan Ide dari entropy, information content dan redundansi. Salah satu ide yang popular adalah apabila probabilitas dari simbol dalam suatu pesan diketahui, maka terdapat cara untuk mengkodekan simbol, sehingga pesan memakan tempat yang lebih kecil. Model pertama yang muncul untuk kompresi sinyal digital adalah ShannonFano Coding. Shannon dan Fano (1948) terus-menerus ,mengembangkan algoritma ini yang menghasilkan codeword biner untuk setiap simbol (unik) yang terdapat pada data file. Huffman coding [1952] memakai hampir semua karakteristik dari ShannonFano coding. Huffman coding dapat menghasilkan kompresi data yang efektif dengan mengurangkan jumlah redundansi dalam mengkoding simbol. Telah dapat dibuktikan, bahwa Huffman Coding merukan metode fixed-length yang paling efisien. Pada limabelas tahun terakhir, Huffman Coding telah digantikan oleh arithmetic coding. Arithmetic coding melewatkan ide untuk menggantikan sebuah simbol masukan dengan kode yang spesifik. Algoritma ini menggantikan sebuah aliran simbol masukan dengan sebuah angka keluaran single floating-point. Lebih banyak bit dibutuhkan dalam angka keluaran, maka semakin rumit pesan yang diterima. Algoritma Dictionary-based compression menggunakan metode yang sangat berbeda dalam mengkompres data. Algoritma ini menggantikan string variable-length dari simbol menjadi sebuah token. Token merupakan sebuah indek dalam susunan kata di kamus. Apabila token lebih kecil dari susunan kata, maka tken akan menggantikan prase tersebut dan kompresi terjadi. Masih banyak lagi metode dan algoritma kompresi, namun dalam makalah ini akan dibahas mengenai

© 2003 Digitized by USU digital library

1

Untuk sumber dengan probabilitas simbol yang sama. © 2003 Digitized by USU digital library 2 . Pengurangan dari rate transmisi dapat mengurangi biaya dari sambungan dan memberikan kemungkinan untuk pengguna berbagi dalam sambungan yang sama. Kita telah mengetahui bahwa entropy dari sebuah sumber informasi merupakan sebuah ukuran dari isi informasi pada sebuah sumber. Teori Source Encoding merupakan salah satu dari ketiga teorema dasar dari teori informasi yang diperkenalkan oleh Shannon (1948). dimana pi merupakan probabilitas pada simbol ke-I. Teori Source Encoding mencanangkan sebuah limit dasar dari sebuah ukuran dimana keluaran dari sebuah sumber informasi dapat dikompresi tanpa menyebabkan probabilitas error yang besar. Dalam makalah ini akan dibahas dan dianalisa source encoding berdasarkan model matematis dari sumber informasi dan pengukuran kuantitatif dari informasi yang dihasilkan oleh sumber. Source Coding menghasilkan data compresi dan mengurangi rate dari transmisi. dan H(X) maksimum ketika sumber mempunyai simbol probabilitas yang sama. Efisiensi dari sumber ditentukan oleh H(X)/H(X)max. Shannon-Fano dan Adaptif Huffman. Dalam kata lain. efisiensi dari sumber dapat dihasilkan dari source coding. dari pendapat teori source encoding bahwa entropy dari sebuah sumber sangat penting. BAB II DASAR TEORI Pandangan dasar dari source coding adalah menghilangkan redundansi dari sumber. Teori Shannon Noiseless Source Coding menyatakan bahwa nilai rata-rata dari simbol biner per keluaran sumber dapat digunakan untuk mendekati entropi dari sumber. Sehingga. maka dapat dipetakan (encode) setiap simbol dalam sebuah codeword dengan panjang n.metode kompresi dengan menggunakan Huffman. Secara umum kita dapat meng-kompres data tanpa menghilangkan informasi (lossless source coding) atau mengkompress data dengan adanya kehilangan informasi (loss source coding). dan/atau secara statistic tidak terikat satu dengan yang lain.

bahwa ide dari Huffman Coding adalam memilih panjang codeword dari yang paling besar probabilitasnya sampai dengan urutan codeword yang paling kecil probabilitasnya. Apabila setelah dibagi masih terdapat 2 keluaran. Huffman Code dapat mendekodekan secara unik dengan H(x) minimum. Cara seperti ini disebut sebagai fixed to variable-length coding. Ide dasar dari cara Huffman ini adalah memetakan mulai simbol yang paling banyak terdapat pada sebuah urutan sumber sampai dengan yang jarring muncul menjadi urutan biner. Menggabungkan 2 keluaran yang sama dekat kedalam satu keluaran yang probabilitasnya merupakan jumlah dari probabilitas sebelumnya. maka lanjut kelangkah berikutnya. kembali ke langkah 1. Apabila kita dapat memetakan setiap keluaran sumber dari probabiltas pi ke sebuah codewortd dengan panjang 1/pi dan pada saat yang bersamaan dapat memastikan bahwa dapat didekodekan secara unik. Dalam variable-length coding. Klasifikasi dari beberapa teknik kompresi 2. Ini berarti harus terdapat satu cara untuk memecahkan urutan biner yang diterima kedalam suatu codeword. 4. Seperti yang disebutkan diatas. panjang blok dari keluaran sumber dipetakan dalam blok biner berdasarkan pajang variable. 2.1 Algoritma Huffman Coding Dalam Huffman Coding. kita dapat mecari rata-rata panjang kode H(x). dan optimum pada keunikan dari kode-kode tersebut.Gambar 1. Pengurutan keluaran sumber dimulai dari probabilitas paling tinggi. Algoritma dari Huffman encoding adalah : 1. sinkronisasi merupakan suatu masalah. namun apabila masih terdapat lebih dari 2. 3. Memberikan nilai 0 dan 1 untuk kedua keluaran © 2003 Digitized by USU digital library 3 .

maka berikan tanda 0 dan 1 untuk codeword-nya.5. Urutkan probabilitas dari tinggi ke rendah Gabungkan 2 keluaran yang paling bawah Jumlah elemen = 2 Yes Berikan tanda 0 dan 1 No Apakah elemen gabungan dari 2 simbol Yes Tambahkan codeword dengan 0 dan 1 No Stop Gambar 2. Alur program Huffman code Contoh Apabila kita mempunyai kalimat: "EXAMPLE OF HUFFMAN CODE" Pertama. kita kalkulasi probabilitas dari setiap simbol : © 2003 Digitized by USU digital library 4 . ulangi sampai keluaran merupakan satu keluaran yang berdiri sendiri. Apabila sebuah keluaran merupakan hasil dari penggabungan 2 keluaran dari langkah sebelumnya.

Symbol E X A M P L O F H U C D I N G space Probability 2/25 1/25 2/25 2/25 1/25 1/25 2/25 2/25 1/25 1/25 1/25 1/25 1/25 2/25 1/25 3/25 Huffman Tree dari kalimat tersebut adalah : © 2003 Digitized by USU digital library 5 .

2. Contoh Apabila kita mempunyai kalimat: "EXAMPLE OF SHANNON FANO" Pertama. Cara efisien lainnya dalam variable-length coding adalah Shannon-Fano encoding. yang berarti beberapa simbol pada pesan (yang akan dikodekan) direpresentasikan dengan code word yang lebih pendek dari simbol yang ada di pesan.2 Algoritma Shannon-Fano Encoding Teknik coding Shannon Fano merupakan salah satu algoritma pertama yang tujuannya adalah membuat code word dengan redundansi minimum. Seperti yang disebutkan di atas. Shannon Fano coding menghasilkan codeword yang tidak sama panjang. • Membagi menjadi 2 bagian yang sama besar. yang ditemukan beberapa tahun kemudian. Ide dasar dari membuat code word dengan variable-code length. Prosedur dalam Shannon-Fano encoding adalah : • Menyusun probabilitas simbol dari sumber dari yang paling tinggi ke yang paling rendah. setiap pembagian dengan probabilitas yang sama sampai dengan tidak mungkin dibagi lagi • Encode setiap simbol asli dari sumber menjadi urutan biner yang dibangkitkan oleh setiap proses pembagian tersebut. • Ulangi langkah ke 2. Shannon Fano coding didasarkan pada variable length-word. seperti Huffman codes. Dalam memperkirakan panjang setiap codeword maka dapat ditentukan dari probabilitas setiap simbol yang direpresentasikan oleh codeword tersebut. Semakin tinggi probabilitasnya. maka code word semakin pendek. dan memberikan nilai 0 untuk bagian atas dan 1 untuk bagian bawah. kita kalkulasi probabilitas dari setiap simbol: Symbol E X A M P L O F S H N space Codewords 2/23 1/23 3/23 1/23 1/23 1/23 3/23 2/23 1/23 1/23 4/23 3/23 © 2003 Digitized by USU digital library 6 . sehingga kode tersebut bersifat unik dan dapat didekodekan.

Dalam pengertian. Gallager dan Knuth merupakan dasar dari UNIX utility compact. berganti sesuai dengan perkiraan optimalnya pada saat itu. karena metode ini optimal hanya [ada metode yang mengasumsikan mapping berdasarkan time-variant. Knuth memberikan kontribusi dengan peningkatan pada algoritmanya (Knuth 1985) dan menghasilkan algoritma yang dikenal dengan algoritma FGK. Tentu saja. Metode adaptive Faller. encoder mempelajari karakteristik dari sumber. Adaptive Huffman Code merespon lokalitas. Versi terbaru dari adaptive Huffman Coding diperkenalkan oleh Vitter (Vitter 1987). Keuntungan lain dari system ini adalah kebutuhan akan lewatnya data. Kode bersifat adaptive. metode one-pass tidak akan menarik apabila jumlah bit yang ditransmisikan lebih besar dari metoda twopass. performa dari metode ini. dapat lebih baik daripada static Huffman coding.3 Algoritma Adaptive Huffman Coding Adaptive Huffman coding pertama kali diperkenalkan oleh Faller dan Gallager (Faller 1973. Semua metode yang ditemukan merupakan skema define-word tabf menentukan mapping dari pesan sumber menjadi codeword didasari pada perkiraan probabilitas pesan sumber. Permasalahan ini tidak kontradiktif dengan optimalisasi pada metode statis. Gallaber 1978). dalam ruang lingkup jumlah bit yang ditransmisikan.Coding tree dari contoh tersebut adalah : 2. Kinerja compact ini termasuk bagus. Dalam hal ini. karen factor kompresinya mencapai 30-40% © 2003 Digitized by USU digital library 7 . data akan lewat hanya sekali (tanpa table statistic). Kinerja dari metode adaptive dapat lebih buruk daripada metode static. Dekoder harus mempelajari bersamaan dengan encoder dengan selalu memperbaharui Huffman tree sehingga selalu sinkron dengan encoder. Namun.

k dari kemungkinan n pesan sumber terdapat pada susunan pesan. 11 akan ditransmisikan untuk b selanjutnya. © 2003 Digitized by USU digital library 8 . Dalam algoritma FGK. didefinisikan oleh Gallager [Gallager 1978]: binary code tree mempunyai sibling apabila setiap node )kecuali root) mempunyai sebuah sibling dan apabila node-node tersebut dapat diurutkan dalam weight dengan setiap node berhubungan dengan siblingnya masing-masing. Daun dari setiap pohon Huffman code merepresentasikan pesan sumber dan berat dari setiap daun merepresentasikan hitungan frekuensi untuk setiap pesan. Gambar 3. Pada titik manapun dalam satuan waktu. (b) Setelah b ketiga. Algoritma FGK Pada Gambar 3. 101 akan ditransmisikan untuk tempat selanjutnya. pohon tidak berubah. baik pengirim dan penerima menangani perubahan dinamis dari Huffman code tree.Dasar dari algoritma FGK adalah adanya sibling (factor turunan) property. Algoritma FGK mengolah susunan EXAMPLE (a) Pohon setelah memproses "aa bb". Gallager membuktikan bahwa sebuah code prefik biner merupakan Huffman code jika dan hanya jika code tree mempunyai sibling property.

satu untuk a(t+1). penyimpanan perhitngan dari pesan yang muncul dilakukan. dan k < n. Node diberikan nomor untuk mengindikasikan posisi mereka dalam urutan sibling propertinya. Dalam kasus ini. Gambar tersebut adalah: © 2003 Digitized by USU digital library 9 . Analisa proses kompresi pada makalah ini hanya akan menjelaskan kompresi gambar. 1 yaitu k pesan dan 0-node. Apabila pesan ke (t+1) adalah salah satu dari k.1 Permasalahan yang Dianalisa Untuk melakukan simulasi program kompresi data di Matlab. kode untuk 0-node dikirimkan. Untuk setiap pesan yang ditransmisikan. Apabila terdapat pesan yang tidak digunakan. • Pengaruh nilai entropi terhadap gain kompresi. menaikkan counter dan menghitung kembali pohon. kami hanya menggunakan file gambar bitmap (bmp) dengan jenis yang berbeda satu sama lain. 0-node digunakan untuk menggambarkan pesan n-k yang tidak digunakan.100 akan ditransmisikan untuk c pertama. file notepad. the code tree consists of a single leaf node. Traversal ini harus meningkatkan perhitungan untuk node a(t+1) dan untuk setiap bagian atas dari node tersebut. • Kelebihan dari masing-masing metode kompresi yang digunakan dalam program simulasi. • Kekurangan dari masing-masing metode kompresi yang digunakan dalam program simulasi. penerima harus memberitahukan pesan n-k mana yang tidak digunakan yang muncul. kedua bagian harus menambahkan weight dan menghitung kembali code tree untuk mempertahankan simbling property. Pada setiap node. namun perubahan membutuhkan keterlibatan node pada path a(t+1) ke root-nya.txt dan sound. Pembaharuan dari pohon dapat dilakukan dalam sebuah single traversal dari node a(t+1) sampai dengan root-nya. Permasalahan yang akan dianalisa adalah: • Pengaruh banyaknya simbol terhadap gain kompresi. • Pengaruh banyaknya frekuensi tiap simbol terhadap gain kompresi.wav juga dapat dikompresi dengan program simulasi ini. maka algoritma mentrasmisikan code ke a(t+1). Namun pada dasarnya. Sekali lagi dalam proses ini. Pada titik dimana t pesan telah ditransmisikan. Analisa untuk jenis file suara dan teks pada intinya adalah sama. 0-node dipisah untuk membuat 2 pasang daun. pohon merupakan Huffman tree asli dengan daun sebanyak k+1. sebagai tambahan. Node boleh berubah untuk memelihara sibling property-nya. (c) Pohon setelah diperbaharui dengan c pertama. Pada titik dalam satuan waktu dimana t pesan telah ditransmisikan. dan siblingnya adalah 0-node yang baru. yang disebut 0node. Pada awalnya. BAB III ANALISA 4. k dari mereka berbeda. pohon diperhitungkan kembali.

bmp (12 kB) fish. Berikut adalah banyaknya graylevel dari masing-masing gambar: Nama File Putih.bmp Fish.bmp (4 kB) stone.bmp mempunyai kompleksitas paling tinggi. Banyaknya gray level menentukan banyaknya simbol yang harus dikodekan. sedangkan warna paling putih disimbolkan dengan 255.bmp Berikut adalah hasil dari kompresi: Banyaknya Gray Level 15 72 60 237 © 2003 Digitized by USU digital library 10 .bmp mempunyai kompleksitas paling rendah dan fish.bmp Gambar.bmp (6 kB) gambar. Kompleksitas gambar ditentukan oleh banyaknya gradasi warna (gray level) setiap gambar.bmp Stone. Gambar hitam-putih (grayscale) dikodekan oleh 8 bit. Putih.bmp (17 kB) Dari gambar diketahui bahwa kompleksitas masing-masing gambar berbeda. Artinya akan ada 28 level warna hitam. Warna paling hitam disimbolkan dengan 0.Putih.

4086 2. Begitu seterusnya sampai pada akhir penjumlahannya bernilai 1. Huffman membutuhkan waktu lebih lama dari Shannon-Fano.bmp frekuensi dari masingmasing simbol hampir sama (lihat lampiran). Hal ini dikarenakan frekuensi dari setiap simbol pada gambar.bmp yang paling kecil hasilnya.bmp Entropi 0. Ini dapat ditunjukan dari banyaknya simbol dengan frekuensi yang hampir merata di setiap simbolnya (lihat lampiran).3186 1. Ini berarti nilai informasi-nya sangat kecil. fish. Bagaimana cara komputer membaca dan membedakan deretan bit yang sudah dikodekan ? © 2003 Digitized by USU digital library 11 .bmp mempunyai nilai entropi yang tinggi (6.87332 Codelength (before) 42700 bits 25200 bits 70000 bits 70000 bits Codelength (after) 6318 bits 8816 bits 31977 bits 68770 bits Gain % 85. Ini disebabkan algoritma Huffman yang lebih panjang dan kompleks daripada algoritma Shannon-Fano.bmp Gambar. Sebelum dikodekan dengan kode Huffman. Kemudian hasilnya dibagi dua kelompok lagi.bmp.bmp Stone. terbukti bahwa hampir semua simbol pada putih. Dari segi lamanya proses pengkodean.bmp. Karena itulah gain kompresi yang didapat sangat tinggi (85.0833 54.2037 65. dikodekan dengan 6 bit.bmp.87332 Codelength (before) 42700 bits 25200 bits 70000 bits 70000 bits Codelength (after) 6318 bits 8799 bits 31914 bits 68599 bits Gain % 85. Itu berarti semua graylevel 255 dikodekan dengan 1 bit.40134 3. Pada stone.bmp Stone.bmp kurang merata dibandingkan stone.bmp memiliki simbol lebih banyak dari pada stone.bmp adalah 255 (gray level 255) yang jumlahnya 5940. Berbeda dengan putih.2%).bmp memiliki entropi paling kecil (0.15378 6. Sedangkan pada Shannon-Fano.2037 65.bmp Gambar. Begitu seterusnya hingga setiap kelompok tidak dapat lagi dibagi dua (hanya tersisa 1 simbol).bmp Fish. simbol-simbol harus diurutkan dari yang paling tinggi probabilitasnya hingga yang paling rendah.15378 6. Bila kita perhatikan.19693 2. Karena itulah fish.bmp Entropi 0.0159 54. Pada Huffman.40134 3.19693 2.Metode Huffman Nama file Putih. setiap simbol dikodekan dengan 8 bit.bmp Fish.19693).00143 Metode Shannon-Fano Nama file Putih. Jumlah simbol-simbol lain tidak terlalu besar (lihat lampiran). Simbol dengan probabilitas terbesar dikodekan hanya dengan 1 bit. Kemudian dua probabilitas terkecil dijumlahkan dan hasilnya diurutkan kembali dari yang paling besar hingga yang paling kecil.75714 Hasil pengkodean dari masing-masing file dapat dilihat di lembar lampiran. gambar. Namun setelah dikompresi justru gambar. Kemudian dari urutan simbol-simbol tersebut dibagi dua kelompok berdasarkan probabilitasnya. simbol-simbol hanya satu kali diurutkan dari yang probabilitasnya paling kecil hingga yang paling besar. Simbol-simbol dengan probabilitas kecil. Gambar putih.87).bmp hanya dapat dikompresi dengan gain 2 % (metode Huffman).

ternyata simbol a. kita masukan data dari user. komputer juga akan membandingkan dengan tabel kode yang juga dikirimkan bersama data.Kita ambil contoh masukan dari user berupa teks “maulana”. Apabila dalam pembacaan urutan bit lalu dibandingkan dengan tabelnya ada kecocokan. Selain membaca bit.txt kemudian dibaca oleh program dan akan dihasilkan : Simbol 97 108 109 110 117 Frekuensi 3 1 1 1 1 Ini artinya simbol a dinyatakan dengan kode ASCII 1011101 (biner dari 97) dan begitu juga simbol-simbol yang lain dibaca dengan kode ASCII.txt yang isinya berupa teks: maulana User. maka komputer akan langsung menerjemahkannya ke dalam simbol aslinya. hasilnya adalah: Simbol m a u l n Probabilitas 1 /7 3 /7 1 /7 1 /7 1 /7 Kode Huffman 100 0 101 110 111 Pada saat dikirimkan.2 Verifikasi Program Untuk verifikasi kebenaran algoritma program. dan seterusnya sampai semua kode berhasil diterjemahkan ke simbolnya masingmasing. Dengan metode Huffman maka jalannya proses pengkodean adalah sebagai berikut: © 2003 Digitized by USU digital library 12 . komputer akan membaca bit yang terdepan (paling kiri) hingga yang terbelakang (paling kanan). ternyata simbol m. urutan bitnya menjadi: 1 0 0 0 1 0 1 1 1 0 0 1 1 1 0 Dari urutan bit ini. Iterasi 3 Komputer membaca bit 1 0 0 Komputer mencari di tabel apakah simbol untuk kode 1 0 0. ternyata tidak ada. Contoh: Iterasi 1 Komputer membaca bit 1 Komputer mencari di tabel apakah simbol untuk kode 1. Iterasi 2 Komputer membaca bit 1 0 Komputer mencari di tabel apakah simbol untuk kode 1 0. Iterasi 4 Komputer membaca bit 0 Komputer mencari di tabel apakah simbol untuk kode 0. Inilah yang disebut unique prefix. File ini disimpan lalu dikodekan dengan Huffman Code. ternyata tidak ada. 4.

© 2003 Digitized by USU digital library 13 .5239 Simbol m mempunyai probabilitas 1/7 maka besarnya entropi = (-1/7 )2log 1/7 = 0.3/7 97 0 4/7 0 0 1/7 108 109 110 117 1 1 2/7 1 1/7 1 0 1/7 2/7 1 1/7 Hasil kode Huffman dari simbol-simbol di atas adalah: 97 108 109 110 117 0 100 101 110 111 Dengan demikian coding dengan program dan manual sama.4011 Simbol u mempunyai probabilitas 1/7 maka besarnya entropi = (-1/7 )2log 1/7 = 0.4011 Simbol n mempunyai probabilitas 1/7 maka besarnya entropi = (-1/7 )2log 1/7 = 0. Berikut adalah perhitungan entropi dari masing-masing simbol: Simbol a mempunyai probabilitas 3/7 maka besarnya entropi = (-3/7 )2log 3/7 = 0.4011 Simbol l mempunyai probabilitas 1/7 maka besarnya entropi = (-1/7 )2log 1/7 = 0.4011 Jumlah entropi total adalah 2.1281.

jalannya proses pengkodean adalah sebagai berikut: 3 97 108 109 110 1 0 0 0 1 1 0 1 1 1 1 1 117 97 108 109 110 117 0 100 101 110 111 Hasil kode Shannon-Fano dari simbol-simbol di atas adalah: Dengan demikian entropi dengan memakai program dan manual adalah sama. Metode yang kedua adalah Shannon-Fano. © 2003 Digitized by USU digital library 14 .Dengan demikian entropi dengan memakai program dan manual adalah sama.

ics. Dengan file yang sama. Internet. Huffman menghasilkan gain kompresi yang lebih baik dibandingkan Shannon-Fano. Internet.edu/~dan/pubs/ 4. 5. Inc. Urutan biner hasil koding tidak akan salah di-dekodekan karena setiap kode memiliki unique prefix.edu/~dan/pubs/Data Compression. DAFTAR PUSTAKA 1. Nilai entropi menentukan gain kompresi. Makin besar entropi.1979. 2. Haykin.1994 3. Sam.uci. Shanmugam.BAB IV KESIMPULAN 1. Shannon-Fano membutuhkan waktu proses kompresi yang lebih cepat dibandingkan Huffman. Banyaknya simbol dan frekuensi masing-masing simbol menentukan nilai entropi suatu data.. Dengan file yang sama. http://www.. 4. 6. 3.html © 2003 Digitized by USU digital library 15 . K. maka akan makin kecil gain yang diperoleh pada saat pengompresan suatu data. Hasil kompresi akan dikirimkan ke tujuan berikut dengan tabel kodenya untuk proses dekoding. http://ics. John Wiley & Sons. Simon. 2. John Wiley & Sons.” An Introduction to Analog & Digital Communications”.uci.” Digital and Analog Communications Systems”. Inc.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->