P. 1
BAB 1 Multikolinieritas

BAB 1 Multikolinieritas

|Views: 291|Likes:
Published by Arfita Mawon

More info:

Published by: Arfita Mawon on Jul 30, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOCX, PDF, TXT or read online from Scribd
See more
See less

09/13/2014

pdf

text

original

BAB 1.

PENDAHULUAN

1.1 Latar Belakang Analisis regresi adalah teknik analisis statistik untuk mengetahui pola hubungan antara variabel tak bebas dengan variabel bebas. Hubungan antara variabel-variabel dalam regresi linier dinyatakan dalam model tersebut juga disebut model regresi klasik. Analisis regresi linear berganda digunakan untuk menganalisis hubungan linear antara dua atau lebih variabel bebas secara bersama-sama dengan satu variabel terikat. Adanya korelasi antar variabel yang cukup tinggi menimbulkan multikolinearitas yang menyebabkan model persamaan regresi yang diperoleh kurang layak. Multikolinieritas adalah kondisi terdapatnya hubungan linier atau korelasi yang tinggi antara masing-masing variabel independent dalam model regresi. Multikolinieritas biasanya terjadi ketika sebagian besar variabel yang digunakan salang terkait dalam satu model regresi. Oleh karena itu, masalah multikolinieritas tidak terjadi pada regresi linier sederhana yang hanya melibatkan satu variabel independent. Salah satu ukuran untuk mendeteksi adanya multikolinearitas adalah dengan menguji koefisien korelasi (r) antar variabel prediktor. Jika koefisien korelasi diatas 0,85 maka diduga terdapat kasus multikolinearitas. Sebaliknya jika koefisien korelasi relatif rendah maka diduga tidak mengandung multikolinearitas. Deteksi ini diperlukan kehati-hatian. Masalah ini timbul terutama pada data time series dimana korelasi antar variabel prediktor tinggi. Untuk mengatasi masalah multikolinieritas tersebut, ada beberapa solusi. Salah satunya adalah dengan menerapkan analisis regresi bertatar (stepwise regression). . Model

2.3 Tujuan 1.2 Untuk mengetahui cara mengidentifikasi adanya multikolinieritas.4 Manfaat 1.4.3 Dapat mengetahui dampak dari adanya multikolinieritas. 1.3 Apakah dampak dari adanya multikolinieritas ? 1.3 Untuk mengetahui dampak dari adanya multikolinieritas.3. 1.4 Untuk mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression. 1.4.1 Apakah yang dimaksud dengan multikolinieritas ? 1.4 Dapat mengetahui cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression.4 Bagaimana cara mengatasi masalah multikolinieritas dengan menggunakan stepwise regression ? 1. .4. 1.3. 1.3.4. 1.1.2 Dapat mengetahui cara mengidentifikasi adanya multikolinieritas.2 Rumusan Masalah 1.2.2.1 Untuk mengetahui apa yang dimaksud dengan multikolinieritas.2 Bagaimana cara mengidentifikasi adanya multikolinieritas ? 1.2.3.1 Dapat mengetahui apa yang dimaksud dengan multikolinieritas. 1.

Diagnosis secara sederhana terhadap adanya multikolinieritas di dalam model regresi adalah sebagai berikut : 1.2011:84). TINJAUAN PUSTAKA Penyimpanan asumsi model klasik yang pertama adalah adanya multikolinieritas dalam model regresi yang dihasilkan. dan F RATIO. dan probabilitas menerima hipotesis yang salah (kesalahan ) juga akan semakin besar. 2. Akibatnya model regresi yang diperolaeh tidak valid untuk menafsir nilai variabel independen (Algifari. makan kemungkinan terdapat multikolinieritas dalam model tersebut. Konsekuensinya yang sangat penting bagi model regresi yang mengandung multikolinieritas adalah bahwa kesalahan standar estimasi yang cenderung meningkat dengan bertambahnya variabel independent. . Jika R2 tinggi. maka di dalam model regresi tersebut multikolinieritas. Jika antara dua variabel independent memiliki korelasi yang spesifik (misalnya. Menentukan koefisien korelasi antara variabel independent yang satu dengan variabel independent yang lain. koefisien korelasi yang tunggi antara variabel independent atau tanda koefisien korelasi variabel independent yang berbeda dengan tanda koefisien regresinya). antar variabel independent yang terdapat dalam model memiliki hubungan yang sempurna atau mendekati sempurna (koefisien korelasinya tinggi atau bahkan 1) (Algifari. tingkat signifikan yang digunakan untuk menolak hipotesis nol akan semakin besar. Melalui nilai thitung .BAB 2. Artinya. R2 . sedangakan sebagian besar atau bahkan seluruh koefisien regresi tidak signifikan ( nilai thitung sangat rendah).2011:84). nilai F RATIO tinggi.

ForwardSelection Procedure. (Ariyat. Regresi Bertatar merupakan salah satu metode pemilihan peubah dalam analisis regresi berganda yang bertujuan untuk mereduksi peubah penjelas demi memperoleh persamaan regresi terbaik. apakah peubah penjelas yang sudah masuk dalam model perlu dikeluarkan lagi atau tidak. maka dalam model terdapat multikolinieritas (Algifari. yaitu Backward Elimination Procedure. dan secara bertahap mengeluarkannya dari model berdasarkan pengaruhnya terhadap respon. Nilai ini menunjukkan seberapa besar kontribusi yang diberikan oleh masing masing peubah penjelas terhadap peubah respon. Sedangkan metode Forward Selection dan Stepwise Procedure menempuh arah yang berlawanan. Metode Backward Elimination diawali dengan menghitung persamaan regresi dengan menggunakan semua peubah penjelas. hingga diperoleh model regresi yang memuaskan. Membuat persamaan regresi antar variabel independent. Jika nilai-F parsial suatu peubah lebih kecil dari batas yang sudah ditetapkan. 2008) Perbedaannya adalah pada Stepwise Procedure dilakukan pemeriksaan ulang pada tiap langkahnya. . Kedua metode ini membangun model dengan memasukkan peubah penjelas satu per satu. Terdapat tiga prosedur pemilihan dalam metode ini.2011:84). Hal ini dilakukan dengan cara menghitung nilai-F parsial setiap peubah dalam model. (Draper & Smith 1992). dan Stepwise Procedure.AR. Jika koefisien regresinya signifikan.3. maka peubah tersebut dikeluarkan dari model.

Sebagai ilustrasi.BAB 3. misalnya dalam menduga faktor-faktor yang memengaruhi . PEMBAHASAN 1.1 Pengertian Multikolinieritas Multikolinearitas atau Kolinearitas Ganda (Bahasa Inggris: Multicollinearity) adalah adanya hubungan linear antara peubah bebas X dalam Model Regresi Ganda Jika hubungan linear antar peubah bebas X dalam Model Regresi Ganda adalah korelasi sempurna maka peubah-peubah tersebut berkolinearitas ganda sempurna (Bahasa Inggris : perfect multicollinearity).

b.8) antara satu pasang atau lebih variabel bebas dalam model.konsumsi per tahun dari suatu rumah tangga. .Seperti jika menggunakan Model ARIMA dalam peramalan. meskipun melibatkan data sampel dengan jumlah yang besar.Masalah multikolinearitas menjadi serius apabila digunakan unruk mengkaji hubungan antara peubah bebas (X) dengan peubah respon (Y) karena simpangan baku koefisiennya regresinya tidak siginifikan sehingga sulit memisahkan pengaruh dari masing-masing peubah bebas. dengan model regresi ganda sebagai berikut : Y=ß0+ß1X1+ß2X2+E dimana : X1 : pendapatan per tahun dari rumah tangga X2 : pendapatan per bulan dari rumah tangga Peubah X1 dan X2 berkolinearitas sempurna karena X1 = 12X2. Condition indek yang bernilai lebih dari 30 mengindentifikasikan adanya multikolineritas.2 Identifikasi Adanya Multikolinieritas a. dan yang paling umum digunakan adalah Varians Inflation Factor (VIF). Jika kedua peubah ini dimasukkan ke dalam model regresi. akan timbul masalah Kolinearitas Sempurna. Mencari nilai Condition Index (CI). Jika tujuan pemodelan hanya untuk peramalan nilai Y (peubah respon) dan tidak mengkaji hubungan atau pengaruh antara peubah bebas (X) dengan peubah respon (Y) maka masalah multikolinearitas bukan masalah yang serius. Dapat pula melihat indikasi multikolinearitas dengan Tolerance Value (TOL). nilai VIF > 10 mengindentifikasi adanya multikolinieritas. karena korelasi antara dua parameter selalu tinggi. Eigenvalue. yang tidak mungkin diperoleh pendugaan koefisien parameter regresinya. c. Terdapat korelasi yang tinggi (R > 0. 1.

misalnya variabel yang seharusnya memiliki pengaruh positif (nilai koefisien positif). Untuk meletakkan persoalan agar secara teknik. Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas. pengaruh lebih lanjutnya adalah bahwa koefisien regresi yang dihasilkan . Nilai koefisien variabel tidak sesuai dengan hipotesis. Di pihak lain. Uji t (t rasio) tidak signbifikan. 1. yang bisa disebut . tapi juga koefisien korelasi parsial. h. g.7-1) dan jika koefisien korelasi sederhana (korelasi derajat nol) juga tinggi. korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlau adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relaif rendah. Karena multikolinearitas timbul karena satu atau lebih variabel yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variabel yang menjelaskan lainnya. e. nilai t statistik menjadi lebih kecil sehingga variabel bebas tersebut menjadi tidak signifikan pengaruhnya. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan pada variabel yang diamati.d. Kolinearitas seringkali diduga jika R2 cukup tinggi (antara 0. f. tidak hanya melihat koefisien korelasi sederhana. i. ditunjukkan dengan nilai negatif. tetapi tak satu pun/ sedikit sekali koefisien regresi parsial yang signifikan secara individu. uji F menolak H0 yang mengatakan bahwa secara stimulan seluruh koefisien regresi parsialnya adalah nol.3 Dampak Multikolinieritas 1. Untuk mengetahui ada tidaknya kolinearitas ganda dalam model regresi linear berganda. satu cara untuk mengetahui variabel X yang mana berhubungan dengan variabel X lainnya adalah dengan meregresi tiap Xi atas sisa variabel X dan menghitung R2 yang cocok. tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam kasus spesifik.

5. Dalam kasus multikolinearitas yang tinggi. seseorang mungkin memperoleh R2 yang tinggi.tidak mencerminkan nilai yang sebenarnya dimana sebagian koefisien cenderung over estimate dan yang lain under estimate 2. penaksiran koefisien regresi adalah mungkin tetapi taksiran dan kesalahan standarnya menjadi sangat sensitif terhadap perubahan dalam data. 6. 1. Karena besarnya kesalahan standar. data sampel mungkin sesuai dengan sekelompok hipotesis yang berbeda-beda.4 Cara Mengatasi Masalah Multikolinieritas dengan Cara Stepwise Regression Metode eliminasi langkah mundur mulai dengan regresi terbesar dengan menggunakan semua peubah. Prosedur seleksi bertatar berusaha me4ncapai kesimpulan yang serupa namun dengan menempuh arah yang berlawanan. Selama multikolinearitas tidak sempurna. Jadi probabilitas untuk menerima hipotesis yang salah akan meningkat. Walaupun koefisien regresi dari variabel X dapat ditentukan (determinate). selang keyakinan untuk parameter populasi yang relevan cenderung untuk lebih besar. Prosedur ini lebih menghemat waktu-komputer dibandingkan metode – metode yang lainnya dan juga . Urutan penyisipannya ditentukan dengan menggunakan koefisian korelasi parsial sebagai ukuran pentingnya peubah yang masih diluar persamaan. yaitu menyusupkan peubah satu demi satu sampai diperoleh persamaan regresi yang memuaskan. 4. Jika multikolinearitas tinggi. tetapi tidak satu pun atau sangat sedikit koefisien yang ditaksir yang penting secara statistik. Prosedur ini merupakan salah satu prosedur terbaik untuk menyeleksi peubah. tetapi kesalahan standarnya akan cenderung semakin besar dengan meningkatnya tingkat korelasi antara peningkatan variabel bebas. dan secara bertahap mengurangi banyaknya peubah didalam persamaa sampai suatu keputusan dicapai untuk menggunakan persamaan yang diperoleh. 3.

.mencegah kita memasukkan lebih banyak peubah x dari pada yang diperlukan sambil memperbaiki persamaannya pada setiap tahap.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->