Statistika Matematika II 1 Analisis Regresi

ANALISIS REGRESI
A. PENDAHULUAN Istilah “regresi” pertama kali diperkenalkan oleh Sir Francis Galton pada tahun 1886. Galton menemukan bahwa ada kecenderungan bagi orang tua yang tinggi akan mempunyai anak yang tinggi dan sebaliknya. Meskipun demikian, ia mengamati bahwa tinggi anak bergerak menuju rata-rata tinggi anak secara keseluruhan. Dengan kata lain ketinggian anak yang amat tinggi atau orang tua yang amat pendek cenderung bergerak ke arah rata-rata tinggi populasi. Inilah yang disebut hokum Galton mengenai regresi universal. Secara umum analisis regresi adalah studi mengenai ketergantungan variabel dependen (respon) dengan satu atau lebih variabel independen (penjelas/ bebas). Dalam analisis regresi linier, jika jumlah variabel prediktor X satu maka disebut regresi linier sederhana, sedangkan jika lebih dari satu misalnya k peubah prediktor maka disebut regresi berganda. Pendugaan parameter regresi untuk model regresi berganda pada hakekatnya hanyalah perluasan konsep regresi sederhana (Sugiarto, 1992). Hasil analisis regresi adalah berupa koefisisen untuk masing-masing veriabel independen. Koefisien ini diperoleh dengan cara memprediksi nilai variabel respon dengan suatu persamaan.

B.

Pengujian Asumsi Klasik Regresi Sehubungan digunakannya alat-alat statistik dalam analisis data, agar analisis tersebut memperoleh hasil yang lebih akurat dan maka persyaratan atau asumsi yang melandasi penggunaan alat analisis harus dipenuhi. Di dalam persamaan model regresi linear berganda, dikenal beberapa asumsi yang mendasari persamaan model yang menyangkut; Linieritas, normalitas residual data (normality error term),

multikolinearitas, homoskedastisitas, dan autokorelasi, di mana perlu dilakukan pengujian dengan maksud untuk mengetahui apakah persamaan model regresi yang ditentukan tersebut merupakan model yang dapat menghasilkan estimasi yang tidak

Kalau asumsi ini dilanggar maka uji statistik menjadi tidak valid untuk jumlah sampel kecil. Normalitas Galat Model Uji normalitas galat bertujuan untuk menguji apakah dalam model regresi. Metode yang lebih handal adalah dengan melihat Normal Probability Plot yang membandingkan distribusi kumulatif dari distribusi normal. yaitu dengan analisis grafik dan uji statistik. Ada dua cara untuk mendeteksi apakah galat berdistribusi normal atau tidak. homoskedastisitas. uji K-S dilakukan dengan membuat hipotesis: H0 = galat berdistribusi normal H1 = galat tidak berdistribusi normal . 1. yaitu outlier–normalitas. Dalam hal ini. Oleh karena itu. Seperti diketahui bahwa uji t dan F mengasumsikan bahwa nilai galat mengikuti distribusi normal. Namun demikian. Distribusi normal akan membentuk satu garis lurus diagonal dan poting data residual / galat akan dibandingkan dengan garis diagonal. a. linieritas. b. dilengkapi dengan uji statistik. dianjurkan disamping uji grafik.Statistika Matematika II 2 Analisis Regresi bias. Analisis Grafik Salah satu cara termudah untuk melihat normalitas galat adalah dengan melihat grafik histogram yang membandingkan antara data observasi dengan distribusi yang mendekati distribusi normal. Analisis Statistik Uji normalitas dengan grafik dapat menyesatkan kalau tidak hati-hati secara visual kelihatan normal. Hair (1998) juga menyatakan bahwa terdapat tiga asumsi klasik dalam regresi linear yang harus diuji. pengujian dapat dilakukan dengan Uji Kolmogorov–Smirnov (K-S). maka garis yang menggambarkan data sesungguhnya akan mengikuti garis diagonalnya. dan autokorelasi meskipun dalam penjelasannya lebih lanjut beberapa asumsi dapat dianggap tidak kritis dalam analisis. variabel galat memiliki distribusi normal. Jika distribusi data galat normal. khususnya untuk jumlah sampel yang kecil. hanya dengan melihat histogram dapat menyesatkan. pdahal secara statistik bisa sebaliknya.

Seorang peneliti ingin mengetahui pengaruh dari pendapatan keluarga (X) terhhadap pengeluaran konsumsi (Y) dari 8 keluarga petani cuplikan yang ditarik secara acak dari sebuah desa. Data hasil penelitian atas ke-8 petani cuplikan tersebut tampat dibawah ini. Petani Cuplikan A B C D E F G H Jumlah Pengeluaran konsumsi (Y) 15 13 10 17 9 8 10 14 96 Pendapatan keluarga (X) 20 18 14 16 12 10 14 16 120 1. Normalitas Tentukan H0 dan H1 H0 = sampel berasal dari populasi yang menyebar normal H1 = sampel tidak berasal dari populasi yang menyebar normal - Hitung nilai mean - Hitung simpangan baku √ √ ( ) ( ) ( ) ( ) ( ) ( ) ( ) ( ) .Statistika Matematika II 3 Analisis Regresi Contoh: 1.

1602 ˂ CV=1.8235 -1.12891 - Membanding kan AD dan CV AD hit = 0.6217 0.1762 0.9721 -0.9506 -0.8235 -1.8238 0.1762 0.0594 0.6299+0.7361 -0.4722 -1.6217 0.31 0.1602-8 = 0.31 -0.3783 0.4753 -0.1938 -0.0694+1.1938 -0.56 F(Z) 0.2295)-8 = 8.31 0.6217 0.3783 0.03516 = 1.3071+0.09375+0.1762 0.4753 -0.6217 0.7059+1.3783 0.8238 0.31 0.0612 -5.0594 0.9442 -1.9406 F2i-ln(1F(n+1-i)) -2.647 -3.4753 -0.9506 -0.6217 0.93 1.9442 -0.0612 N+1-i 8 7 6 5 4 3 2 1 F(n+1-i) 0.56 -0.3783 0.1602 - ( ) = 1+0.9721 -0.7012+1.4753 -0.3876 -0.1224 F1i+F2i - AD hitung AD hit ={ ( ( ( ) ) ) ( ( ( ) )} ) ( ( ) ) = (0.3021+1.9721 -0.7361 -0.9406 F =ln F(Z) -2.93 -0.12891 maka keputusan terima H0 .9721 -0.8238 0.9406 0.6217 0.3783 0.3783 0.Statistika Matematika II 4 Analisis Regresi Diurutkan 10 12 14 14 16 16 18 20 Table AD i 1 2 3 4 5 6 7 8 Zi -1.2151+1.0594 1-F(n+1-i) 0.

Jika du < d < 4–du. Hipotesis yang melandasi pengujian adalah: H0 : Tidak terdapat autokorelasi antar sisaan H1 : Terdapat autokorelasi antar sisaan Statistik uji yang digunakan adalah: d  (e t 2 n t n  et 1 ) 2 2 t e t 1 ˆt di mana: et = penduga sisaan ke-t. 2003). 2. …. maka keputusannya adalah terima H0 yang berarti tidak terdapat autokorelasi 2. Jika tebaran sisaan terhadap urutan waktu tidak membentuk suatu pola tertentu atau bersifat acak maka dapat disimpulkan tidak ada autokorelasi antar sisaan (Draper dan Smith. Jika d < dl atau d > 4 – du. Uji Non-Autokorelasi Asumsi ini menghendaki bahwa tidak ada autokorelasi antara serangkaian pengamatan yang diurutkan menurut waktu. Adanya kebebasan antar sisaan dapat dideteksi secara grafis dengan melihat pola tebaran sisaan terhadap urutan waktu.Statistika Matematika II 5 Analisis Regresi - Kesimpulan Sampel berasal dari populasi yang menyebar normal. n Kaidah keputusan dalam Uji Durbin-Watson adalah: 1. 2. Jika dl ≤ d ≤ du atau 4 – du ≤ d ≤ 4 – dl . Pengujian secara empiris dilakukan dengan menggunakan statistik uji Durbin-Watson. maka tidak dapat diputuskan apakah H0 diterima atau ditolak sehingga tidak dapat disimpulkan ada tidaknya autokorelasi antar sisaan (Gujarati. et  yt  y et 1 = penduga sisaan ke-(t-1) t = 1. . 1992). maka keputusannya adalah tolak H0 yang berarti terdapat autokorelasi 3.

735 31.287 1175.287424 84.368 9. 5.598 30.505856 54.103 -12.287 34. 4.697 -4. 3.103 22.8787 22.184 6.184 -7. Masuk hasil perhitungan diatas masukan kedalam rumus Durbin-Watson Tabel Durbin-Watson No 1 2 3 4 5 6 7 8 Jumlah X 20 18 14 16 12 10 14 16 120 Y 15 13 10 17 9 8 10 14 96 Ypred -19.735 177. 7.092X1 Residu = Y.241856 398.Statistika Matematika II 6 Analisis Regresi  Uji Otokorelasi a) Uji Durbin Watson b) Uji Lagrange Multiplier c) Uji Breusch-Godfrey Langkah-Langkah Uji Durbin-Watson 1. Hitung nilai prediksinya.919 836.553-1.8802 28. 2.345856 152. Kurangkan nilai residual dengan Lag-kan satu nilai residualnya.287 -17.103 906.551424 38.3086 206.551 16.919 34.037696 30.616 5620.801 Ypred = 2.367 22.735 -14.137856 40.919 19.919 -110.735 28.551 16. Lag-kan satu nilai residualnya.919 19.367 267.1906 22.368 17.8802 31.367 -12.2416 16. 6.368 -3.616 e(residu) e2 et-1 e-(et-1) (e-(et-1))2 |residu| 34. Hitung nilai residualnya.919 1018. Kuadratkan nilai residualnya.735 516.368 6.367 22.551 -8. Regresikan variabel bebas (X) terhadap variabel tergantung (Y).Ypred .184 -12.919 -10.103 22.823 19.184 -5.735 -14.967424 10.287 30.735 516.735 31.551 382.

VIF didefinisikan sebagai VIF j  1 1  R2 j di mana: j p = 1.668 Tanpa kesimpulan Tanpa kesimpulan Tidak ada otokorelasi dL 0.237 4-dL =2.763 dU 1. p = banyaknya peubah penjelas R2 j = koefisien determinasi R2 j diperoleh dengan meregresikan peubah prediktor Xj dengan semua peubah prediktor lain. (1998) menyatakan bahwa permasalahan multikolinearitas ditunjukkan oleh nilai dari VIF (variance inflation factor).070815 o. 2..237 4-dL 2.763 =1.668 otokorelasi 3.n =1 dan n=8 =0.332 2 4-dU 3.332 4-dU =3. Nilai VIF akan semakin besar jika terdapat korelasi yang semakin besar diantara peubah .Statistika Matematika II 7 Analisis Regresi Rumus Durbin-Watson ( ( () )) Dk K dL dU =k. …. Multikolinearitas Hair et al.

Tabel uji multikolineasi No 1 2 3 4 5 6 7 8 Jumlah X 20 18 14 16 12 10 14 16 120 Y 15 13 10 17 9 8 10 14 96 XY 300 234 140 272 108 80 140 224 11520 X2 400 324 196 256 144 100 196 256 14400 Y2 225 169 100 289 81 64 100 196 9216 1. multikolinieritas memberikan pengaruh yang serius pada pendugaan metode kuadrat terkecil (Bowerman and O`Connel. Hitung nilai tolenrance (Tol) dengan rumus (1-r2). ( ) ) ( )( )( ) ) ) ( )( )( ) ) . Hitung nilai korelasi antar varibel bebas (r) Kuadratkan nilai korelasi antar variabel bebas (r2).Statistika Matematika II 8 Analisis Regresi prediktor. Jika nilai VIF lebih dari 10. ( √( ) ( ) )( )( ) ( ) ) ( √( ( √( √ 2. Hitung nilai VIF dengan rumus 1/TOL Jika VIF < 10. 3. 4. maka tidak terjadi multikolinier. 1990). Pengujian Manual VIF 1. 2. 5.

6561 = 0.Statistika Matematika II 9 Analisis Regresi 3. Karena VIF ˂10 maka tidak terjadi multikolinier 5. .3439 4. Tolerance = 1-0.

Sign up to vote on this title
UsefulNot useful