P. 1
Analisis Regresi Dan Korelasi

Analisis Regresi Dan Korelasi

|Views: 673|Likes:
Published by Deliza Syaifhas

More info:

Published by: Deliza Syaifhas on Apr 23, 2012
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as DOC, PDF, TXT or read online from Scribd
See more
See less

09/27/2013

pdf

text

original

ANALISIS REGRESI DAN KORELASI (Materi VIII : Analisis Regresi dan Korelasi Sederhana

)
Pengertian : Analisis regresi merupakan salah satu analisis yang bertujuan untuk mengetahui pengaruh suatu variabel terhadap variabel lain. Dalam analisis regresi, variabel yang mempengaruhi disebut Independent Variable (variabel bebas) dan variabel yang dipengaruhi disebut Dependent Variable (variabel terikat). Jika dalam persamaan regresi hanya terdapat satu variabel bebas dan satu variabel terikat, maka disebut sebagai persamaan regresi sederhana, sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai persamaan regresi berganda. Analisis Korelasi merupakan suatu analisis untuk mengetahui tingkat keeratan hubungan antara dua variabel. Tingkat hubungan tersebut dapat dibagi menjadi tiga kriteria, yaitu mempunyai hubungan positif, mempunyai hubungan negatif dan tidak mempunyai hubungan. Analisis Regresi Sederhana : digunakan untuk mengetahui pengaruh dari variabel bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui seberapa jauh perubahan variabel bebas dalam mempengaruhi variabel terikat. Dalam analisis regresi sederhana, pengaruh satu variabel bebas terhadap variabel terikat dapat dibuat persamaan sebagai berikut : Y = a + b X. Keterangan : Y : Variabel terikat (Dependent Variable); X : Variabel bebas (Independent Variable); a : Konstanta; dan b : Koefisien Regresi. Untuk mencari persamaan garis regresi dapat digunakan berbagai pendekatan (rumus), sehingga nilai konstanta (a) dan nilai koefisien regresi (b) dapat dicari dengan metode sebagai berikut : a = [(ΣY . ΣX2) – (ΣX . ΣXY)] / [(N . ΣX2) – (ΣX)2] atau a = (ΣY/N) – b (ΣX/N) b = [N(ΣXY) – (ΣX . ΣY)] / [(N . ΣX2) – (ΣX)2] Contoh : Berdasarkan hasil pengambilan sampel secara acak tentang pengaruh lamanya belajar (X) terhadap nilai ujian (Y) adalah sebagai berikut : (nilai ujian) X (lama belajar) X2 XY 40 60 50 70 90 4 6 7 10 13 16 36 49 100 169 160 360 350 700 1.170

ΣY = 310 ΣX = 40 ΣX2 = 370 ΣXY = 2.740 Dengan menggunakan rumus di atas, nilai a dan b akan diperoleh sebagai berikut : a = [(ΣY . ΣX2) – (ΣX . ΣXY)] / [(N . ΣX2) – (ΣX)2] a = [(310 . 370) – (40 . 2.740)] / [(5 . 370) – 402] = 20,4 b b = [N(ΣXY) – = [(5 . 2.740) – (ΣX . (40 . ΣY)] 310] / / [(N [(5 . . ΣX2) – 370) – 402] (ΣX)2] = 5,4

Sehingga persamaan regresi sederhana adalah Y = 20,4 + 5,2 X Berdasarkan hasil penghitungan dan persamaan regresi sederhana tersebut di atas, maka dapat diketahui bahwa : 1) Lamanya belajar mempunyai pengaruh positif (koefisien regresi (b) = 5,2)

[(N . artinya jika tidak belajar atau lama belajar sama dengan nol. Untuk koefisien korelasi sama dengan – 1 atau + 1 berarti hubungan kedua variabel adalah sangat erat atau sangat sempurna dan hal ini sangat jarang terjadi dalam data riil. 186) – (28)2]} = 0. 2) Nilai konstanta adalah sebesar 20. yaitu regresi linear sederhana yaitu dengan satu buah variabel bebas dan satu buah variabel terikat.94 Nilai koefisien korelasi sebesar 0. ΣY2) – (ΣY)2]} r = [(5 . Variabel yang dipengaruhi sering disebut dengan variabel terikat atau variabel dependen. terutama penelitian . Sedangkan koefisien korelasi mendekati angka 0 (nol) berarti hubungan kedua variabel adalah lemah atau tidak erat. Tinggi rendahnya derajat keeratan tersebut dapat dilihat dari koefisien korelasinya. 166) – (25 . Analisis regresi linear merupakan metode statistik yang paling jamak dipergunakan dalam penelitian-penelitian sosial. artinya jika semakin lama dalam belajar maka akan semakin baik atau tinggi nilai ujiannya. Untuk mencari nilai koefisen korelasi (r) dapat digunakan rumus sebagai berikut : r = [(N . didapat data nilai Statistik dan Matematika sebagai berikut : Sampel X (statistik) Y (matematika) XY X2 Y2 1 2 3 4 5 2 5 3 7 8 3 4 4 8 9 6 20 12 56 72 4 25 9 49 64 9 16 16 64 81 Jumlah 25 28 166 151 186 r = [(N . ΣY)] / √{[(N . Variabel yang mempengaruhi sering disebut variabel bebas. yaitu jika mahasiswa mempunyai nilai statistiknya baik maka nilai matematikanya juga akan baik dan sebaliknya jika nilai statistik jelek maka nilai matematikanya juga jelek.94 atau 94 % menggambarkan bahwa antara nilai statistik dan matematika mempunyai hubungan positif dan hubungannya erat.4.4 dengan asumsi variabel-variabel lain yang dapat mempengaruhi dianggap tetap. dan regresi linear berganda dengan beberapa variabel bebas dan satu buah variabel terikat. ΣY2) – (ΣY)2]} Contoh : Sampel yang diambil secara acak dari 5 mahasiswa.terhadap nilai ujian. maka nilai ujian adalah sebesar 20. ΣX2) – (ΣX)2] . ΣY)] / √{[(N . Koefisien korelasi yang mendekati angka + 1 berarti terjadi hubungan positif yang erat. [(5 . Regresi Linear Regresi linear adalah alat statistik yang dipergunakan untuk mengetahui pengaruh antara satu atau beberapa variabel terhadap satu buah variabel. 28) / √{[(5 . bila mendekati angka – 1 berarti terjadi hubungan negatif yang erat. 151) – (25)2] . ΣXY) – (ΣX . ΣXY) – (ΣX . Dengan demikian nilai koefisien korelasi adalah – 1 ≤ r ≤ + 1. variabel independen atau variabel penjelas. Analisis Korelasi (r) : digunakan untuk mengukur tinggi redahnya derajat hubungan antar variabel yang diteliti. [(N . Secara umum regresi linear terdiri dari dua. ΣX2) – (ΣX)2] .

. .2 juta) harus hati-hati dan sesuai dengan rancangan penelitian. Interpretasi Output 1.05 untuk penelitian sosial.55 X. 3. Berarti interpretasinya: 1. Jika besarnya biaya promosi meningkat sebesar 1 juta rupiah. dan untuk penelitian bursa kadang-kadang digunakan toleransi sampai dengan 0. hanya variabel bebasnya lebih dari satu buah. Persamaan regresi Sebagai ilustrasi variabel bebas: Biaya promosi dan variabel terikat: Profitabilitas (dalam juta rupiah) dan hasil analisisnya Y = 1.21 (21%). + bn Xn.2 + 0. Regresi Linear Berganda Analisis regresi linear berganda sebenarnya sama dengan analisis regresi linear sederhana. klik variabel terikat lalu klik tanda panah pada kota dependent. Program komputer yang paling banyak digunakan adalah SPSS (Statistical Package For Service Solutions). Regresi Linear Sederhana Analisis regresi linear sederhana dipergunakan untuk mengetahui pengaruh antara satu buah variabel bebas terhadap satu buah variabel terikat.2 juta rupiah. Interpretasi terhadap nilai intercept (dalam contoh ini 1. Dengan Y adalah variabel bebas.10. Maka variabel tersebut akan masuk ke kotak sebagai variabel dependen. Koefisien a adalah konstanta (intercept) yang merupakan titik potong antara garis regresi dengan sumbu Y pada koordinat kartesius. Lakukan dengan cara yang sama untuk variabel bebas (independent). atau bisa juga dengan signifikansi di bawah 0. Persamaan umumnya adalah: Y = a + b X. Hasil output yang digunakan adalah standardized coefficients sehingga Y = 0. Persamaan umumnya adalah: Y = a + b1 X1 + b2 X2 + . Jika penelitian menggunakan angket dengan skala likert antara 1 sampai 5. Peningkatan kepuasan kerja dalam satu satuan unit akan diikuti dengan peningkatan kinerja sebesar 0. Jika biaya promosi bernilai nol. Interpretasi dengan skala likert tersebut sebaiknya menggunakan nilai standardized coefficient sehingga tidak ada konstanta karena nilainya telah distandarkan.21 X dan diinterpretasikan bahwa peningkatan kepuasan kerja akan diikuti dengan peningkatan kinerja atau penurunan kepuasan kerja juga akan diikuti dengan penurunan kinerja. a adalah konstanta (intersept) dan b adalah koefisien regresi pada masing-masing variabel bebas. Nilai t hitung dan signifikansi Nilai t hitung > t tabel berarti ada pengaruh yang signifikan antara variabel bebas terhadap variabel terikat. 2.. Dengan Y adalah variabel terikat dan X adalah variabel bebas. Koefisien determinasi Koefisien determinasi mencerminkan seberapa besar kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. 2.ekonomi. dan X adalah variabel-variabel bebas. maka interpretasi di atas tidak boleh dilakukan karena variabel X tidak mungkin bernilai nol. Lalu klik OK dan akan muncul output SPSS.55 juta rupiah. Pada jendela yang ada. Contoh: Pengaruh antara kepuasan (X) terhadap kinerja (Y) dengan skala likert antara 1 sampai dengan 5. Mempunyai nilai antara 0 – 1 di mana nilai yang mendekati 1 berarti semakin tinggi kemampuan variabel bebas dalam menjelaskan varians variabel terikatnya. maka profitabilitas akan bernilai 1.. Langkah penghitungan analisis regresi dengan menggunakan program SPSS adalah: Analyse --> regression --> linear. maka profitabilitas meningkat sebesar 0.

maka sebaiknya menggunakan uji dua arah.32 X2 + 0. kopi saja belum tentu menimbulkan kenikmatan. Asumsi klasik tersebut meliputi asumsi normalitas. Kapan menggunakan uji dua arah dan kapan menggunakan uji dua arah?Penentuan arah adalah berdasarkan masalah penelitian. Penentuan arah pada hipotesis berdasarkan tinjauan literatur. Jika menggunakan signifikansi. Penggunaan metode analisis regresi linear berganda memerlukan asumsi klasik yang secara statistik harus dipenuhi. Contoh hipotesis satu arah: Terdapat pengaruh positif antara kepuasan terhadap kinerja.12 X3 1. Untuk regresi tidak bisa dibalik.Interpretasi terhadap persamaan juga relatif sama. dengan asumsi variabel motivasi dan kompensasi tetap. Jika variabel motivasi meningkat dengan asumsi variabel kompensasi dan kepemimpinan tetap. Korelasi bisa berlaku bolak-balik. pengaruh antara motivasi (X1). karena uji F akan sama hasilnya dengan uji t.235) juga harus dilakukan secara hati-hati. Analisis regresi linear berganda memerlukan pengujian secara serempak dengan menggunakan F hitung. artinya A berpengaruh terhadap B. 2. Sebagai ilustrasi: seorang penjahat takut terhadap polisi yang membawa pistol (diasumsikan polisis dan pistol secara serempak membuat takut penjahat). tetapi secara parsial tidak. Akan tetapi secara parsial. maka kepuasan kerja juga akan meningkat 2. autokorelasi. sebagai ketiga variabel tersebut tidak mungkin bernilai nol karena Skala Likert terendah yang digunakan adalah 1. Untuk analisis regresi linear sederhana Uji F boleh dipergunakan atau tidak. sebagai ilustrasi. multikolinearitas. maka signifikansi hasil output dibagi dua terlebih dahulu. kompensasi dan kepemimpinan bernilai nol. Langkah-langkah yang lazim dipergunakan dalam analisis regresi linear berganda adalah 1) koefisien determinasi. maka kepuasan kerja juga akan meningkat. tetapi tidak boleh dikatakan B . Dalam beberapa kasus dapat terjadi bahwa secara simultan (serempak) beberapa variabel mempunyai pengaruh yang signifikan. tujuan penelitian dan perumusan hipotesis. kopi dan gula menimbulkan kenikmatan. Apa bedanya korelasi dengan regresi? Korelasi adalah hubungan dan regresi adalah pengaruh. Contoh hipotesis dua arah: Terdapat pengaruh antara kepuasan terhadap kinerja. Dalam uji regresi sederhana apakah perlu menginterpretasikan nilai F hitung?Uji F adalah uji kelayakan model (goodness of fit) yang harus dilakukan dalam analisis regresi linear. Nilai t tabel juga berbeda antara satu arah dan dua arah. 3. dengan asumsi variabel motivasi dan kepemimpinan tetap. 2) Uji F dan 3 ) uji t. Persamaan regresi sebaiknya dilakukan di akhir analisis karena interpretasi terhadap persamaan regresi akan lebih akurat jika telah diketahui signifikansinya. Pertanyaan-pertanyaan yang sering muncul 1. maka kepuasan kerja juga akan meningkat. baru dibandingkan dengan 5%. Contoh lain: air panas. tetapi secara parsial. pistol tidak membuat takut seorang penjahat. Jika hipotesis sudah menentukan arahnya. Interpretasi terhadap konstanta (0. Jika variabel kepemimpinan meningkat. Signifikansi ditentukan dengan membandingkan F hitung dengan F tabel atau melihat signifikansi pada output SPSS. Koefisien determinasi sebaiknya menggunakan adjusted R Square dan jika bernilai negatif maka uji F dan uji t tidak dapat dilakukan. Jika variabel kompensasi meningkat. tetapi jika hipotesis belum menentukan arah. kompensasi (X2) dan kepemimpinan (X3) terhadap kepuasan kerja (Y) menghasilkan persamaan sebagai berikut: Y = 0. Jika pengukuran variabel dengan menggunakan skala Likert antara 1 sampai dengan 5 maka tidak boleh diinterpretasikan bahwa jika variabel motivasi. 3. maka sebaiknya digunakan uji satu arah.235 + 0. heteroskedastisitas dan asumsi linearitas (akan dibahas belakangan).21 X1 + 0. sebagai contoh A berhubungan dengan B demikian juga B berhubungan dengan A.

modus dan median relatif dekat. Jika kelas tersebut bodoh semua maka tidak normal. tetapi tidak perlu diuji asumsi klasik. Kemudian dilakukan perbaikan pada uji tersebut. atau sekolah luar biasa. Setidaknya ada lima uji asumsi klasik. Sering terjadi kesalahan yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. uji normalitas. Uji normalitas dapat dilakukan dengan uji histogram. dilakukan analisis terhadap semua uji asumsi klasik. Tidak ada metode yang paling baik atau paling tepat. Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Uji Normalitas Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal atau tidak. Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Demikian juga nilai rata-rata. A berhubungan dengan B belum tentu A berpengaruh terhadap B. atau market adjusted model. Jadi uji normalitas bukan dilakukan pada masing-masing variabel tetapi pada nilai residualnya. tetapi dalam ilmu statistik sangat berbeda. . Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya bukan pada masing-masing variabel penelitian. meskipun tidak ada jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian dengan metode grafik. misalnya regresi logistik atau regresi ordinal. Uji Asumsi Klasik Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). uji autokorelasi dan uji linearitas. uji heteroskedastisitas. Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit dan sebagian besar berada pada kategori sedang atau rata-rata. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. yang tidak dapat dianalisis dengan analisis regresi tetapi menggunakan structural equation modelling). sehingga penggunaan uji normalitas dengan uji statistik bebas dari keragu-raguan. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear. Dan sebaliknya jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di tengah. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan perbedaan persepsi di antara beberapa pengamat. uji Chi Square. (Dalam analisis lanjut sebenarnya juga ada pengaruh yang bolak-balik yang disebut dengan recursive. Model regresi yang baik adalah memiliki nilai residual yang terdistribusi normal. 1. Analisis dapat dilakukan tergantung pada data yang ada. Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas. Sebagai contoh. Perhitungan nilai return yang diharapkan dilakukan dengan persamaan regresi. Dalam kehidupan sehari-hari kedua istilah itu (hubungan dan pengaruh) sering dipergunakan secara rancu. Misalnya nilai return saham yang dihitung dengan market model. misalnya uji multikolinearitas tidak dapat dipergunakan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional. dan setelah memenuhi persyaratan. dilakukan pengujian pada uji yang lain.berpengaruh terhadap A. Tetapi jika A berpengaruh terhadap B maka pasti A juga berhubungan dengan B. uji normal P Plot. yaitu uji multikolinearitas. lalu dilihat mana yang tidak memenuhi persyaratan.

motivasi dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja. 3. menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. mengumpul di tengah atau menyebar ke samping kanan dan kiri. yang hanya dapat dilakukan jika semua data bernilai positif. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi. maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu. Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya). 2. Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke dalam bentuk logaritma. Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF). Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh antara motivasi. apakah condong ke kiri. maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi data. 3. Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah sebagai berikut: 1. Sebagai ilustrasi. melakukan trimming data outliers atau menambah data observasi. korelasi pearson antara variabel-variabel bebas. kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah kinerja. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang sekali digunakan. atau dengan melihat eigenvalues dan condition index (CI). adalah model regresi dengan variabel bebasnya motivasi. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya. Transformasi dapat dilakukan ke dalam bentuk Logaritma natural. ke kanan. kepemimpinan dan kepuasan kerja terhadap kinerja. Atau dapat juga dilakukan dengan membagi semua variabel dengan variabel yang mengalami gangguan heteroskedastisitas. misalnya logaritma natural. atau bentuk yang lain tergantung dari bentuk kurva normalnya. Jadi tidak boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan.Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi Kolmogorov Smirnov sebesar 0. Uji Autokorelasi . Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik. Menambah jumlah observasi. akar kuadrat atau bentuk first difference delta. akar kuadrat. 4. Mentransformasikan data ke dalam bentuk lain. 4. Uji Heteroskedastisitas Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan ke pengamatan yang lain. Tetapi jika jauh dari nilai normal. Uji statistik yang dapat digunakan adalah uji Glejser. Uji Multikolinearitas Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang tinggi antara variabel-variabel bebas dalam suatu model regresi linear berganda. inverse. uji Park atau uji White. Model regresi yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain tetap atau disebut homoskedastisitas. seperti mengumpul di tengah.049) maka dapat dicoba dengan metode lain yang mungkin memberikan justifikasi normal. 2.

. Uji ini jarang digunakan pada berbagai penelitian. Data tingkat inflasi pada bulan tertentu. Contoh lain.Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu periode t dengan periode sebelumnya (t -1). katakanlah bulan Februari. Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi salah satu variabel bebas. uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat linear atau tidak. Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya memerlukan uji autokorelasi. Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam bentuk persamaan beda umum (generalized difference equation). akan dipengaruhi oleh tingkat inflasi bulan Januari. pengeluaran rutin dalam suatu rumah tangga. Ramsey Test atau uji Lagrange Multiplier. Uji linearitas digunakan untuk mengkonfirmasikan apakah sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang ada. sehingga data observasi menjadi berkurang 1. Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson. Berarti terdapat gangguan autokorelasi pada model tersebut. 5. Uji linearitas dapat menggunakan uji Durbin-Watson. Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau tidak. Uji Linearitas Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Ketika pada bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi. Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross section seperti pada kuesioner di mana pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan. maka tanpa ada pengaruh dari apapun. Sebagai contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar rupiah terhadap dollar. Secara sederhana adalah bahwa analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap variabel terikat. Hubungan antar variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan regresi linear. uji dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier. karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan variabel terikatnya adalah linear. pengeluaran pada bulan Februari akan rendah. jadi tidak boleh ada korelasi antara observasi dengan data observasi sebelumnya. misalnya masalah elastisitas.

Pada program SPSS dengan klik Save pada regreesion. Multiple Regression Analysis (MRA) Metode ini dilakukan dengan menambahkan variabel perkalian antara variabel bebas dengan variabel moderatingnya.Regresi Linear dengan Variabel Moderating Variabel moderating adalah variabel yang memperkuat atau memperlemah hubungan antara satu variabel dengan variabel lain. Residual Model ini menggunakan konsep lack of fit yaitu hipotesis moderating diterima terjadi jika terdapat ketidakcocokan dari deviasi hubungan linear antara variabel independen. maka rasa sayang tersebut bertambah. Artinya kepuasan kerja berpengaruh terhadap kinerja. Sebagai contoh: seorang suami menyayangi istrinya. Absolut residual Model ini mirip dengan MRA. Dalam hal ini. X2 kompensasi dan X1 X2 adalah perkalian antara kepuasan kerja dengan kompensasi. 3. lalu klik pada usntandardized residual. sehingga sebenarnya model ini tidak disarankan untuk dipergunakan. X1 adalah kepuasan kerja. dan model ini masih riskan terhadap gangguan multikolinearitas meskipun risiko itu lebih kecil dari pada dengan metode MRA. Penerimaan hipotesis juga sama. sehingga persamaan umumnya adalah sebagai berikut: Y = a + b1 X1 + b2 X2 + b3 X1 X2 dengan Y adalah kinerja. . dan adanya kompensasi yang tinggi maka pengaruh antara kepuasan kerja terhadap kinerja menjadi lebih meningkat. tidak tergantung apakah X1 dan X2 mempunyai pengaruh terhadap Y atau tidak. Dengan hadirnya seorang anak. sehingga menyalahi asumsi klasik. Langkahnya adalah dengan meregresikan antara kepuasan kerja terhadap kompensasi dan dihitung nilai residualnya. Berarti variabel anak merupakan moderating antara rasa saya suami terhadap istri. Hipotesis moderating diterima jika nilai t hitung adalah negatif dan signifikan. Metode analisis regresi linear dengan variabel moderating: 1. 2. Nilai residual kemudian diambil nilai absolutnya lalu diregresikan antara kinerja terhadap absolut residual. Model ini biasanya menyalahi asumsi multikolinearitas atau adanya korelasi yang tinggi antara variabel bebas dalam model regresi. Hipotesis moderating diterima jika variabel X1 X2 mempunyai pengaruh signifikan terhadap Y. tetapi variabel moderating didekati dengan selisih mutlak (absolut residual) antara variabel bebas dengan variabel moderatingnya. Contoh lain: kompensasi memperkuat pengaruh antara kepuasan kerja terhadap kinerja. kompensasi bisa saja berpengaruh terhadap kinerja bisa saja tidak. Model ini terbebas dari gangguan multikolinearitas karena hanya menggunakan satu variabel bebas. Hampir tidak ada model MRA yang terbebas dari masalah multikolinearitas.

Model regresi dengan variabel intervening merupakan hubungan bertingkat sehingga jika dengan analisis regresi harus menggunakan analisis jalur (path analysis) atau disarankan menggunakan metode structural equation modelling (SEM). Penulis sendiri belum pernah melihat tabulasi data yang memenuhi model moderating dengan metode MRA..Pertanyaan-pertanyaan yang sering muncul: 1. ..jadi panjang banget kan). 3. Hal ini banyak terjadi di mana (maaf) dosen tidak terlalu menguasai statistik secara baik. Ada model regresi moderating dengan MRA tetapi output memenuhi uji multikolinearitas? Hampir tidak ada model moderating dengan MRA yang terbebas dari gangguan multikolinearitas. Sebagai contoh: Gaya Evaluasi Atasan (GEA) mempunyai pengaruh terhadap Kinerja Manajerial (KM) melalui Tekanan Kerja (TK). Banyak output pada skripsi yang dimanipulasi agar tampaknya memenuhi asumsi multikolinearitas padahal sebenarnya tidak. GEA mempunyai pengaruh langsung terhadap KM tetapi juga bisa mempunyai pengaruh tidak langsung terhadap KM melalui TK. sehingga analisis dengan moderating hanya mengkonfirmasi saja teori tersebut apakah cocok dengan model empiris. Hipotesis diterima jika X1 X2 X3 signifikan. GEA diinterpretasikan mempunyai pengaruh tidak langsung terhadap KM melalui TK jika pengaruh GEA terhadap TK signifikan dan pengaruh TK terhadap KM juga signifikan. Bagaimana merancang model regresi dengan moderating pada penelitian? Model moderating ditentukan dengan tinjauan teoretis. tetapi hampir pasti model ini menyalahi asumsi multikolinearitas. Tidak boleh menggunakan alat statistik moderating untuk mengidentifikasikan bahwa variabel itu merupakan variabel moderating. Dalam suatu kasus bisa saja variabel mempunyai pengaruh langsung terhadap suatu variabel dan pengaruh tidak langsung terhadap variabel tersebut melalui variabel yang lain. Sebaiknya digunakan model residual dengan lack of fit. Regresi Linear dengan Variabel Intervening Variabel intervening adalah variabel antara atau variabel mediating. Bagaimana model regresi moderating dengan dua buah variabel bebas? Model dengan MRA menjadi Y = a + b1 X1 + b2 X2 + b3 X3 + b4 X1 X2 + b5 X1 X3 + b6 X2 X3 + bb X1 X2 X3 di mana X3 adalah variabel moderating (he he. Metode SEM akan dibahas belakangan dengan menggunakan Program AMOS atau LISREL Regresi dengan variabel intervening dipergunakan untuk melihat pengaruh tidak langsung antara satu variabel terhadap variabel yang lain. 2.

You're Reading a Free Preview

Download
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->