Uji asumsi klasik adalah persyaratan statistik yang harus
dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least
square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal.
Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis
regresi linear, misalnya uji multikolinearitas tidak dapat dipergunakan pada
analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan
pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return
saham yang dihitung dengan market model, atau market adjusted model.
Perhitungan nilai return yang diharapkan dilakukan dengan persamaan regresi,
tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji multikolinearitas, uji
heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak
ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi.
Analisis dapat dilakukan tergantung pada data yang ada. Sebagai contoh,
dilakukan analisis terhadap semua uji asumsi klasik, lalu dilihat mana yang
tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada uji tersebut, dan
setelah memenuhi persyaratan, dilakukan pengujian pada uji yang lain.
1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal
atau tidak. Model regresi yang baik adalah memiliki nilai residual yang
terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak
yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak
dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya
bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas.
Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit
dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas
tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya
jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau
merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai
ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di
tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode
yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan
metode grafik sering menimbulkan perbedaan persepsi di antara beberapa
pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik
lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya
signifikansi Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode
lain yang mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai
normal, maka dapat dilakukan beberapa langkah yaitu: melakukan transformasi
data, melakukan trimming data outliers atau menambah data observasi.
Transformasi dapat dilakukan ke dalam bentuk Logaritma natural, akar kuadrat,
inverse, atau bentuk yang lain tergantung dari bentuk kurva normalnya, apakah
condong ke kiri, ke kanan, mengumpul di tengah atau menyebar ke samping kanan
dan kiri.
2. Uji Multikolinearitas
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi
(keterkaitan) yang tinggi antara variabel-variabel bebas dalam suatu model
regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap variabel
terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi dengan
variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan variabel
terikatnya adalah kinerja. Logika sederhananya adalah bahwa model tersebut
untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan kerja
terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara motivasi
dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan
dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF), korelasi
pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan
condition index (CI).
Beberapa alternatif cara untuk mengatasi masalah multikolinearitas adalah
sebagai berikut:
1. Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural,
akar kuadrat atau bentuk first difference delta.
4. Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih
jarang sekali digunakan.
3. Uji Heteroskedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan
varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi
yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari
residual satu pengamatan ke pengamatan yang lain tetap atau disebut
homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya).
Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik,
seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar
kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji
Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas
adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat
dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan
membagi semua variabel dengan variabel yang mengalami gangguan
heteroskedastisitas.
4. Uji Autokorelasi
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu
periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa
analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data
observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi
bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada
bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat
inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model
tersebut. Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada
bulan Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi,
maka tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak
perlu dilakukan pada data cross section seperti pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan.
Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih
dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji
dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan
uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi
adalah dengan mentransformasikan data atau bisa juga dengan mengubah model
regresi ke dalam bentuk persamaan beda umum (generalized difference equation).
Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel
terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.
5. Uji Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian,
karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan
antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar
variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah
tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau
tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa
hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk
mengkonfirmasikan apakah sifat linear antara dua variabel yang
diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji
Lagrange Multiplier.
STATISTIKA
BISBIS ( REGRESI )
ANALISIS
REGRESI DAN KORELASI (Materi VIII : Analisis Regresi dan Korelasi Sederhana)
.fullpost{display:inline;}
Pengertian : Analisis regresi merupakan salah satu analisis yang bertujuan
untuk mengetahui pengaruh suatu variabel terhadap variabel lain. Dalam analisis
regresi, variabel yang mempengaruhi disebut Independent Variable (variabel
bebas) dan variabel yang dipengaruhi disebut Dependent Variable (variabel
terikat). Jika dalam persamaan regresi hanya terdapat satu variabel bebas dan
satu variabel terikat, maka disebut sebagai persamaan regresi sederhana,
sedangkan jika variabel bebasnya lebih dari satu, maka disebut sebagai
persamaan regresi berganda.
Analisis Korelasi
merupakan suatu analisis untuk mengetahui tingkat keeratan hubungan antara dua
variabel. Tingkat hubungan tersebut dapat dibagi menjadi tiga kriteria, yaitu
mempunyai hubungan positif, mempunyai hubungan negatif dan tidak mempunyai
hubungan.
Analisis Regresi Sederhana : digunakan untuk mengetahui pengaruh dari variabel
bebas terhadap variabel terikat atau dengan kata lain untuk mengetahui seberapa
jauh perubahan variabel bebas dalam mempengaruhi variabel terikat. Dalam
analisis regresi sederhana, pengaruh satu variabel bebas terhadap variabel
terikat dapat dibuat persamaan sebagai berikut : Y = a + b X. Keterangan : Y :
Variabel terikat (Dependent Variable); X : Variabel bebas (Independent
Variable); a : Konstanta; dan b : Koefisien Regresi. Untuk mencari persamaan
garis regresi dapat digunakan berbagai pendekatan (rumus), sehingga nilai
konstanta (a) dan nilai koefisien regresi (b) dapat dicari dengan metode
sebagai berikut :
a = [(ΣY . ΣX2) – (ΣX . ΣXY)] / [(N . ΣX2) – (ΣX)2] atau a = (ΣY/N) – b (ΣX/N)
b = [N(ΣXY) – (ΣX . ΣY)] / [(N . ΣX2) – (ΣX)2]
Contoh :
Berdasarkan hasil pengambilan sampel secara acak tentang pengaruh lamanya
belajar (X) terhadap nilai ujian (Y) adalah sebagai berikut :
(nilai ujian)
|
X (lama belajar)
|
X 2
|
XY
|
40
|
4
|
16
|
160
|
60
|
6
|
36
|
360
|
50
|
7
|
49
|
350
|
70
|
10
|
100
|
700
|
90
|
13
|
169
|
1.170
|
ΣY = 310
|
ΣX = 40
|
ΣX2 =
370
|
ΣXY = 2.740
|
Dengan menggunakan rumus
di atas, nilai a dan b akan diperoleh sebagai berikut :
a = [(ΣY . ΣX2) – (ΣX . ΣXY)] / [(N . ΣX2) – (ΣX)2]
a = [(310 . 370) – (40 . 2.740)] / [(5 . 370) – 402] = 20,4
b = [N(ΣXY) – (ΣX . ΣY)]
/ [(N . ΣX2) – (ΣX)2]
b = [(5 . 2.740) – (40 . 310] / [(5 . 370) – 402] = 5,4
Sehingga persamaan
regresi sederhana adalah Y = 20,4 + 5,2 X
Berdasarkan hasil penghitungan dan persamaan regresi sederhana tersebut di
atas, maka dapat diketahui bahwa : 1) Lamanya belajar mempunyai pengaruh
positif (koefisien regresi (b) = 5,2) terhadap nilai ujian, artinya jika
semakin lama dalam belajar maka akan semakin baik atau tinggi nilai ujiannya;
2) Nilai konstanta adalah sebesar 20,4, artinya jika tidak belajar atau lama
belajar sama dengan nol, maka nilai ujian adalah sebesar 20,4 dengan asumsi
variabel-variabel lain yang dapat mempengaruhi dianggap tetap.
Analisis Korelasi (r) : digunakan untuk mengukur tinggi redahnya derajat
hubungan antar variabel yang diteliti. Tinggi rendahnya derajat keeratan
tersebut dapat dilihat dari koefisien korelasinya. Koefisien korelasi yang
mendekati angka + 1 berarti terjadi hubungan positif yang erat, bila mendekati
angka – 1 berarti terjadi hubungan negatif yang erat. Sedangkan koefisien
korelasi mendekati angka 0 (nol) berarti hubungan kedua variabel adalah lemah
atau tidak erat. Dengan demikian nilai koefisien korelasi adalah – 1 ≤ r ≤ + 1.
Untuk koefisien korelasi sama dengan – 1 atau + 1 berarti hubungan kedua
variabel adalah sangat erat atau sangat sempurna dan hal ini sangat jarang
terjadi dalam data riil. Untuk mencari nilai koefisen korelasi (r) dapat
digunakan rumus sebagai berikut : r = [(N . ΣXY) – (ΣX . ΣY)] / √{[(N . ΣX2) –
(ΣX)2] . [(N . ΣY2) – (ΣY)2]}
Contoh :
Sampel yang diambil secara acak dari 5 mahasiswa, didapat data nilai Statistik
dan Matematika sebagai berikut :
Sampel
|
X (statistik)
|
Y (matematika)
|
XY
|
X2
|
Y2
|
1
|
2
|
3
|
6
|
4
|
9
|
2
|
5
|
4
|
20
|
25
|
16
|
3
|
3
|
4
|
12
|
9
|
16
|
4
|
7
|
8
|
56
|
49
|
64
|
5
|
8
|
9
|
72
|
64
|
81
|
Jumlah
|
25
|
28
|
166
|
151
|
186
|
r = [(N . ΣXY) – (ΣX .
ΣY)] / √{[(N . ΣX2) – (ΣX)2] . [(N . ΣY2) – (ΣY)2]}
r = [(5 . 166) – (25 . 28) / √{[(5 . 151) – (25)2] . [(5 . 186) – (28)2]} =
0,94
Nilai koefisien korelasi
sebesar 0,94 atau 94 % menggambarkan bahwa antara nilai statistik dan
matematika mempunyai hubungan positif dan hubungannya erat, yaitu jika
mahasiswa mempunyai nilai statistiknya baik maka nilai matematikanya juga akan
baik dan sebaliknya jika nilai statistik jelek maka nilai matematikanya juga
jelek.
ANALISIS
REGRESI DAN KORELASI (Materi IX : Analisis Regresi dan Korelasi Berganda)
.fullpost{display:inline;}
Dalam kondisi riil yang dihadapai di lapangan, perubahan suatu variabel tidak
hanya dipengaruhi oleh stu variabel saja tetati sering kali dipengaruhi oleh
banyak variabel. Misalnya, variabel yang mempengaruhi jumlah barang yang
diminta (Qdx) tidak hanya variabel harga saja (Px), tetapi masih banyak
variabel lain yang dapat mempengaruhinya, yaitu tingkat pendapatan (I), selera
(T), harga barang lain (Py) dan lain-lain. Dengan demikian fungsi permintaan
menjadi : Qdx = f (Px, I, T, Py, …). Untuk mengetahui pengaruh dari 2 atau
lebih variabel bebas terhadap suatu variabel terikat digunakan Analisis Regresi
Berganda, dengan persamaan regresi berganda: Y = a + b1 X1 + b2 X2 + … bn Xn.
Dalam beberapa literatur
yang membahas tentang analisis regresi berganda, penggunaan rumus untuk mencari
konstata dan koefisien regresi hanya sampai dengan jumlah dua variabel bebas,
sedangkan untuk lebih dari dua variabel bebas digunakan metode matrik. Terkait
dengan hal tersebut, analisis regresi berganda dalam hal ini hanya terbatas
sampai jumlah dua variabel bebas atau dengan persamaan regresi berganda Y = a +
b1 X1 + b2 X2. Dengan menggunakan Metode Least Square, untuk mencari parameter
a, b1 dan b2 adalah dengan rumus sebagai berikut :
a = (ΣY/N) – (b1 .
ΣX1/N) – (b2 . ΣX2/N)
b1 = [(Σx1y . Σx22) – (Σx2y . Σx1x2)] / [(Σ x12 . Σx22) – (Σx1x2)2]
b2 = [(Σx2y . Σx12) – (Σx1y . Σx1x2)] / [(Σ x12 . Σx22) – (Σx1x2)2]
Sedangkan untuk mencari
nilai Σx12 ; Σx22 ; Σx1x2 ; Σx1y ; dan Σx2y adalah sebagai berikut :
Σx12 = ΣX12 – ((ΣX1)2/N) ; Σx22 = ΣX22 – ((ΣX2)2/N) ; Σx1x2 = ΣX1X2 – ((ΣX1 .
ΣX2)/N)
Σx1y = ΣX1Y – ((ΣX1 . ΣY)/N) ; Σx2y = ΣX2Y – ((ΣX2 . ΣY)/N
Contoh : Hasil
pengumpulan data tentang import dari suatu negara (Y) yang dipengaruhi oleh
pendapatan nasional negara tersebut (X1) dan harga import komoditi (X2) adalah
sebagai berikut :
X1
|
100
|
104
|
106
|
111
|
111
|
115
|
130
|
134
|
136
|
X2
|
100
|
99
|
110
|
126
|
113
|
103
|
102
|
103
|
98
|
Y
|
100
|
106
|
107
|
120
|
110
|
116
|
123
|
133
|
137
|
Berdasarkan hasil
pengolahan data tersebut di atas, diketahui nilai dari :
ΣX1 = 1.017 ; ΣX2 = 954 ; ΣY = 1.052 ; ΣX12 = 115.571
ΣX22 = 101.772 ; ΣX1Y = 119.750 ; ΣX2Y = 111.433 ; ΣX1X2 = 119.750
Nilai masing-masing Σx12
; Σx22 ; Σx1x2 ; Σx1y ; dan Σx2y adalah :
Σx12 = 650 ; Σx22 = 648 ; Σx1y = 874 ; Σx2y = – 79 ; Σx1x2 = – 112
Dengan demikian nilai
b1, b2 dan a adalah sebagai berikut :
b1 = [(874 . 648) – (- 79 . - 112)] / [(650 . 648) – (-112)2] = 1,3642
b2 = [(-79 . 650) – (874 . - 112)] / [(650 . 648) – (-112)2] = 0,1139
a = 116,89 – 1,3642 (113) – 0,1139(106) = – 49,3383
Persamaan regresi
berganda adalah : Y = – 49,3383 + 1,3642 X1 + 0,1139 X2
Penjelasan persamaan regresi berganda adalah sebagai berikut : 1) Nilai
koefisien regresi (b1) sebesar 1,3642 menggambarkan pengaruh yang positif dari
variabel pendapatan nasional (X1) terhadap import komoditi (Y), yaitu jika
pendapatan nasional negara meningkat maka import komoditi juga akan meningkat
(dengan asumsi variabel X2 dalam keadaan konstan atau tetap); 2) Nilai
koefisien regresi (b2) sebesar 0,1139 menggambarkan pengaruh yang positif dari
variabel harga komoditi (X2) terhadap import komoditi (Y), (dengan asumsi
variabel X1 dalam keadaan konstan atau tetap); dan 3) Nilai konstanta sebesar –
49,3383 menggambarkan terjadinya penurunan import komoditi jika pendapatan
nasional (X1) dan harga komoditi (X2) mempunyai nilai nol.
Untuk mencari nilai
korelasi berganda atau R = √[((b1 . Σx1y) + (b2 . Σx2y))/ Σy2]
Nilai Σy2 = ΣY2 – ((ΣY)2/N) = 124.288 – (1.0522 / 9) = 1.320,89
Nilai R = √[((1,3642 . 874) + (0,1139 . - 79))/ 1.320,89] = 0,9464090 atau
94,6%.
Nilai R tersebut menunjukkan bahwa hubungan antara varibel pendapatan nasional
(X1) dan variabel harga komoditi (X2) mempunyai hubungan yang erat dan positif
(karena 94,6% lebih mendekati 100%) dengan variabel import komoditi (Y).
Uji statistik t menunjukkan seberapa jauh variabel
independen secara
individual menerangkan variasi. Pengujian ini dilakukan dengan menggunakan tingkat signifikansi 5%.
Jika nilai signifikansi t < 0,05 artinya terdapat pengaruh yangsignifikan
antara satu variabel independen terhadap variabel dependen. Jika
nilaisignifikansi t > 0,05 artinya tidak terdapat pengaruh antara satu
variabel independenterhadap variabel dependen
asumsi klasik dalam regresi
Asumsi
klasik dalam regresi:
Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual terdistribusi normal
atau tidak. Model regresi yang baik adalah memiliki nilai residual yang
terdistribusi normal. Jadi uji normalitas bukan dilakukan pada masing-masing
variabel tetapi pada nilai residualnya. Sering terjadi kesalahan yang jamak
yaitu bahwa uji normalitas dilakukan pada masing-masing variabel. Hal ini tidak
dilarang tetapi model regresi memerlukan normalitas pada nilai residualnya
bukan pada masing-masing variabel penelitian.
Pengertian normal secara sederhana dapat dianalogikan dengan sebuah kelas.
Dalam kelas siswa yang bodoh sekali dan pandai sekali jumlahnya hanya sedikit
dan sebagian besar berada pada kategori sedang atau rata-rata. Jika kelas
tersebut bodoh semua maka tidak normal, atau sekolah luar biasa. Dan sebaliknya
jika suatu kelas banyak yang pandai maka kelas tersebut tidak normal atau
merupakan kelas unggulan. Pengamatan data yang normal akan memberikan nilai
ekstrim rendah dan ekstrim tinggi yang sedikit dan kebanyakan mengumpul di
tengah. Demikian juga nilai rata-rata, modus dan median relatif dekat.
Uji normalitas dapat dilakukan dengan uji histogram, uji normal P Plot, uji Chi
Square, Skewness dan Kurtosis atau uji Kolmogorov Smirnov. Tidak ada metode
yang paling baik atau paling tepat. Tipsnya adalah bahwa pengujian dengan
metode grafik sering menimbulkan perbedaan persepsi di antara beberapa
pengamat, sehingga penggunaan uji normalitas dengan uji statistik bebas dari
keragu-raguan, meskipun tidak ada jaminan bahwa pengujian dengan uji statistik
lebih baik dari pada pengujian dengan metode grafik.
Jika residual tidak normal tetapi dekat dengan nilai kritis (misalnya signifikansi
Kolmogorov Smirnov sebesar 0,049) maka dapat dicoba dengan metode lain yang
mungkin memberikan justifikasi normal. Tetapi jika jauh dari nilai normal, maka
dapat dilakukan beberapa langkah yaitu: melakukan transformasi data, melakukan
trimming data outliers atau menambah data observasi. Transformasi dapat
dilakukan ke dalam bentuk Logaritma natural, akar kuadrat, inverse, atau bentuk
yang lain tergantung dari bentuk kurva normalnya, apakah condong ke kiri, ke
kanan, mengumpul di tengah atau menyebar ke samping kanan dan kiri.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Uji normalitas adalah uji yang dilakukan untuk mengecek apakah data penelitian
kita berasal dari populasi yang sebarannya normal. Uji ini perlu dilakukan karena
semua perhitungan statistik parametrik memiliki asumsi normalitas sebaran.
Rumus yang digunakan untuk melakukan suatu uji (t-test misalnya) dibuat dengan
mengasumsikan bahwa data yang akan dianalisis berasal dari populasi yang
sebarannya normal. Data yang normal memiliki kekhasan seperti mean, median dan
modusnya memiliki nilai yang sama. Selain itu juga data normal memiliki bentuk
kurva yang sama, bell curve. Dengan mengasumsikan bahwa data dalam bentuk
normal, analisis statistic baru bisa dilakukan.
Ada beberapa cara melakukan uji asumsi normalitas ini yaitu menggunakan
analisis Chi Square dan Kolmogorov-Smirnov.
(http://psikologistatistik.blogspot.com/2006/10/uji-asumsi-1-uji-normalitas.html)
Variabel pengganggu e dari suatu regresi disyaratkan berdistribusi normal. Hal
ini untuk memenuhi asumsi zero mean. Jika variabel e berdistribusi normal, maka
variabel yang diteliti Y juga berdistribusi normal. Untuk menguji normalitas e,
dapat digunakan formula Jarqu Berra (JB test). (http://www.damandiri.or.id/file/samsudiunmuhsolobab4.pdf)
Multikolinearitas
Multikolinearitas adalah kondisi terdapatnya hubungan linier atau
korelasi yang tinggi antara masing-masing variabel independen dalam model
regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang
digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah
multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan satu variable independen.
Indikasi
terdapat masalah multikolinearitas dapat kita lihat dari kasus-kasus sebagai
berikut:
Nilai R2 yang tinggi (signifikan), namun nilai standar error dan tingkat
signifikansi masing-masing variabel sangat rendah.
ii. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan
pada variabel yang diamati.
iii. Nilai koefisien variabel tidak sesuai dengan hipotesis, misalnya variabel
yang seharusnya memiliki pengaruh positif (nilai koefisien positif),
ditunjukkan dengan nilai negatif.
Memang belum ada kriteria yang jelas dalam mendeteksi masalah multikolinearitas
dalam model regresi linier. Selain itu hubungan korelasi yang tinggi belum
tentu berimplikasi terhadap masalah multikolinearitas. Tetapi kita dapat
melihat indikasi multikolinearitas dengan tolerance value (TOL), eigenvalue,
dan yang paling umum digunakan adalah varians inflation factor (VIF).
Hingga saat ini tidak ada kriteria formal untuk menentukan batas terendah dari
nilai toleransi atau VIF. Beberapa ahli berpendapat bahwa nilai toleransi
kurang dari 1 atau VIF lebih besar dari 10 menunjukkan multikolinearitas
signifikan, sementara itu para ahli lainnya menegaskan bahwa besarnya R2 model
dianggap mengindikasikan adanya multikolinearitas. Klein (1962) menunjukkan
bahwa, jika VIF lebih besar dari 1/(1 – R2) atau nilai toleransi kurang dari (1
– R2), maka multikolinearitas dapat dianggap signifikan secara statistik.
(http://ariyoso.wordpress.com/2009/11/27/multikolinearitas-dan-autokorelasi/)
Uji multikolinearitas adalah untuk melihat ada atau tidaknya korelasi yang
tinggi antara variabel-variabel bebas dalam suatu model regresi linear
berganda. Jika ada korelasi yang tinggi di antara variabel-variabel bebasnya,
maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi
terganggu. Sebagai ilustrasi, adalah model regresi dengan variabel bebasnya
motivasi, kepemimpinan dan kepuasan kerja dengan variabel terikatnya adalah
kinerja. Logika sederhananya adalah bahwa model tersebut untuk mencari pengaruh
antara motivasi, kepemimpinan dan kepuasan kerja terhadap kinerja. Jadi tidak
boleh ada korelasi yang tinggi antara motivasi dengan kepemimpinan, motivasi
dengan kepuasan kerja atau antara kepemimpinan dengan kepuasan kerja.
Alat statistik yang sering dipergunakan untuk menguji gangguan
multikolinearitas adalah dengan variance inflation factor (VIF), korelasi
pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues dan
condition index (CI).Beberapa alternatif cara untuk mengatasi masalah
multikolinearitas adalah sebagai berikut:
Mengganti atau mengeluarkan variabel yang mempunyai korelasi yang tinggi.
ii. Menambah jumlah observasi.
Mentransformasikan data ke dalam bentuk lain, misalnya logaritma natural, akar
kuadrat atau bentuk first difference delta.
Dalam tingkat lanjut dapat digunakan metode regresi bayessian yang masih jarang
sekali digunakan.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Pengujian multikolinearitas juga sering disebut uji independensi. Pengujian ini
akan melihat apakah antara sesama prediktor memiliki hubungan yang besar atau
tidak. Jika hubungan antara sesama prediktor kuat maka antara prediktor
tersebut tidak independen.
Untuk menguji ada tidaknya multikolinearitas, kita dapat menggunakan nilai
Toleransi atau VIF (Variance Inflation Factor), dengan rumus sebagai berikut,
VIF = 1/(〖1-r〗_12^2 )m Tolerance = 1/VIF = 〖(1-r〗_12^2)
Pengujian multikolinearitas diketahui dari nilai VIF setiap prediktor. Jika
nilai VIF prediktor tidak melebihi 10, maka dapat kita katakan bahwa data kita
terbebas dari persoalan multikolinearitas.
Ada beberapa prosedur yang dapat digunakan untuk mengatasi masalah
multikolinearitas, seperti pengunaan informasi apriori dari hubungan beberapa
variable yang berkolinear, menghubungkan data cross-sectional dan data time
series, mengeluarkan suatu variabel atau beberapa variabel bebas yang terlibat
hubungan kolinear, melakukan transformasi variable dengan prosedur first
difference, melalui ln(logaritma) dan penambahan data baru dan juga melalui
ridge regression. Akan tetapi pada prakteknya prosedur penanggulangan yang
telah disebutkan di atas sangat tergantung sekali pada kondisi penelitian,
misalnya penggunaan informasi apriori sangat tergantung dari ada atau tidaknya
dasar teori (literatur) yang sangat kuat untuk mendukung hubungan matematis
antara variabel bebas yang saling berkolinear, prosedur mengeluarkan variabel
bebas yang berkolinear seringkali membuat banyak peneliti keberatan karena
prosedur ini akan mengurangi obyek penelitian yang diangkat, sedangkan prosedur
lainnya seperti menghubungkan data cross sectional dan time series, prosedur
first difference dan penambahan data baru seringkali hanya memberikan efek
penanggulangan yang kecil pada masalah multikolinearitas.
Jika pada pengujian menunjukkan bahwa terdapat permasalahan multikolinearitas,
maka dilakukan penanggulangan untuk mengatasi masalah multikolinearitas
tersebut. Kita bisa menggunakan berbagai cara. Salah satunya menggunakan
prosedur Principal Component Analysis (PCA) untuk mengatasi multikolinearitas.
Prosedur PCA pada dasarnya bertujuan untuk menyederhanakan variabel yang
diamati dengan cara menyusutkan (mereduksi) dimensinya. Hal ini dilakukan
dengan cara menghilangkan korelasi diantara variabel bebas melalui transformasi
variabel bebas asal ke variabel baru yang tidak berkorelasi sama sekali.
(http://akademik.unsri.ac.id/download/journal/files/padresources/PCA%20(PRCPL%20COMP%20ANLS).pdf)
Heterokedastisitas
Uji heteroskedastisitas adalah untuk melihat apakah terdapat ketidaksamaan
varians dari residual satu ke pengamatan ke pengamatan yang lain. Model regresi
yang memenuhi persyaratan adalah di mana terdapat kesamaan varians dari
residual satu pengamatan ke pengamatan yang lain tetap atau disebut
homoskedastisitas.
Deteksi heteroskedastisitas dapat dilakukan dengan metode scatter plot dengan
memplotkan nilai ZPRED (nilai prediksi) dengan SRESID (nilai residualnya).
Model yang baik didapatkan jika tidak terdapat pola tertentu pada grafik,
seperti mengumpul di tengah, menyempit kemudian melebar atau sebaliknya melebar
kemudian menyempit. Uji statistik yang dapat digunakan adalah uji Glejser, uji
Park atau uji White.
Beberapa alternatif solusi jika model menyalahi asumsi heteroskedastisitas
adalah dengan mentransformasikan ke dalam bentuk logaritma, yang hanya dapat
dilakukan jika semua data bernilai positif. Atau dapat juga dilakukan dengan
membagi semua variabel dengan variabel yang mengalami gangguan
heteroskedastisitas.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Uji heteroskedastisitas bertujuan untuk menguji apakah dalam model regresi
terjadi ketidaksamaan varians dan residual satu pengamatan ke pengamatan yang
lain. jika varians dari residual satu pengamatan ke pengamatan yang lain tetap,
maka disebut homoskedastisitas dan jika berbeda disebut heteroskedastisitas.
Model regresi yang baik adalah yang homoskedastisitas atau tidak terjadi
heteroskedastisitas.
Uji heteroskedastisitas dilakukan dengan menggunakan uji Glejser, yang
dilakukan dengan meregresikan nilai absolut residual yang diperoleh dari model
regresi sebagai variabel dependen terhadap semua variabel independen dalam
model regresi. Apabila nilai koefisien regresi dari masing-masing variabel
bebas dalam model regresi ini tidak signifikan secara statistik, maka dapat
disimpulkan tidak terjadi heteroskedastisitas (Sumodiningrat. 2001 : 271).
(http://jurnal-sdm.blogspot.com/2009/04/uji-asumsi-klasik-regresi-berganda.html)
Autokorelasi
Uji autokorelasi digunakan untuk melihat apakah ada hubungan linear antara
error serangkaian observasi yang diurutkan menurut waktu (data time series).
Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data
time series (Gujarati, 1993).
Dimana,
d = nilai Durbin Watson
Σei = jumlah kuadrat sisa
Nilai Durbin Watson kemudian dibandingkan dengan nilai d-tabel. Hasil
perbandingan akan menghasilkan kesimpulan seperti kriteria sebagai berikut:
Jika d < dl, berarti terdapat autokorelasi positif
Jika d > (4 – dl), berarti terdapat autokorelasi negatif
Jika du < d < (4 – dl), berarti tidak terdapat autokorelasi
Jika dl < d < du atau (4 – du), berarti tidak dapat disimpulkan
(http://ariyoso.wordpress.com/2009/11/27/multikolinearitas-dan-autokorelasi/)
Uji autokorelasi adalah untuk melihat apakah terjadi korelasi antara suatu
periode t dengan periode sebelumnya (t -1). Secara sederhana adalah bahwa
analisis regresi adalah untuk melihat pengaruh antara variabel bebas terhadap
variabel terikat, jadi tidak boleh ada korelasi antara observasi dengan data
observasi sebelumnya. Sebagai contoh adalah pengaruh antara tingkat inflasi
bulanan terhadap nilai tukar rupiah terhadap dollar. Data tingkat inflasi pada
bulan tertentu, katakanlah bulan Februari, akan dipengaruhi oleh tingkat
inflasi bulan Januari. Berarti terdapat gangguan autokorelasi pada model tersebut.
Contoh lain, pengeluaran rutin dalam suatu rumah tangga. Ketika pada bulan
Januari suatu keluarga mengeluarkan belanja bulanan yang relatif tinggi, maka
tanpa ada pengaruh dari apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan pada data time series (runtut waktu) dan tidak
perlu dilakukan pada data cross section seperti pada kuesioner di mana
pengukuran semua variabel dilakukan secara serempak pada saat yang bersamaan.
Model regresi pada penelitian di Bursa Efek Indonesia di mana periodenya lebih
dari satu tahun biasanya memerlukan uji autokorelasi.
Beberapa uji statistik yang sering dipergunakan adalah uji Durbin-Watson, uji
dengan Run Test dan jika data observasi di atas 100 data sebaiknya menggunakan
uji Lagrange Multiplier. Beberapa cara untuk menanggulangi masalah autokorelasi
adalah dengan mentransformasikan data atau bisa juga dengan mengubah model
regresi ke dalam bentuk persamaan beda umum (generalized difference equation).
Selain itu juga dapat dilakukan dengan memasukkan variabel lag dari variabel
terikatnya menjadi salah satu variabel bebas, sehingga data observasi menjadi
berkurang 1.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)
Linearitas
Uji linearitas dipergunakan untuk melihat apakah model yang dibangun mempunyai
hubungan linear atau tidak. Uji ini jarang digunakan pada berbagai penelitian,
karena biasanya model dibentuk berdasarkan telaah teoretis bahwa hubungan
antara variabel bebas dengan variabel terikatnya adalah linear. Hubungan antar
variabel yang secara teori bukan merupakan hubungan linear sebenarnya sudah
tidak dapat dianalisis dengan regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua variabel yang belum diketahui apakah linear atau
tidak, uji linearitas tidak dapat digunakan untuk memberikan adjustment bahwa
hubungan tersebut bersifat linear atau tidak. Uji linearitas digunakan untuk
mengkonfirmasikan apakah sifat linear antara dua variabel yang
diidentifikasikan secara teori sesuai atau tidak dengan hasil observasi yang
ada. Uji linearitas dapat menggunakan uji Durbin-Watson, Ramsey Test atau uji
Lagrange Multiplier.
(http://konsultanstatistik.blogspot.com/2009/03/uji-asumsi-klasik.html)