BAB V
Dalam
regresi linier sederhana maupun dalam regresi linier berganda,dalam kedua
regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di
uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi
tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu
asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi.
Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan,
maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil
regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh
akan bersifat BLUE, yang merupakan singkatan dari:Best, Linear,
Unbiased,Estimator.
Best dimaksudkan
sebagai terbaik. Untuk memahamiarti Best, perlu kembali kepada kesadaran
kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data
dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara
memahami pola hubungan antara dua seri data atau lebih. Hasil regresi
dikatakan Best apabila garis regresi yang dihasilkan guna
melakukanestimasi atau peramalan dari sebaran data, menghasilkanerror yang
terkecil. Perlu diketahui bahwa error itusendiri adalah perbedaan
antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis
regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased),
maka estimator regresi akan efisien.
Linear
mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model
artinya model yangdigunakan dalam analisis regresi telah sesuai dengan kaidah
model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan
linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan
fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau
tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan
dari estimator b sama dengannilai yang benar dari b. Artinya, nilai rata-rata b
= b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan
bias.
Estimator
yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai.
Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal
sebelumnya itu.
Asumsi-asumsi
seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang
dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal
dengan sebutan Gauss -Markov Theorem.
Penyimpangan
masing- masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai
contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas
(asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini
disebabkan oleh membesarnya standar error pada kasus multikolinearitas,
sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih
signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika
terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi,
penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak
menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak
signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk
memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi
dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi,
heteroskedastisitas, atupun multikolinearitas.
Secara
teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga
yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak
AdaMultikolinearitas, dan Tidak ada Heteroskedastisitas.
- Uji Autokorelasi
Pengertian
autokorelasi
Autokorelasi adalah keadaan
dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel
gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi
antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun
data kerat silang (cross section).
Asumsi terbebasnya autokorelasi
ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan.
Asumsi variance yang tidak konstan menunjukkan adanya pengaruh
perubahan nilai suatu observasi berdampak pada observasi lain. Sebagai
ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh
suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada
waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang
sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi
tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga.
Pengujian
Autokorelasi
Pengujian autokorelasi
dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang
timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh
analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya
autokorelasi, antara lain melalui:
a)
Uji
Durbin-Watson (DW Test).
Uji Durbin -Watson yang secara
populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh
ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk
mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic, yang
dituliskan sebagai berikut:
b)
Menggunakan
metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik
regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang
dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari
variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y = b0 + b1X1+ b2 X2 + b3 Yt-1+ b4 Yt-2 + e
- Uji Normalitas
Tujuan dilakukannya uji
normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki
distribusi normal atau tidak.Pengujian normalitas datadapat dilakukan sebelum
ataupun setelah tahapan analisis regresi.
Pengertian
Heteroskedastisitas
Sebagaimana telah ditunjukkan
dalam salah satu asumsi yang harus ditaati pada model regresi linier,adalah
residual harus homoskedastis, artinya, variance residual harus
memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih
sama. Karena jika variancenya tidak sama, model akan menghadapi masalah
heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi.
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap
kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau
deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya
variabel-variabel independen.
Variance residual yang sama,
menunjukkan bahwa standar error (Sb) masing-masing observasi tidak
mengalamiperubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini
tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai
perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil
regresi akan menjadi bias.
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya
heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik,
uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte
menggunakan Lagrange Multiplier
- Uji Multikolinieritas
Pengertian Multikolinearitas
Multikolinieritas adalah suatu
keadaan dimana terjadi korelasi linear yang ”perfect”atau eksak di antara
variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan
antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan
sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel
penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel
penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak
dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya
dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear
jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas
merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena
apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai
koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya
(Sb) cenderung bias, dalam arti tidakdapat ditentukan kepastian nilainya.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk
menguji multikolinearitas, di antaranya: menganalisis matrix korelasi
dengan Pearson Correlation atau dengan Spearman’s Rho Correlation,
melakukan regresi partialdengan teknik auxilary regression, atau dapat
pula dilakukan dengan mengamati nilai variance inflationfactor(VIF). Cara
mendeteksi ada tidaknyamultikolinieritas dengan menghitung nilai korelasi antar
variabel dengan menggunakan Spearman’s RhoCorrelation dapat dilakukan
apabila data dengan skalaordinal.
Secara teoretis model OLS akan
menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi
asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi
maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of
estimation (BLUE).
Uji asumsi klasik adalah
persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda
yang berbasis Ordinary Least Square (OLS).
Asumsi asumsi yang ditetapkan :
a)
linear
regression model
b)
nilai
X
c)
variable
pengganggu e memiliki rata-rata nilai 0
d)
Homoskedastisitas
e)
tidak
ada otokorelasi antara variable e pada setiap nilai x dan
f)
variable
x dan disturbance e tidak berkorelasi
g)
jumlah
observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang
diestimasi
h)
variable
x harus memiliki variabilirtas
i)
model
regresi secara benar telah terspesifiikasi
j)
tidak
ada multikolinearitas antara variable penjelas
C. Karena
penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap
regresi.
D. Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila
terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu
(time series) ataupun data kerat silang (cross section).
E. Autokoerlasi
timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti
baik itu data jenis waktu ataupun data karet silang.
F. Mendeteksi
autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara
otomatis mempengaruhi data berikutnya.
G. Konsekuensi
adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias
karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb
bias maka nilai t juga akan bias atau bersifat tidak pasti.
H. Heteroskedastisitas
merupakan salah satu faktor yang menyebabkan model regresi linier sederhana
tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan
maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
I. Heteroskedastistas
muncul karena adanya kesalahan atau residual dari model yang diamati tidak
memiliki varian yang konstan dari satu observasi ke observasi lain.
J. Mendeteksi
masalah Heteroskedastistas dari data cross section karena masalah tersebut
lebih sering muncul di cross section daripada time series.
K.
Konsekuensi
adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta
random sesuai dengan besarnya variable-variable independen.
L. Multikolinieritas
adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak
di antara variabel penjelas yang dimasukkan ke dalam model.
M. mutikolinearitas
timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole
penjelas hanya mempunyai sedikit sifat-sifat yang sama
N.
Mendeteksi
masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson
correlation atau dengan supermans tho correation, melakukan regresi partial
dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati
nilai variance inflation factor (VIF)
O.
Konsekuensi
adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing
variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti
tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai
t.
P.
Normalitas
untuk melihat apakah nilai residual terdistribusi normal atau tidak , model
regresi yang baik adalah memiliki nilai residual yan terdistribusi
normal.
Q.
Normalitas
timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
R. Mendeteksi
masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai
statistic yaitu antara nilai median dengan nilai mean, menggunakan formula
jarque bera dan mengamati sebaran data.
S. Konsekuensi
ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada
nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa
data Y atau e berdistribusi normal.
T. Cara
menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk
mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan
transformasi data.
Sumber :
Supawi Pawenang, 2017,Ekonometrika, Uniba
Tidak ada komentar:
Posting Komentar