Selasa, 11 Juli 2017

UJI ASUMSI KLASIK

BAB V


Dalam regresi linier sederhana maupun dalam regresi linier berganda,dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:Best, Linear, Unbiased,Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahamiarti Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukanestimasi atau peramalan dari sebaran data, menghasilkanerror yang terkecil. Perlu diketahui bahwa error itusendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yangdigunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengannilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss -Markov Theorem.
Penyimpangan masing- masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak AdaMultikolinearitas, dan Tidak ada Heteroskedastisitas.
  1. Uji Autokorelasi
Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga.
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
a)      Uji Durbin-Watson (DW Test).
Uji Durbin -Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic, yang dituliskan sebagai berikut:
b)      Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y     =     b0 + b1X1+ b2 X2 + b3 Yt-1+ b4 Yt-2  + e  
Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y
  1. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.Pengujian normalitas datadapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier,adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi.
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
Variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalamiperubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
  1. Uji Multikolinieritas
Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect”atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidakdapat ditentukan kepastian nilainya.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partialdengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflationfactor(VIF). Cara mendeteksi ada tidaknyamultikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s RhoCorrelation dapat dilakukan apabila data dengan skalaordinal.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). 
Asumsi asumsi yang ditetapkan :
a)      linear regression model
b)      nilai X
c)       variable pengganggu e memiliki rata-rata nilai 0
d)      Homoskedastisitas
e)      tidak ada otokorelasi antara variable e pada setiap nilai x dan
f)       variable x dan disturbance e tidak berkorelasi
g)      jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
h)      variable x harus memiliki variabilirtas
i)        model regresi secara benar telah terspesifiikasi
j)        tidak ada multikolinearitas antara variable penjelas

C.  Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
D. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
E.  Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
F.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
G. Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
H. Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
I.   Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
J.    Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series. 
K.     Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
L.   Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. 
M. mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama
N.     Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
O.     Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
P.      Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal. 
Q.     Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
R. Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
S. Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

T. Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.



Sumber : Supawi Pawenang, 2017,Ekonometrika, Uniba

Tidak ada komentar:

Posting Komentar