Selasa, 11 Juli 2017

UJI ASUMSI KLASIK

BAB V


Dalam regresi linier sederhana maupun dalam regresi linier berganda,dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:Best, Linear, Unbiased,Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahamiarti Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukanestimasi atau peramalan dari sebaran data, menghasilkanerror yang terkecil. Perlu diketahui bahwa error itusendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yangdigunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengannilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss -Markov Theorem.
Penyimpangan masing- masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak AdaMultikolinearitas, dan Tidak ada Heteroskedastisitas.
  1. Uji Autokorelasi
Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga.
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
a)      Uji Durbin-Watson (DW Test).
Uji Durbin -Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic, yang dituliskan sebagai berikut:
b)      Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y     =     b0 + b1X1+ b2 X2 + b3 Yt-1+ b4 Yt-2  + e  
Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y
  1. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.Pengujian normalitas datadapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier,adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi.
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
Variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalamiperubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
  1. Uji Multikolinieritas
Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect”atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidakdapat ditentukan kepastian nilainya.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partialdengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflationfactor(VIF). Cara mendeteksi ada tidaknyamultikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s RhoCorrelation dapat dilakukan apabila data dengan skalaordinal.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). 
Asumsi asumsi yang ditetapkan :
a)      linear regression model
b)      nilai X
c)       variable pengganggu e memiliki rata-rata nilai 0
d)      Homoskedastisitas
e)      tidak ada otokorelasi antara variable e pada setiap nilai x dan
f)       variable x dan disturbance e tidak berkorelasi
g)      jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
h)      variable x harus memiliki variabilirtas
i)        model regresi secara benar telah terspesifiikasi
j)        tidak ada multikolinearitas antara variable penjelas

C.  Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
D. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
E.  Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
F.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
G. Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
H. Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
I.   Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
J.    Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series. 
K.     Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
L.   Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. 
M. mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama
N.     Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
O.     Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
P.      Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal. 
Q.     Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
R. Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
S. Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

T. Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.



Sumber : Supawi Pawenang, 2017,Ekonometrika, Uniba

REGRESI LINEAR BERGANDA

BAB IV


  1. Pengertian Regresi Linear Berganda
Regresi linier dengan 2 (dua) variabel (yaitu variabel Y dan X) atau biasa disebut dengan single linier regression. Pada bab ini jumlah variabel yang digunakan akan ditambah menjadi lebih banyak, yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan social semua faktor-vaktor atau variabel-variabel saling berkaitan satu dengan lainnya. Sebagai misal, munculnya inflasi tentu tidak hanya dipengaruhi oleh bunga deposito (budep) saja seperti yang telah diterangkan di atas, tetapi sangat mungkin dipengaruhi oleh faktor lain seperti perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain.
Berbagai alasan yang dijelaskan di atas, maka untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba menambah satu variabel penduga (X2) yaitu Kurs, yang menggambarkan nilai tukar IDR terhadap USD, pada kurun waktu yang sama dengan data sebelumnya yaitu antara Januari 2001 hingga Oktober 2002. Karena jumlah variabel X tidak lagi satu melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi linier berganda. Dengan bertambahnya variabel Kurs sebagai variabel penduga, maka data yang dianalisis pun bertambah hingga menjadi sebagai berikut:
Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa perubahan, meliputi:
1.      jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi penambahan.
2.      rumus penghitungan nilai b mengalami perubahan,
3.      jumlah degree of freedom dalam menentukan nilai t juga berubah.

  1. Model Regresi Linear Berganda
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model regresi linier umumnya dituliskan sebagai berikut:
Populasi:         Y = A + B1X1  + B2X2  + B3X3  + ………+ BnXn + e
Atau                Y = B0 +  B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel :          Y = a + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
Atau                Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e

Penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi. Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale. Apa ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi seperti berikut:
Populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e

Notasi model Yale ini mempunyai spesifikasi dalam menandai variabel terikat yang selalu dengan angka 1. Untuk variabel bebas notasinya dimulai dari angka 2, 3, 4, dan seterusnya.Notasi b1.23 berarti nilai perkiraan Y kalau X2 dan X3 masing-masing sama dengan 0 (nol).
Notasi b12.3 berarti besarnya pengaruh X2 terhadap Y jika X3 tetap.
Notasi b13..2 berarti besarnya pengaruh X3 terhadap Y jika X2 tetap.
Penulisan model dengan simbol Y untuk variabel dependen, dan X untuk variabel independen, saat ini mulai ada penyederhanaan lagi, yang intinya untuk semakin memudahkan interpretasi. Berdasar pada keinginan mempermudah dalam mengingat variabel yang akan dibahas, maka notasi model dapat pula ditulis sebagai berikut:
Inflasi            =       b0  +  b1Budep  +  b2  Kurs  +  e
                             ...............................      (Pers.f.2)
Penulisan dengan gaya seperti ini ternyata sekarang lebih disukai oleh penulis-penulis sekarang, karena memberikan kemudahan bagi para pembacanya untuk tidak mengingat-ingat arti dari simbol X yang dituliskan, tetapi cukup dengan melihat nama variabelnya. Dengan pertimbangan tersebut maka cara ini nanti juga akan banyak digunakan dalam pembahasan selanjutnya.

  1. Arti Notasi Model Uraian
Y’                    :    Variabel dependen (nilai yang diprediksikan)
X1 dan X2       :    Variabel independen
a                      :    Konstanta (nilai Y’ apabila X1, X2…..Xn = 0)
b                      :    Koefisien regresi (nilai peningkatan ataupun penurunan)


  1. Konstanta merupakan nilai tetap dengan variabel yang berubah dan biasanya  berupa bilangan.
  2. Koefisien regresi merupakan gambaran tingkat elastisitas variabel independen, disebut juga estimator statistik.
  3. Perbedaannya terdapat pada jumlah variabel X saja. Dalam regresi linear sederhana hanya satu X, sedangkan dalam regresi linear berganda variabel X lebih dari satu.
  4. Karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model juga mengalami  pertambahan danuntuk membedakan antara variabel bebas dengan variabel terikat berjalan satu arah, dimana setiap penurunan atau peningkatan variabel bebas akan diikuti dengan peningkatan atau penurunan variabel terikatnya.
  5. Pencarian nilai t mempunyai kesamaan dengan model regresi linier sederhana. Hanya saja pencarian Sb nya berbeda.
  6. Untuk mengetahui signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil dari t tabel maka variabel penjelas tersebut tidak signifikan
  7. Nilai F digunakan untuk mengetahui signifikan atau tidaknya variabel yaitu denganmemandingkan antara nilai F hitung dengan nilai F tabel.
  8. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
  9. Sama. Karena, koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk  prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).
  10. Variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y karena tingkat signifikansi variabel tidak hanya dilakukan secara individual saja tetapi  juga dilakukan pengujian seacara serentak guna menjelaskan apakah telah signifikan dalam menjelaskan variasi dari variabel yang dijelaskan.



Sumber : Supawi Pawenang, 2017,Ekonometrika, Uniba
supawi-pawenang.blogspot.com  
http://uniba.ac.id/home