Selasa, 11 Juli 2017

UJI ASUMSI KLASIK

BAB V


Dalam regresi linier sederhana maupun dalam regresi linier berganda,dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi-asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari:Best, Linear, Unbiased,Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahamiarti Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukanestimasi atau peramalan dari sebaran data, menghasilkanerror yang terkecil. Perlu diketahui bahwa error itusendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yangdigunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengannilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss -Markov Theorem.
Penyimpangan masing- masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak AdaMultikolinearitas, dan Tidak ada Heteroskedastisitas.
  1. Uji Autokorelasi
Pengertian autokorelasi
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga.
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
a)      Uji Durbin-Watson (DW Test).
Uji Durbin -Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin-Watson d statistic, yang dituliskan sebagai berikut:
b)      Menggunakan metode LaGrange Multiplier (LM).
LM sendiri merupakan teknik regresi yang memasukkan variabel lag. Sehingga terdapat variabel tambahan yang dimasukkan dalam model. Variabel tambahan tersebut adalah data Lag dari variabel dependen. Dengan demikian model dalam LM menjadi sebagai berikut:
Y     =     b0 + b1X1+ b2 X2 + b3 Yt-1+ b4 Yt-2  + e  
Variabel Yt-1 merupakan variabel lag 1 dari Y. Variabel Yt-2 merupakan variabel lag 2 dari Y
  1. Uji Normalitas
Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.Pengujian normalitas datadapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Pengertian Heteroskedastisitas
Sebagaimana telah ditunjukkan dalam salah satu asumsi yang harus ditaati pada model regresi linier,adalah residual harus homoskedastis, artinya, variance residual harus memiliki variabel yang konstan, atau dengan kata lain, rentangan e kurang lebih sama. Karena jika variancenya tidak sama, model akan menghadapi masalah heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi.
Konsekuensi Heteroskedastisitas
Analisis regresi menganggap kesalahan (error) bersifat homoskedastis, yaitu asumsi bahwa residu atau deviasi dari garis yang paling tepat muncul serta random sesuai dengan besarnya variabel-variabel independen.
Variance residual yang sama, menunjukkan bahwa standar error (Sb) masing-masing observasi tidak mengalamiperubahan, sehingga Sb nya tidak bias. Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.
Pendeteksian Heteroskedastisitas
Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier
  1. Uji Multikolinieritas
Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect”atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya terhadap Y, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidakdapat ditentukan kepastian nilainya.
Pendeteksian Multikolinearitas
Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partialdengan teknik auxilary regression, atau dapat pula dilakukan dengan mengamati nilai variance inflationfactor(VIF). Cara mendeteksi ada tidaknyamultikolinieritas dengan menghitung nilai korelasi antar variabel dengan menggunakan Spearman’s RhoCorrelation dapat dilakukan apabila data dengan skalaordinal.
Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear,unbias, efficient of estimation (BLUE).
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). 
Asumsi asumsi yang ditetapkan :
a)      linear regression model
b)      nilai X
c)       variable pengganggu e memiliki rata-rata nilai 0
d)      Homoskedastisitas
e)      tidak ada otokorelasi antara variable e pada setiap nilai x dan
f)       variable x dan disturbance e tidak berkorelasi
g)      jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
h)      variable x harus memiliki variabilirtas
i)        model regresi secara benar telah terspesifiikasi
j)        tidak ada multikolinearitas antara variable penjelas

C.  Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
D. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).
E.  Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
F.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
G. Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
H. Heteroskedastisitas merupakan salah satu faktor yang menyebabkan model regresi linier sederhana tidak efisien dan akurat, juga mengakibatkan penggunaan metode kemungkinan maksimum dalam mengestimasi parameter (koefisien) regresi akan terganggu.
I.   Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
J.    Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series. 
K.     Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
L.   Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. 
M. mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama
N.     Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
O.     Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
P.      Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal. 
Q.     Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
R. Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
S. Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

T. Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.



Sumber : Supawi Pawenang, 2017,Ekonometrika, Uniba

REGRESI LINEAR BERGANDA

BAB IV


  1. Pengertian Regresi Linear Berganda
Regresi linier dengan 2 (dua) variabel (yaitu variabel Y dan X) atau biasa disebut dengan single linier regression. Pada bab ini jumlah variabel yang digunakan akan ditambah menjadi lebih banyak, yaitu satu variabel Y dan jumlah variabel X nya lebih dari 1 (satu) variabel. Artinya, variabel X bisa berjumlah 2, 3, atau lebih. Jumlah X yang lebih dari satu tersebut terkenal dengan istilah Regresi Linier Berganda atau multiple linier regression. Bertambahnya jumlah variabel X hingga lebih dari satu sangat memungkinkan, karena dalam keilmuan social semua faktor-vaktor atau variabel-variabel saling berkaitan satu dengan lainnya. Sebagai misal, munculnya inflasi tentu tidak hanya dipengaruhi oleh bunga deposito (budep) saja seperti yang telah diterangkan di atas, tetapi sangat mungkin dipengaruhi oleh faktor lain seperti perubahan nilai tukar (kurs), jumlah uang beredar, kelangkaan barang, dan lain-lain.
Berbagai alasan yang dijelaskan di atas, maka untuk semakin memperjelas perihal terjadinya inflasi, dapat dicoba menambah satu variabel penduga (X2) yaitu Kurs, yang menggambarkan nilai tukar IDR terhadap USD, pada kurun waktu yang sama dengan data sebelumnya yaitu antara Januari 2001 hingga Oktober 2002. Karena jumlah variabel X tidak lagi satu melainkan sudah dua, maka analisa yang akan digunakan adalah analisa regresi linier berganda. Dengan bertambahnya variabel Kurs sebagai variabel penduga, maka data yang dianalisis pun bertambah hingga menjadi sebagai berikut:
Perubahan model dari bentuk single ke dalam bentuk multiple mengalami beberapa perubahan, meliputi:
1.      jumlah variabel penjelasnya bertambah, sehingga spesifikasi model dan data terjadi penambahan.
2.      rumus penghitungan nilai b mengalami perubahan,
3.      jumlah degree of freedom dalam menentukan nilai t juga berubah.

  1. Model Regresi Linear Berganda
Penulisan model regresi linier berganda merupakan pengembangan dari model regresi linier tunggal. Perbedaannya hanya terdapat pada jumlah variabel X saja. Dalam regresi linier tunggal hanya satu X, tetapi dalam regresi linier berganda variabel X lebih dari satu. Model regresi linier umumnya dituliskan sebagai berikut:
Populasi:         Y = A + B1X1  + B2X2  + B3X3  + ………+ BnXn + e
Atau                Y = B0 +  B1X1 + B2X2 + B3X3 + ………+ BnXn + e
Sampel :          Y = a + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e
Atau                Y = b0 + b1X1 + b 2X2 + b 3X3 + ………+ bnXn + e

Penulisan model sangat beragam. Hal ini dapat dimengerti karena penulisan model sendiri hanya bertujuan sebagai teknik anotasi untuk memudahkan interpretasi. Penulisan cara di atas adalah bentuk model yang sering dijumpai dalam beberapa literatur. Notasi model seperti itu tentu berbeda dengan notasi model Yale. Apa ingin menganalisis pengaruh Budep dan Kurs terhadap Inflasi dengan mengacu model Yale, maka notasi model menjadi seperti berikut:
Populasi: Y = B1.23 + B12.3X2i + B13.2X3i + e
Sampel : Y = b1.23 + b12.3X2i + b13.2X3i + e

Notasi model Yale ini mempunyai spesifikasi dalam menandai variabel terikat yang selalu dengan angka 1. Untuk variabel bebas notasinya dimulai dari angka 2, 3, 4, dan seterusnya.Notasi b1.23 berarti nilai perkiraan Y kalau X2 dan X3 masing-masing sama dengan 0 (nol).
Notasi b12.3 berarti besarnya pengaruh X2 terhadap Y jika X3 tetap.
Notasi b13..2 berarti besarnya pengaruh X3 terhadap Y jika X2 tetap.
Penulisan model dengan simbol Y untuk variabel dependen, dan X untuk variabel independen, saat ini mulai ada penyederhanaan lagi, yang intinya untuk semakin memudahkan interpretasi. Berdasar pada keinginan mempermudah dalam mengingat variabel yang akan dibahas, maka notasi model dapat pula ditulis sebagai berikut:
Inflasi            =       b0  +  b1Budep  +  b2  Kurs  +  e
                             ...............................      (Pers.f.2)
Penulisan dengan gaya seperti ini ternyata sekarang lebih disukai oleh penulis-penulis sekarang, karena memberikan kemudahan bagi para pembacanya untuk tidak mengingat-ingat arti dari simbol X yang dituliskan, tetapi cukup dengan melihat nama variabelnya. Dengan pertimbangan tersebut maka cara ini nanti juga akan banyak digunakan dalam pembahasan selanjutnya.

  1. Arti Notasi Model Uraian
Y’                    :    Variabel dependen (nilai yang diprediksikan)
X1 dan X2       :    Variabel independen
a                      :    Konstanta (nilai Y’ apabila X1, X2…..Xn = 0)
b                      :    Koefisien regresi (nilai peningkatan ataupun penurunan)


  1. Konstanta merupakan nilai tetap dengan variabel yang berubah dan biasanya  berupa bilangan.
  2. Koefisien regresi merupakan gambaran tingkat elastisitas variabel independen, disebut juga estimator statistik.
  3. Perbedaannya terdapat pada jumlah variabel X saja. Dalam regresi linear sederhana hanya satu X, sedangkan dalam regresi linear berganda variabel X lebih dari satu.
  4. Karena jumlah variabel penjelasnya bertambah. Semakin banyaknya variabel X ini maka kemungkinan-kemungkinan yang menjelaskan model juga mengalami  pertambahan danuntuk membedakan antara variabel bebas dengan variabel terikat berjalan satu arah, dimana setiap penurunan atau peningkatan variabel bebas akan diikuti dengan peningkatan atau penurunan variabel terikatnya.
  5. Pencarian nilai t mempunyai kesamaan dengan model regresi linier sederhana. Hanya saja pencarian Sb nya berbeda.
  6. Untuk mengetahui signifikan atau tidak nilai t hitung tersebut, maka perlu membandingkan dengan nilai t tabel. Apabila nilai t hitung lebih besar dibandingkan dengan nilai t tabel, maka variabel penjelas tersebut signifikan. Sebaliknya, jika nilai t hitung lebih kecil dari t tabel maka variabel penjelas tersebut tidak signifikan
  7. Nilai F digunakan untuk mengetahui signifikan atau tidaknya variabel yaitu denganmemandingkan antara nilai F hitung dengan nilai F tabel.
  8. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.
  9. Sama. Karena, koefisien determinasi pada dasarnya digunakan untuk mengukur goodness of fit dari persamaan regresi melalui hasil pengukuran dalam bentuk  prosentase yang menjelaskan determinasi variabel penjelas (X) terhadap variabel yang dijelaskan (Y).
  10. Variabel penjelas dapat dianggap sebagai prediktor terbaik dalam menjelaskan Y karena tingkat signifikansi variabel tidak hanya dilakukan secara individual saja tetapi  juga dilakukan pengujian seacara serentak guna menjelaskan apakah telah signifikan dalam menjelaskan variasi dari variabel yang dijelaskan.



Sumber : Supawi Pawenang, 2017,Ekonometrika, Uniba
supawi-pawenang.blogspot.com  
http://uniba.ac.id/home

Senin, 24 April 2017

MODEL REGRESI DENGAN DUA VARIABEL



BAB III
MODEL REGRESI DENGAN DUA VARIABEL
Bentuk model
Model regresi dengan dua variabel10 umumnya dituliskan  dengan  simbol  berbeda  berdasarkan  sumber data yang digunakan, meskipun tetap dituliskan dalam persamaan fungsi regresi. Simbol konstanta dan koefisien regresi dalam huruf besar, sebagai berikut:
Y = A + BX + e                         

simbol   konstanta   dan   koefien regresi dengan huruf kecil, seperti contoh sebagai berikut:

Y = a + bX + e                           
Dimana:
A atau a; merupakan konstanta atau intercept
B atau b; merupakan koefisien regresi yang juga menggambarkan tingkat elastisitas variable independen
Y; merupakan variabel dependen
X; merupakan variabel independen
Apabila telah memenuhi beberapa asumsi, yang terkenal dengan sebutan asumsi klasik. Asumsi-asumsi yang harus dipenuhi dalam OLS ada 3 asumsi, yaitu:
  1. Asumsi nilai harapan bersyarat (conditional expected value) dari ei, dengan syarat X sebesar Xi, mempunyai nilai nol.
  2. Kovarian ei dan ej mempunyai nilai nol. Nilai nol dalam asumsi ini menjelaskan bahwa antara ei dan ej tidak ada korelasi serial atau tida berkorelasi (autocorrelation).
  3. Varian ei dan ej sama dengan simpangan baku (standar deviasi).
Perlu diketahui bahwa dalam metode OLS terdapat prinsip-prinsip antara lain:
  1. Analisis dilakukan dengan regresi, yaitu analisis untuk menentukan hubungan pengaruh antara variabel bebas terhadap variabel terikat. Regresi sendiri akan menghitung nilai a, b, dan e (error), oleh karena itu dilakukan dengan cara matematis.
  2. Hasil regresi akan menghasilkan garis regresi. Garis regresi ini merupakan representasi dari bentuk arah data yang diteliti. Garis regresi disimbolkan dengan Ŷ (baca: Y topi, atau Y cap) yang berfungsi sebagai Y perkiraan. Sedangkan data disimbolkan dengan Y saja. Perlu diingat, bahwa dalam setiap data tentu mempunyai lokus sebaran yang berbeda dengan yang lainnya, ada data yang tepat berada pada garis regresi, tetapi ada pula yang tidak berada pada garis regresi.  Data yang  tidak  berada  tepat pada garis regresi akan memunculkan nilai residual yang biasa disimbulkan  dengan ei, atau  sering  pula disebut  dengan  istilah kesalahan  pengganggu. Untuk data yang tepat berada pada garis maka nilai Y sama denganŶ. Nilai a dalam garis regresi  digunakan untuk menentukan letak titik potong garis pada sumbu Y. Jika nilai a > 0 maka letak titik potong garis regresi pada  sumbu Y akan berada di atas origin (0), apabila  nilai a < 0  maka  titik potongnya akan berada di bawah origin (0). Nilai b atau disebut koefisien regresi berfungsi untuk menentukan tingkat kemiringan garis regresi.

Menguji Signifikansi Parameter Penduga Seperti dijelaskan di muka, dalam persamaan fungsi regresi OLS variabelnya terbagi menjadi dua, yaitu: variabel yang disimbolkan dengan Y (yang terletak disebelah kiri tanda persamaan) disebut dengan variabel terikat  (dependent variable). Variabel yang disimbolkan dengan X (disebelah kanan tanda persamaan) disebut dengan variabel bebas (independent variable).
Uji t Untuk menguji hipotesis bahwa b secara statistic signifikan, perlu terlebih dulu menghitung standar  error atau standar deviasi dari b. Interpretasi Hasil regresi Setelah tahapan analisis regresi dilakukan  sesuai dengan teori-teori yang relevan, langkah terpenting berikutnya adalah menginterpretasi hasil regresi. Interpretasi yang dimaksudkan disini adalah mengetahui informasi-informasi yang terkandung dalam hasil regresi melalui pengartian dari angka-angka parameternya.
Koefisien Determinasi (R2)
Pembahasan hasil regresi di atas menunjukkan seberapa besar nilai a, b, dan t. Nilai a menjelaskan tentang seberapa besar faktor-faktor yang bersifat tetap mempengaruhi inflasi, sedangkan nilai b mencerminkan tingkat elastisitas variabel X. Nilai t sendiri mempertegas signifikan tidaknya variabel X dalam mempengaruhi Y.

Kesimpulan
Jika nilai-nilai tersebut sudah dapat dipastikan valid atau tidak bias, memang analisis regresi dapat berhenti di sini saja. Tetapi,  jika  nilai-nilai  belum  dapat  dipastikan valid,  maka  perlu  dilakukan  langkah-langkah  analisis
lanjutan untuk  menjadikan  parameter-parameter  tersebut menjadi  valid.  Validitas  (ketidakbiasan)  informasi  dari nilai-nilai hasil  regresi dapat diketahui dari  terpenuhinya asumsi-asumsi  klasik,  yaitu  jika  data  variabel  telah terbebas  dari  masalah  Autokorelasi,  tidak  ada  indikasi adanya heteroskedastisitas, maupun tidak terjadi multikolinearitas  atau  saling  berkolinear  antar variabel. Bahasan Asumsi Klasik akan dibahas tersendiri.


A.     Coba  jelaskan  apa  yang  dimaksud  dengan regresi linier sederhana!
Kata “linier” dalam model ini menunjukkan linearitas dalam variabel maupun  lineraitas dalam data. Kata  linier menggambarkan  arti  bahwa sebaran  data  dalam scatter plot menunjukkan  sebaran  data  yang  mendekati  bentuk garis  lurus.  Data  semacam  ini  dapat  wujud  apabila perubahan  pada  variabel Y  sebanding  dengan  perubahan variabel  X. Jika  sebaran  datanya  berkecenderungan melengkung,  maka  cocoknya  menggunakan  dengan regresi kuadratik. Jika sebaran datanya kecenderungannya seperti  bentuk  U  atau  spiral  regresinya ,menggunakan ,regresi kubik.
B.              Coba tuliskan model regresi linier sederhana!
Y = b0 + b1X + e
C.     Coba uraikan arti dari notasi atas model yang telah anda tuliskan!
Huruf Y  memerankan  fungsi  sebagai  variabel dependen  atau  variabel  terikat.  Y  sering  juga  disebut sebagai  variabel  gayut, variabel  yang  dipengaruhi,  atau variabel  endogin. Dengan alasan keseragaman, penulisan huruf Y diletakkan  disebelah  kiri  tanda  persamaan.
Sedang variabel independen yang secara umum disimbolkan dengan huruf X diletakkan disebelah  kanan tanda persamaan. Huruf  X  menggambarkan  variabel  bebas  atau variabel yang mempengaruhi. Oleh karena itu variabel ini mempunyai  nama  lain  seperti  variabel  independen, variabel  penduga,  variabel  estimator,  atau  juga  variabel eksogen. Peletakannya di sebelah kanan tanda persamaan menunjukkan perannya sebagai variabel yang mempengaruhi.
D.     Jelaskan informasi apa yang dapat diungkap pada konstanta!
Nilai konstanta ini merupakan nilai dari variabel Y ketika variabel X bernilai nol. Atau dengan bahasa yang mudah, nilai konstanta merupakan sifat bawaan dari Y.
E.      Jelaskan informasi apa yang dapat diungkap pada koefisien regresi!
Jika nilai b besarnya lebih dari satu (b>1) maka disebut elastis. Artinya, jika variabel X mengalami perubahan, maka variabel Y akan mengalami perubahan yang lebih besar dari perubahan yang ada pada variabel X
tersebut. Jika nilai b besarnya sama dengan angka satu (b=1) disebut uniter elastis. Artinya, jika variabel  X mengalami perubahan, maka variabel Y akan mengalami perubahan yang sama besar dengan perubahan yang ada pada variabel X tersebut.
F.      Jelaskan kegunaan standar error Sb!
untuk menentukan signifikan tidaknya nilai t
G.     Jelaskan kegunaan nilai t!
Untuk menguji hipotesis bahwa b secara statistic signifikan

H.     Coba uraikan bagaimana menentukan nilai t yang signifikan!
Terlebih dulu menghitung standar error atau standar deviasi dari b.
I.        Jelaskan apa yang dimaksud dengan koefisien determinasi!
Koefisien determinasi (R2) pada intinya mengukur seberapa jauh kemampuan model dalam menerangkan variasi variabel terikat. Besarnya nilai koefisien determinasi adalah di antara nol dan satu (0<R2<1). Nilai R2 yang mendekati 0 (nol) menunjukkan kemampuan variabel-variabel independen dalam menjelaskan variasi variabel dependen amat terbatas.