Asumsi Gauss Markov Pada Regresi Berganda

ASUMSI GAUSS MARKOV

Pendugaan parameter yang paling sering digunakan pada model regresi linier adalah Metode Kuadrat Terkecil (MKT a.k.a Ordinary Least Square (OLS)), yang bekerja dengan prinsip meminimumkan jumlah kuadrat error. Menurut teorema Gauss Markov terdapat beberapa asumsi yang harus dipenuhi model regresi linier. Hal ini bertujuan untuk mendapatkan penduga yang bersifat BLUE (Best Linear Unbiased Estimator) dan tidak menimbulkan kesalahan dalam inferensi, sehingga model layak untuk digunakan sebagai alat prediksi. Asumsi asumsi tersebut adalah :

  1. Hubungan antara variabel respon dan variabel prediktor) adalah linier dalam parameter. Maksudnya adalah model regresi yang memiliki bentuk fungsional parameter yang linier atau masih dapat dilinierkan.
  2. Variabel independent adalah variabel non stokastik yang nilainya tetap. Jika ternyata stokastik, maka variabel tersebut harus bebas terhadap sisaan; artinya nilai pengamatan pada saat t tidak dipengaruhi oleh periode yang lainnya (asumsi ini sulit dipenuhi pada data deret waktu).
  3. Nilai harapan (expected value) atau rata-rata sisaan 𝜀𝑖 adalah nol atau 𝐸(𝜀𝑖 |𝑋) = 0. Asumsi ini berimplikasi bahwa tidak ada bias spesifikasi dalam model pada suatu analisis empiris;
  4. Varians dari sisaan 𝜀𝑖 adalah sama (homoskedastisitas) atau 𝑉𝑎𝑟(𝜀𝑖|𝑋) = 𝜎
  5. Tidak ada korelasi serial (non autokorelasi) antar sisaan atau 𝐶𝑜𝑣(𝜀𝑖, 𝜀𝑗|𝑋𝑖, 𝑋𝑗) =0 untuk 𝑖 ≠𝑗. Artinya kesalahan pengukuran terjadi bukan karena pengaruh kesalahan pengukuran yang sebelumnya.
  6. Sisaan 𝜀𝑖 berdistribusi normalatau 𝜀𝑖~𝑁(0, 𝜎2))
  7. Pada analisis regresi linier berganda, tidak boleh terdapat hubungan yang erat antar variabel prediktor (non multikolinieritas).

Namun, dalam analisis regresi berganda biasanya pengujian hanya dilakukan terhadap empat asumsi saja yaitu normalitas, non-multikolinieritas, homoskedastisitas dan non-autokorelasi.

ASUMSI KLASIK REGRESI LINIER BERGANDA

Asumsi klasik merupakan penyederhanaan dari asumsi Gauss Markov yang terdiri empat jenis yaitu

1. Normalitas

Asumsi pertama yakni sisaan berdistribusi normal. Berdasarkan asumsi Gauss Markov kita tidak perlu menguji variabel dependent (Y) berdistribusi normal atau tidak, cukup sisaan nya saja. Beberapa metode yang digunakan untuk melihat apakah asumsi ini terpenuhi adalah

  1. Uji Kolmogorov Smirnov
  2. Uji Jarque Bera

2. Non – Multikolinieritas

Asumsi kedua yakni tidak boleh terjadi korelasi yang kuat antar variabel independent (X). Oleh karena itu, pada regresi linier sederhana tidak perlu dicek asumsi ini karena hanya terdapat 1 variabel X saja. Beberapa metode yang digunakan untuk mendeteksi multikolinieritas adalah

  1. VIF
  2. Korelasi antar variabel independen (X)

3. Homoskedastisitas

Asumi ketiga yakni ragam sisaan harus homogen (konstan), artinya ingin melihat apakah terdapat ketidaksamaan ragam antara satu observasi dengan observasi lainnya. Asumsi ini seringkali dilanggar pada data cross section jika terdapat perbedaan yang sangat besar antar observasi. Beberapa metode yang digunakan untuk mendeteksi apakah ragam sisaan homogen adalah

  1. Uji Breush Pagan
  2. Uji Park
  3. Uji Gleijser
  4. Uji White

4. Non – Autokorelasi

Asumsi keempat yakni tidak terjadi korelasi antara sisaan pada observasi ke i dan ke i-1. Jadi Asumsi ini lebih cocok digunakan untuk data time series. Pengujian autokorelasi pada data cross section tidak relevan karena susunan datanya tidak bermakna sehingga boleh di acak. Beberapa metode yang digunakan untuk mendeteksi autokorelasi yaitu

  1. Uji Durbin Watson
  2. Uji Breusch-Godfrey

PENANGANAN PELANGGARAN ASUMSI KLASIK

1. Pelanggaran Normalitas

Sisaan yang tidak berdistribusi normal mengakibatkan sifat penduga yang menjadi bias yaitu nilai harapan E(X) tidak sama dengan nol (asumsi gauss markov poin 3 terlanggar). Beberapa metode yang dapat digunakan untuk menangani pelanggaran ini yaitu

  1. Menghilangkan Outiler
    Outlier merupakan observasi yang terlalu berbeda jauh dari rata-rata umumnya. Kadangkala hal inilah yang menyebabkan sisaan tidak normal. Cara pendeteksian outlier bisa menggunakan boxplot.
  2. Transformasi data
    Transformasi data bertujuan untuk ‘mendekatkan‘ nilai antar observasi. Transformasi yang dapat digunakan yaitu tranformasi 1/x, akar, z dan lainnya.
  3. Menggunakan metode lain
    Cara terakhir yang dapat digunakan yaitu menggunakan metode lain seperti regresi Poisson.

2. Pelanggaran Non – Multikolinieritas

Multikolinieritas mengakibatkan matriks X’X menjadi matrik singular sehingga standar error koefisien regresi menjadi sangat besar. Hal ini mengakibatkan kesalahan pengambilan kesimpulan, seharusnya terima H0 tapi kita malah menolak H0. Beberapa metode yang dapat digunakan untuk menangani masalah ini adalah

  1. Regresi ridge
    Metode ini berusahan memperbaiki matriks varian kovarian yang bernilai tak hingga dengan cara penambahan konstanta bias c pada diagonal X’X.
  2. Menghilangkan variabel
    Variabel yang menjadi biang terjadinya korelasi yang tinggi bisa dihilangkan. Namun hal ini perlu memperhatikan landasan teori, apakah boleh dikeluarkan atau tidak.
  3. Menambahkan data baru

3. Pelanggaran Homoskedastisitas

Dampak dari pelanggaran ini adalah meskipun penduga tetap bersifat tidak bias, namun ragam menjadi tidak efisien (bukan ragam terkecil). Sehingga standar error akan cenderung membesar yang mengakibatkan kesalahan dalam penarikan kesimpulan. Pelanggaran terhadap asumsi ini sering dijumpai terhadap data cross section. Pelanggaran ini bisa terjadi jika antar observasi terdapat perbedaan yang terlalu jauh, misalkan variabel pendapatan yang nilainya antar orang bisa sangat jauh. Beberapa cara yang dapat dilakukan untuk menangani masalah ini adalah

  1. Regresi Robust
  2. Weighted Least Square (WLS)

4. Pelanggaran Non – Autokorelasi

Model Regresi yang mengandung autokorelasi akan menyebabkan walaupun penduga MKT (Metode Kuadrat Terkecil) masih linier dan tidak bias, tetapi tidak lagi mempunyai ragam yang terkecil dan menyebabkan perhitungan standard error tidak bisa dipercaya kebenarannya. Oleh karena itu pelanggaran ini menyebabkan penduga tidak lagi bersifat BLUE (Best Linier Unbiased Estimater) namun hanya bersifat LUE. Pelanggaran ini biasanya terjadi pada data time series. Hal ini wajar karena data time series memang biasanya terjadi korelasi antar waktu. Beberapa metode yang dapat digunakan untuk mengatasi permasalahan ini adalah

  1. Cochran Orcut
  2. Newey-West Standard Errors
  3. Generalized Least Square (GLS)
  4. Hidret Lu
  5. Dua tahap durbin
  6. First Different Procedure

REFERENSI

  1. Gujarati, Damodar. 2004. Basic Econometrics (Ekonometrika Dasar). Jakarta: Penerbit Erlangga
  2. https://www.sfu.ca/~dsignori/buec333/lecture%2017.pdf

Leave a Reply

Your email address will not be published. Required fields are marked *

Related posts