Gallery

Uji Multikolinearitas

Istilah Multikolinearitas mula-mula ditemukan oleh Ragnar Frisch. Pada mulanya Multikolinearitas berarti adanya hubungan linear yang “sempurna” atau pasti, diantara beberapa atau semua variable yang menjelaskan dari model regresi. Tepatnya istilah Multikolinearitas berkenaan dengan terdapatnya lebih dari satu hubungan linear pasti, dan istilahnya kolinearitas berkenaan dengan terdapatnya satu hubungan linear. Tetapi pembedaan ini jarang dipertahankan dalam praktek, dan Multikolinearitas berkenaan dengan kedua kasus tadi.

(5.2.1)

Untuk regresi k-variabel, meliputi variable yang menjelaskan X1, X2,…, Xk (dimana X1= 1 untuk semua pengamatan untuk memungkinkan unsure intersep), suatu hubungan linear yang pasti dikatakan ada apabila kondisi berikut ini dipenuhi:

λ1 X1 + λ2 X2 + … + λk Xk = 0

dimana λ1, λ2,… λk adalah konstanta sedemikian rupa sehingga tidak semuanya secara simultan sama dengan nol.

Tetapi, saat ini istilah Multikolinearitas digunakan dalam pengertian yang lebih luas untuk memasukkan kasus Multikolinearitas sempurna, seperti ditunjukkan (5.2.1) maupun kasus di mana variable X berkorelasi tetapi tidak secara sempurna, sehingga sebagai berikut:

(5.2.2)

λ1 X1 + λ2 X2 + … + λ2Xk + vi = 0

dimana vi adalah unsure kesalahan stokhastik.

Mengapa model regresi linear klasik mengasumsikan tidak adanya Multikolinearitas di antara variable X? Dasar pemikirannya adalah: jika Multikolinearitas sempurna dalam arti (5.2.1), koefisien regresi variable (5.2.2) tak tertentu dan kesalahannya tak terhingga. Jika multikolinearitas kurang sempurna seperti dalam (5.2.2), koefisien regresi, meskipun bias ditentukan, memiliki kesalahan standar yang besar (dibandingkan dengan koefisen itu sendiri), yang berarti bahwa koefisien tidak dapat ditaksir dengan ketepatan yang tinggi.

Harus ditekankan dengan sungguh-sungguh bahwa karena X diasumsikan tetap atau nonstokhastik, Multikolinearitas pada dasarnya merupakan fenomena (regresi) sample.

Ingat bahwa jika asumsi model regresi linear klasik dipenuhi, penaksir kuadrat terkecil biasa (OLS) dari koefisien regresi adalah linear, tak bias, dan mempunyai varians minimum, ringkasnya penaksir tadi adalah penaksir tak bias kolinear terbaik (BLUE). Jika sekarang dapat ditunjukkan bahwa bahkan Multikolinearitas sangat tinggi, penaksir OLS masih tetap memiliki sifat BLUE, tetapi perhatikan berikut ini.

Ketidakbiasan adalah sifat multi sample atau penyampelan berulang. Apa yang dimaksud adalah dengan menjaga nilai variable X tetap, jika seseorang mendapatkan sample berulang dan menghitung penaksir OLS untuk tiap sample ini, maka rata-rata nilai sample akan menuju ke nilai populasi yang sebenarnya dari penaksir, dengan meningkatnya jumlah sample. Tetapi hal ini tidak mengatakan sesuatu mengenai sifat penaksir dalam sample.

Tentu benar bahwa kolinearitas tidak merusak sifat varians minimum: dalam kelas semua penaksir tak bias linear, penaksir OLS mempunyai varians minimum; yaitu sangat efisien. Tetapi ini tidak berarti bahwa varians penaksir OLS akan menjadi kecil (dalam hubungannya dengan nilai penaksir) dalam suatu sample tertentu. Multikolinearitas pada dasarnya fenomena sample. Jadi kenyataan bahwa penaksir OLS adalah BLUE meskipun terdapat Multikolinearitas dalam prakteknya merupakan hubungan kecil saja. Kita harus melihat apa yang terjadi atau apa yang tampaknya akan terjadi dalam sample tertentu.

Ada beberapa metode yang dapat digunakan untuk mendeteksi adanya multikolinearitas, yaitu:

  • Kolinearitas seringkali diduga ketika R² tinggi (misalnya antara 0,7 dan 1) dan ketika korelasi derajat nol juga tinggi, tetapi tak satu pun atau sangat sedikit koefisien regresi parsial yang secara individual penting secara statistic atas dasar pengujian t yang konvensional. Jika R² tinggi, ini akan berarti bahwa uji F dari prosedur analisis varians dalam sebagian kasus akan menolak hipotesis nol bahwa nilai koefisien kemiringan parsial secara simultan sebenarnya adalah nol, meskipun uji-t sebaliknya.
  • Meskipun korelasi derajat nol yang tinggi mungkin mengusulkan kolinearitas, tidak perlu bahwa mereka tinggi berarti mempunyai kolinearitas dalam satu kasus spesifik. Untuk meletakkan persoalan agar secara teknik, korelasi derajat nol yang tinggi merupakan kondisi yang cukup tapi tidak perlu adanya kolinearitas karena hal ini dapat terjadi meskipun melalui korelasi derajat nol atau sederhana relative rendah (misalnya kurang dari 0,05).
  • Karena Multikolinearitas timbul karena satu atau lebih variable yang menjelaskan merupakan kombinasi linear yang pasti atau mendekati pasti dari variable yang menjelaskan lainnya, satu cara untuk mengetahui variable X yang mana yang berhubungan dengan variable X lainnya adalah dengan meregresi tiap Xi atas sisa variable X dan menghitung R² yang cocok, yang bias disebut sebagai Ri².
About these ads

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out / Change )

Twitter picture

You are commenting using your Twitter account. Log Out / Change )

Facebook photo

You are commenting using your Facebook account. Log Out / Change )

Google+ photo

You are commenting using your Google+ account. Log Out / Change )

Connecting to %s