Bab I ruang lingkup ekonometrika tujuan Pengajaran



Yüklə 0,74 Mb.
səhifə7/9
tarix17.09.2018
ölçüsü0,74 Mb.
#69181
1   2   3   4   5   6   7   8   9

Uji F
Seperti telah dikemukakan di atas, bahwa dalam regresi linier berganda variabel penjelasnya selalu berjumlah lebih dari satu. Untuk itu, maka pengujian tingkat signifikansi variabel tidak hanya dilakukan secara individual saja, seperti dilakukan dengan uji t, tetapi dapat pula dilakukan pengujian signifikansi semua variabel penjelas secara serentak atau bersama-sama. Pengujian secara serentak tersebut dilakukan dengan teknik analisis of variance (ANOVA) melalui pengujian nilai F hitung yang dibandingkan dengan nilai F tabel. Oleh karena itu disebut pula dengan uji F.
Pada prinsipnya, teknik ANOVA digunakan untuk menguji distribusi atau variansi means dalam variabel penjelas apakah secara proporsional telah signifikan menjelaskan variasi dari variabel yang dijelaskan. Untuk memastikan jawabannya, maka perlu dihitung rasio antara

variansi means (variance between means) yang dibandingkan dengan variansi di dalam kelompok variabel (variance between group). Hasil pembandingan keduanya itu (rasio antara variance between means terhadap variance between group) menghasilkan nilai F hitung, yang kemudian dibandingkan dengan nilai F tabel. Jika nilai F hitung lebih besar dibanding nilai F tabel, maka secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y. Sebaliknya, jika nilai F hitung lebih kecil dibandingkan dengan nilai F tabel, maka tidak secara serentak seluruh variabel penjelas yang ada dalam model signifikan mempengaruhi variabel terikat Y.


Atau secara ringkas dapat dituliskan sebagai berikut:
F Fα ;( k 1);( n k ) Æ berarti tidak signifikan Æ atau H0

diterima
F > Fα ;( k 1);( nk ) Æ berarti signifikan Æ atau H0 ditolak


H0 diterima atau ditolak, adalah merupakan suatu keputusan jawaban terhadap hipotesis yang terkait dengan uji F, yang biasanya dituliskan dalam kalimat sebagai berikut:


H0 : b1 = b2 = 0 Variabel penjelas secara serentak tidak signifikan mempengaruhi variabel yang dijelaskan.
H0 : b1 ≠ b2 ≠ 0 Variabel penjelas secara serentak signifikan mempengaruhi variabel yang dijelaskan.
Karena uji F adalah membandingkan antara nilai F hitung dengan nilai F tabel, maka penting untuk mengetahui bagaimana mencari nilai F hitung ataupun nilai F tabel.
Nilai F hitung dapat dicari dengan menggunakan rumus sebagai berikut:
R 2 /(k 1)

F =

(1 − R 2 ) /(n k )


Sedangkan nilai F tabel telah ditentukan dalam tabel. Yang penting untuk diketahui adalah bagaimana cara membaca tabelnya. Seperti yang telah dituliskan pada pembandingan antara nilai F hitung dan nilai F tabel di atas, diketahui bahwa F tabel dituliskan Fα;k-1; (n-k).

Arti dari tulisan tersebut adalah:

• Simbol α menjelaskan tingkat signifikansi (level of significance) (apakah pada α =0,05 atau α =0,01 ataukah α =0,10, dan seterusnya).

• Simbol (k-1) menunjukkan degrees of freedom for numerator.

• Simbol (n-k) menunjukkan degrees of freedom for denominator.


Guna melengkapi hasil analisis data yang dicontohkan di atas, kita dapat menghitung nilai F berdasarkan rumus. Nilai F dari model tersebut ternyata besarnya adalah:
R 2 /(k 1)

F =

(1 − R 2 ) /(n k )


= (0,751) /(3 1) (1 − 0,751) /(22 − 3)


= 0.3755

0.0131
= 28.66

Dari hasil penghitungan di atas diketahui bahwa nilai F hitung adalah sebesar 28,66. Nilai ini lebih besar dibanding dengan nilai F tabel pada α = 0,05 dengan (k-1)

= 2, dan (n-k) = (22-3) = 19 yang besarnya 3,52. Dengan

demikian dapat disimpulkan bahwa variabel Budep dan Kurs secara serentak signifikan mempengaruhi inflasi. Dengan demikian, maka null hyphothesis ditolak.


Daerah penolakan atau penerimaan hipotesis dapat dilihat pada gambar berikut ini:


Daerah diterima

Daerah ditolak







F(α; k-1; n-k)

F0,05;2;19; 3,52

F

Gb.3.2. Daerah Uji F








-000-









Tugas:

1. Buatlah rangkuman dari pembahasan di atas!

2. Cobalah untuk menyimpulkan maksud dari uraian bab ini!

3. Lakukanlah perintah-perintah di bawah ini:

a. Coba jelaskan apa yang dimaksud dengan regresi linier berganda!

b. Coba tuliskan model regresi linier berganda!

c. Coba uraikan arti dari notasi atas model yang telah anda tuliskan!

d. Jelaskan informasi apa yang dapat diungkap pada konstanta!


e. Jelaskan informasi apa yang dapat diungkap pada koefisien regresi!

f. Coba sebutkan perbedaan-perbedaan antara model regresi linier sederhana dengan model regresi linier berganda!

g. Jelaskan mengapa rumus untuk mencari nilai b pada model regresi linier erganda berbeda dengan model regresi linier sederhana!

h. Coba jelaskan apakah pencarian nilai t juga

mengalami perubahan! kenapa?

i. Coba uraikan bagaimana menentukan nilai t yang signifikan!

j. Jelaskan apa kegunaan nilai F!

k. Bagaimana menentukan nilai F yang signifikan?

l. Jelaskan apakah rumus dalam mencari koefisien determinasi pada model regresi linier berganda berbeda dengan regresi linier

sederhana! kenapa?

m. Jelaskan bagaimana variabel penjelas dapat dianggap sebagai prediktor terbaik dalam

menjelaskan Y!


BAB V

UJI ASUMSI KLASIK
Tujuan Pengajaran:

Setelah mempelajari bab ini, anda diharapkan dapat:

Mengerti apa yang dimaksud dengan uji asumsi klasik

Mengerti item-item asumsi

Menjelaskan maksud item-item asumsi

Menyebutkan nama-nama asumsi yang harus dipenuhi Mengerti apa yang dimaksud dengan autokorelasi Mengerti apa yang dimaksud dengan Multikolinearitas Mengerti apa yang dimaksud dengan Heteroskedastisitas Mengerti apa yang dimaksud dengan Normalitas Menjelaskan timbulnya masalah-masalah dalam uji asumsi klasik

Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas Menyebutkan alat deteksi dari masalah-masalah tersebut Menggunakan sebagian alat-alat deteksi

Menjelaskan keterkaitan asumsi-asumsi

Menjelaskan konsekuensi-konsekuensi dari Asumsi
BAB V

UJI ASUMSI KLASIK

Di muka telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.



Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa

analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan



Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. Perlu diketahui bahwa error itu

sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias

(unbiased), maka estimator regresi akan efisien.

Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yang

digunakan dalam analisis regresi telah sesuai dengan
kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.

Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.

Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator

yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.

Asumsi-asumsi seperti yang telah dituliskan dalam

bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan OLS,18 yaitu:

Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.



Y = a + bX +e

Untuk model regresi Y = a + bX + cX2 + e

Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).


18 Dari sepuluh asumsi di atas tidak semuanya perlu diuji. Sebagian cukup hanya diasumsikan, sedangkan sebagian yang lain memerlukan test.
Tepatnya bahwa nilai X adalah nonstochastic

(tidak random).

Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.

Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas

Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.

Ini berarti kita dapat memisahkan pengaruh X

atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan

tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random

atau non stochastic.

Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang

diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan

lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

Asumsi 9: Model regresi secara benar telah terspesifikasi.

Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai

dengan teori.

Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel

penjelas tidak boleh sempurna atau tinggi.

Penyimpangan masing-masing asumsi tidak mempunyai impak yang sama terhadap regresi. Sebagai contoh, adanya penyimpangan atau tidak terpenuhinya asumsi multikolinearitas (asumsi 10) tidak berarti mengganggu, sepanjang uji t sudah signifikan. Hal ini disebabkan oleh membesarnya standar error pada kasus multikolinearitas, sehingga nilai t, b, Sb, menjadi cenderung kecil. Jika nilai t masih signifikan, maka multikolinearitas tidak perlu diatasi. Akan tetapi, jika terjadi penyimpangan pada asumsi heteroskedastisitas atau pada autokorelasi, penyimpangan tersebut dapat menyebabkan bias pada Sb, sehingga t menjadi tidak menentu. Dengan demikian, meskipun nilai t sudah signifikan ataupun tidak signifikan, keduanya tidak dapat memberi informasi yang sesungguhnya. Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.


Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).


A. Uji Autokorelasi

A.1. Pengertian autokorelasi

Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi.

Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan variannya konstan. Asumsi variance yang tidak konstan

menunjukkan adanya pengaruh perubahan nilai suatu observasi berdampak pada observasi lain. Sebagai ilustrasi, misalnya kita mengamati perubahan inflasi

apakah dipengaruhi oleh suku bunga deposito ataukah tidak. Bisa saja perubahan bunga deposito pada waktu tertentu, juga dialami oleh perubahan tingkat inflasi pada

waktu yang sama. Kalau saja terjadi autokorelasi dalam kasus semacam ini, maka menjadi tidak jelas apakah inflasi betul-betul dipengaruhi oleh perubahan bunga


deposito ataukah karena sifat dari kecenderungannya sendiri untuk berubah.

Telah jelas bagi kita bahwa autokorelasi akan muncul apabila ada ketergantungan atau adanya kesalahan pengganggu yang secara otomatis mempengaruhi data

berikutnya. Jika terdapat ketergantungan, dalam bahasa matematisnya dituliskan sebagai berikut:

E(ui, uj) 0; i j

Sebaliknya, jika tidak terdapat ketergantungan atau tidak adanya kesalahan pengganggu yang secara otomatis mempengaruhi data berikutnya maka masalah autokorelasi tidak akan muncul. Hal seperti itu dalam bahasa matematisnya dituliskan sebagai berikut:



E(ui, uj) = 0; i j

A.2. Sebab-sebab Autokorelasi

Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, namun dalam pembahasan ini hanya mengungkapkan beberapa faktor saja antara lain:

1. Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan

mendukung.

2. Tidak memasukkan variabel yang penting.

Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan

mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi

terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya inflasi. Alur berfikirnya

seperti ini, semakin banyak JUB maka daya beli
masyarakat akan meningkat tentu akan pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu bertambah, tentu harga akan meningkat, ini berarti inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.

3. Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data

tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi

atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu akan

terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.

4. Menggunakan data yang tidak empiris. Jika data

semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian menggunakan data biaya periklanan bulan ke n dan data penjualan bulan ke n, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan adalah data penjualan bulan ke n+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
A.3. Akibat Autokorelasi

Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya.

Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

A.4. Pengujian Autokorelasi

Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:



1. Uji Durbin-Watson (DW Test).

Uji Durbin-Watson yang secara populer digunakan untuk mendeteksi adanya serial korelasi dikembangkan oleh ahli statistik (statisticians) Durbin dan Watson. Formula yang digunakan untuk mendeteksi terkenal pula dengan sebutan Durbin- Watson d statistic, yang dituliskan sebagai berikut:


t =n


2

(uˆt uˆt 1 )


d =

t =2

t =n


t

uˆ 2

t =2

atau dapat pula ditulis dalam rumus sebagai berikut:



e


2

d = 2(1 et .et 1 )

t

Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:

• Terdapat intercept dalam model regresi.

• Variabel penjelasnya tidak random

(nonstochastics).

• Tidak ada unsur lag dari variabel dependen di dalam model.



Tidak ada data yang hilang.

υt

= ρυt 1 + ε t

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis. Rumusan hipotesisnya (H0) biasanya menyatakan bahwa dua ujungnya tidak ada serial autokorelasi baik positif maupun negatif. Misalnya: terdapat autokorelasi positif, atau, terdapat autokorelasi negatif.

Bertolak dari hipotesis tersebut, maka perlu mengujinya karena hipotesis sendiri merupakan jawaban sementara yang masih perlu diuji. Terdapat beberapa standar keputusan yang perlu dipedomani ketika menggunakan DW test, yang semuanya menentukan lokasi dimana nilai DW berada. Jelasnya adalah sebagai berikut:


DW < dL = terdapat atokorelasi positif



dL< DW U = tidak dapat disimpulkan

(inconclusive)

dU > DW >4-dU = tidak terdapat autokorelasi

4-dU < DW <4-dL = tidak dapat disimpulkan

(inconclusive)

DW > 4-dL = terdapat autokorelasi negatif

Dimana


DW = Nilai Durbin-Watson d statistik

dU = Nilai batas atas (didapat dari tabel)

dL = Nilai batas bawah (didapat dari

tabel)


Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

Inconclusive

Tidak ada

Autokorelasi Inconclusive


Korelasi

(+)

Korelasi


(-)

0 dL dU 2 4-dU 4-dL 4


Gambar 3.3.: Daerah Uji Durbin Watson

Dalam pengujian autokorelasi terdapat kemungkinan munculnya autokorelasi positif maupun negatif. Karena adanya masalah korelasi dapat menimbulkan adanya bias pada hasil regresi.


Bantuan dengan SPSS
Untuk mengetahui ada tidaknya autokorelasi dengan DW test, tahapannya dilakukan seperti pada tahapan regresi, hanya saja dilanjutkan dengan mengaktifkan kunci lainnya. Lengkapnya tahapan tersebut adalah sebagai berikut:

• Pilih Analyze, Regression, Linear

• Masukkan variabel Y ke kotak Variabel

Dependen, dan variabel X1 dan X2 ke dalam kotak


Yüklə 0,74 Mb.

Dostları ilə paylaş:
1   2   3   4   5   6   7   8   9




Verilənlər bazası müəlliflik hüququ ilə müdafiə olunur ©www.genderi.org 2024
rəhbərliyinə müraciət

    Ana səhifə