Nama :
Feby Anggun Nuralif
Npm :
22216763
Kelas :
2EB07
Matakuliah :
Statistika 2
UJI
ASUMSI KLASIK
TUGAS YG HARUS DIKERJAKAN DAN
KUMPULKAN
1.
APAKAH SEBAB-SEBAB
AUTOKORELASI
1. Kesalahan model (linier – non
linier)
2. Penggunaan Lag (inertia) è data
observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan
saling ketergantungan (interdependence)
3. fenomena cobweb è Munculnya fenomena
sarang laba-laba terutama terjadi pada penawaran komoditi sektor pertanian è
Misalnya, panen komoditi permulaan tahun dipengaruhi oleh harga yang terjadi
pada tahun sebelumnya è ui tidak lagi bersifat acak (random), tetapi mengikuti
suatu pola yaitu sarang laba-laba.
4. Tidak memasukkan variabel yang
penting
5. Manipulasi data
2.
FAKTOR-FAKTOR YANG DAPAT MENYEBABKAN
TIMBULNYA MASALAH AUTOKORELASI, ADALAH:
Terdapat
banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, beberapa
faktor saja antara lain:
1. Kesalahan dalam pembentukan model,
artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh
teori-teori yang relevan dan mendukung.
2. Tidak memasukkan
variabel yang penting. Variabel penting yang dimaksudkan
di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel
Y. Sebagai misal
kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya
inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan
kuat dengan terjadinya inflasi. Alur
berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat akan
meningkat tentu akan
pula diikuti dengan permintaan yang meningkat pula, Jika jumlah
penawaran tidak mampu bertambah, tentu
harga akan meningkat,
ini berarti inflasi akan terjadi. Nah, tidak
dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan
terjadinya autokorelasi.
3. Manipulasi data. Misalnya dalam
penelitian kita ingin menggunakan data
bulanan, namun data tersebut tidak tersedia. Kemudian kita
mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data
bulanan melalui cara
interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan
tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke
satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk
terjadi autokorelasi.
4. Menggunakan data yang tidak empiris.
Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung
oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam
penelitian menggunakan data biaya periklanan bulan ke n dan data penjualan
bulan ke n, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya
periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang
sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya
bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan
adalah data penjualan bulan ke n+1 atau n+2 tergantung dampak empiris tadi.
Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini
disebut juga sebagai Cobweb Phenomenon.
3.
APAKAH YG DIMAKSUD DENGAN PENGUJIAN AUTOKORELASI
Pengujian autokorelasi dimaksudkan untuk
menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila
kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi.
Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain
melalui:
1. Uji Durbin-Watson (DW Test).
2. Menggunakan
metode LaGrange Multiplier (LM).
4.
DALAM UJI
DURBIN-WATSON (DW TEST). TERDAPAT BEBERAPA ASUMSI PENTING
YANG HARUS DIPATUHI, APAKAH ITU :
Dalam
DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·
Terdapat intercept dalam
model regresi.
·
Variabel penjelasnya tidak
random
·
(nonstochastics).
·
Tidak ada unsur lag dari
variabel dependen di dalam model.
·
Tidak ada data yang
hilang.
·
υt= ρυt −1 + ε t
5.
COBA JELASKAN APA YANG DIMAKSUD
DENGAN ASUMSI KLASIK!
Uji
asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada
analisis regresi linear berganda yang berbasis ordinary least square
(OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik, misalnya regresi
logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas
tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi
tidak perlu diterapkan pada data cross sectional.
Uji
asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang
bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return
saham yang dihitung dengan market model, atau market adjusted model.
Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan
regresi, tetapi tidak perlu diuji asumsi klasik.
Uji
asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji
heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak
ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi.
Analisis dapat dilakukan tergantung pada data yang ada.
6.
SEBUTKAN APA SAJA ASUMSI-ASUMSI YANG
DITETAPKAN!
·
Asumsi 1: Linear
regression Model. Model regresi merupakan hubungan linear dalam parameter.
·
Asumsi 2: Nilai X adalah
tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).
Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·
Asumsi 3: Variabel
pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis
regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas garis regresi atau di bawah garis
regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·
Asumsi 4:
Homoskedastisitas, atau variabel pengganggu e memilikivariance yang sama
sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X
memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
·
Asumsi 5: Tidak ada
otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation
between the disturbance).
·
Asumsi 6: Variabel X
dandisturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan
pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh
keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y).
Asumsi ini pasti terpenuhi jika X adalah variabel non random ataunon
stochastic.
·
Asumsi 7: Jumlah
observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang
diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus
cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah
observasi, maka persamaan regresi tidak akan bisa diestimasi.
·
Asumsi 8: Variabel X
harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka
tidak bisa dilakukan regresi.
·
Asumsi 9: Model regresi
secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias,
karena semuanya telah terekomendasi atau sesuai dengan teori.
·
Asumsi 10. Tidak ada
multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel
penjelas tidak boleh sempurna atau tinggi.
7.
COBA JELASKAN MENGAPA TIDAK SEMUA
ASUMSI PERLU LAKUKAN PENGUJIAN!
Tidak
semua uji asumsi klasik harus dilakukan pada analisis regresi
linear, seperti: pengujian asumsi Multikolinearitas tidak harus
dilakukan pada analisis regresi linear sederhana yang memiliki variabel respon
dan prediktor hanya satu. Secara teoretis model OLS akan menghasilkan estimasi
nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada
Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah
terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias,
efficient of estimation (BLUE).
8.
JELASKAN APA YANG DIMAKSUD DENGAN
AUTOKORELASI !
Autokorelasi
adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi
dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila
terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu
(time series) ataupun data kerat silang (cross section). Proses
Autokorelasi terjadi ketika kovarian
antara εi dengan εi tidak sama dengan nol dengan
JELASKAN KENAPA AUTOKORELASI TIMBUL !
Pada
pengujian asumsi autokorelasi ini, diharapkan asumsi Autokorelasi tidak
terpenuhi. Tetapi terkadang dalam suatu penelitian terjadi autokorelasi.
Penyebab terjadinya autokorelasi ini adalah :
·
Kesalahan dalam
pembentukan model, artinya, model yang digunakan untuk menganalisis regresi
tidak didukung oleh teori-teori yang relevan dan mendukung.
·
Tidak memasukkan variabel
yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang
diperkirakan signifikan mempengaruhi variabel Y.
·
Manipulasi data
penelitian
·
Menggunakan data yang
tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut
tidak didukung oleh realita.
10.
BAGAIMANA CARA MENDETEKSI MASALAH
AUTOKORELASI ?
Berikut
ini merupakan cara-cara mengidentifikasi adanya kasus Autokorelasi :
1) Pengujian Durbin-Watson yang
menguji adanya autokorelasi pada lag-1. Pada Tabel
Durbin-Watson[4]diperoleh Output Tabel, yaitu nilai Durbin-Watson batas bawah
(dL) dan batas atas (dU). Kriteria pemeriksaan asumsi Autokorelasi
residual menggunakan Nilai Durbin-Watson (d), yaitu:
· Jika d <
2 dan d < dL , maka residual bersifat autokorelasi
positif.
· Jika d <
2 dan d > dU , maka residual tidak bersifat
autokorelasi.
· Jika d <
2 dan dL ≤ d ≤ dU , maka hasil pengujian tidak
dapat disimpulkan.
· Jika d >
2 dan 4 – d < dL , maka residual bersifat autokorelasi
negatif.
· Jika d >
2 dan 4 – d > dU , maka residual tidak bersifat
autokorelasi.
· Jika d >
2 dan dL ≤ 4 – d ≤ dU , maka hasil pengujian
tidak dapat disimpulkan.
2) Pengujian Autocorrelation
Function (ACF) yang menguji adanya autokorelasi pada lag-1, lag-2, lag-3,
dan seterusnya. Pada uji ACF, kasus autokorelasi terjadi ketika ada lag pada
plot ACF yang keluar batas signifikansi (margin error).
3) Pengujian Autokorelasi
lainnya, seperti: Uji Breusch-Godfrey dan Uji Ljung-Box (gunakan software
EVIEWS).
11.
APA KONSEKUENSI DARI ADANYA MASALAH
AUTOKORELASI DALAM MODEL ?
Meskipun
ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap
linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi
nilai variance tidak minimum danstandard error (Sb1, Sb2) akan
bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
12.
JELASKAN APA YANG DIMAKSUD DENGAN
HETEROSKEDASTISITAS !
Heteroskedatisitas adalah
asumsi residual dari model regresi yang memiliki varian tidak konstan. Pada
pemeriksaan ini, diharapkan asumsi Heteroskedatisitas tidak terpenuhi karena
model regresi linier berganda memiliki asumsi varian residual yang konstan
(Homoskedatisitas). Heteroskedastisitas muncul apabila kesalahan atau residual
dari model yang diamati tidak memiliki varians yang konstan dari satu observasi
ke observasi lainnya.
13.
JELASKAN KENAPA HETEROSKEDASTISITAS
TIMBUL !
Penyebab terjadinya
kasus heteroskedatisitas adalah:
·
Terdapat kesalahan
input komponen/nilai variabel respon pada beberapa prediktor, sehingga
pada komponen prediktor yang berbeda memiliki komponen variabel respon yang
sama
·
Kasus Heteroskedatisitas terjadi
secara alami pada variabel-variabel ekonomi
·
Terdapat pengaruh
Heteroskedatisitas pada data time series yang umum terjadi pada
variabel-variabel ekonomi yang memiliki volatilitas
·
Adanya Manipulasi
Data yang menyebabkan residual data memiliki varian yang sistematik.
14.
BAGAIMANA CARA MENDETEKSI MASALAH
HETEROSKEDASTISITAS ?
Berikut
diberikan cara-cara mengidentifikasi adanya kasus Heteroskedatisitas:
1. Dilakukan pemeriksaan denganmetode
Grafik, seperti:
·
Pemeriksaan output
scatter plot dari variabel respon (y) pada sumbu-Y dengan masing-masing
variabel prediktornya (X) pada sumbu-X.
·
Pemeriksaan output
scatter plot dari variabel residual (e) pada sumbu-Y dengan variabel prediksi
respon (y-hat) pada sumbu-X.
·
Pemeriksaan output
scatter plot dari variabel residual (e) pada sumbu-Y dengan masing-masing
variabel prediktornya (X) pada sumbu-X.
2. Dilakukan pengujian denganmetode
Formal, meliputi: Uji Park, Uji Glejser, Uji Goldfeld-Quandt, Uji
Breusch-Pagan/Godfrey, dan Uji White
15.
APA KONSEKUENSI DARI ADANYA MASALAH
HETEROSKEDASTISITAS DALAM MODEL ?
Munculnya
masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan
berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena
nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil,
maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin
mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi
signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t
yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan.
Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16.
JELASKAN APA YANG DIMAKSUD DENGAN
MULTIKOLINEARITAS !
Multikolinearitas adalah
asumsi yang menunjukkan adanya hubungan linear yang kuat diantara beberapa
variabel prediktor dalam suatu model regresi linear berganda. Model regresi
yang baik memiliki variabel-variabel prediktor yang independen atau tidak
berkorelasi. Pada pengujian asumsi ini, diharapkan asumsi Multikolinieritas
tidak terpenuhi.
17.
JELASKAN KENAPA MULTIKOLINEARITAS
TIMBUL !
Penyebab terjadinya
kasus Multikolinieritas adalah terdapat korelasi atau hubungan linear yang kuat
diantara beberapa variabel prediktor yang dimasukkan kedalam model
regresi, seperti: variabel-variabel ekonomi yang kebanyakan terkait
satu dengan yang lain (intercorrelation).
18.
BAGAIMANA CARA MENDETEKSI MASALAH
MULTIKOLINEARITAS?
·
Menghitung dan
menguji koefisien korelasi diantara variabel-variabel prediktor. Terjadi
kasus Multikolinieritas ketika terdapat korelasi yang kuat (atau signifikan)
diantara variabel-variabel prediktor.
·
Mengecek
nilai standard errordari masing-masing koefisien regresi [se(β)]. Kasus
Multikolinieritas biasanya terjadi ketika nilai standard error dari koefisien
regresi membesar, sehingga hasil ini akan cenderung menerima
H0 (menyimpulkan bahwa koefisien regresi tidak signifikan) pada pengujian
signifikansi parameter/koefisien regresi. Hal ini dapat terjadi, meskipun nilai
koefisien regresinya tidak mendekati nol.
·
Menjumpai adanya output
pengujian serentak koefisien regresi atau Uji ANOVA atau Uji F yang
signifikan, tetapi output pengujian parsial koefisien regresi atau Uji
t dari masing-masing variabel prediktor tidak ada yang signifikan.
·
Membandingkan
output koefisien regresi dengan koefisien korelasiantara variabel respon
dan prediktor. Pertama, kasus Multikolinieritas biasanya terjadi ketika
terdapat perubahan hasil pengujian signifikansi pada koefisien regresi dan
koefisien korelasi. Kedua, terjadi kasus Multikolinieritas ketika terdapat
perubahan tanda koefisien (+/-) pada koefisien regresi dan koefisien korelasi.
·
Melakukan pemeriksaan
nilaiVariance Inflation Factor (VIF) dari masing-masing variabel
prediktor. Kasus Multikolinieritas terjadi ketika nilai VIFj > 10
19.
APA KONSEKUENSI DARI ADANYA MASALAH
MULTIKOLINEARITAS DALAM MODEL?
Pengujian
multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu
penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan
menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan
nilaistandar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan
kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu
akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu
akan memperkecil nilai t. Logikanya adalah seperti ini, jika antara X1 dan X2
terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka
nilai b1 dan b2 akan tidak dapat ditentukan hasilnya
20.
JELASKAN APA YANG DIMAKSUD DENGAN
NORMALITAS!
Asumsi
Normalitas adalah asumsi residual yang berdistribusi Normal. Asumsi ini
harus terpenuhi untuk model regresi linear yang baik. Uji Normalitas dilakukan
pada nilai residual model regresi. Tujuan dilakukannya uji normalitas
adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal
atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
21.
JELASKAN KENAPA NORMALITAS TIMBUL!
Penyebab terjadinya
kasus Normalitas adalah:
·
Terdapat
data residual dari model regresi yang memiliki nilai data yang berada
jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran
datanya menjadi non-Normal.
·
Terdapat kondisi
alami dari data yang pada dasarnya tidak berdistribusi Normal atau
berdistribusi lain, seperti: distribusi binormal, multinormal, eksponensial,
gamma, dll.
22.
BAGAIMANA CARA MENDETEKSI MASALAH
NORMALITAS?
Berikut
diberikan cara-cara mengidentifikasi adanya kasus Normalitas:
·
Dilakukan pemeriksaan
denganmetode Grafik, yaitu pemeriksaan Normalitas dengan output normal P-P plot
atau Q-Q plot. Asumsi Normalitas terpenuhi ketika pencaran data residual berada
disekitar garis lurus melintang
·
Dilakukan pengujian
denganmetode Formal, seperti: pengujian normalitas yang dilakukan melalui uji
Kolmogorov-Smirnov, uji Anderson-Darling, uji Shapiro-Wilk, dan uji Jarque-Bera
yang mana semua pengujian ini memiliki hipotesis interpretasi, yaitu:
H0 : Residual
berdistribusi Normal
H1 : Residual tidak
berdistribusi Normal
Asumsi Normalitas
terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) lebih besar
dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.
23.
APA KONSEKUENSI DARI ADANYA MASALAH
NORMALITAS DALAM MODEL?
Uji
normalitas bertujuan untuk menguji apakah dalam model regresi, variabel
penggangu atau residual memiliki distribusi normal. Jika asumsi ini
dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk
sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu
melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov,
chi-square, Liliefors maupun Shapiro-Wilk.
24.
BAGAIMANA CARA MENANGANI JIKA DATA
TERNYATA TIDAK NORMAL?
§ Melakukan transformasi
variabelterhadap variabel respon (y) dan variabel prediktor (X). Transformasi
yang digunakan adalah transformasi ln, akar kuadrat, dan Box-Cox.
§ Menggunakan transformasi
pilihan untuk menstimulasi Normalitas[3], yaitu: transformasi ln-skewness
(gunakan software STATA) yang dilakukan pada variabel respon (y), kemudian
transformasi yang terbentuk diterapkan juga pada variabel prediktornya (X).
Ketentuan transformasi ini dilakukan dengan mentransformasikan y dalam ln|y –
k| secara iteratif sehingga ditemukan suatu nilai k yang menyebabkan nilai
skewness-nya mendekati nol.
§ Menggunakan metode
estimasi yang lebih advance, seperti: Regresi dengan pendekatan
Bootstrapping, Regresi Nonparametrik, dan Regresi dengan pendekatan Bayessian.