Minggu, 08 Juli 2018

Tugas Vclass Statistika 2 2EB07 M13


Nama                           : Feby Anggun Nuralif
Npm                            : 22216763
Kelas                           : 2EB07
Matakuliah                  : Statistika 2
UJI ASUMSI KLASIK
TUGAS YG HARUS DIKERJAKAN DAN KUMPULKAN

1.      APAKAH  SEBAB-SEBAB AUTOKORELASI
1.      Kesalahan model (linier – non linier)
2.      Penggunaan Lag (inertia) è data observasi pada periode sebelumnya dan periode sekarang, kemungkinan besar akan saling ketergantungan (interdependence)
3.      fenomena cobweb è Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditi sektor pertanian è Misalnya, panen komoditi permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya è ui tidak lagi bersifat acak (random), tetapi mengikuti suatu pola yaitu sarang laba-laba.
4.      Tidak memasukkan variabel yang penting
5.      Manipulasi data
2.      FAKTOR-FAKTOR YANG DAPAT MENYEBABKAN TIMBULNYA MASALAH AUTOKORELASI, ADALAH:
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, beberapa faktor saja antara lain:
1.      Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.      Tidak    memasukkan   variabel    yang    penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi  variabel  Y.  Sebagai  misal  kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi. Secara teoritik, banyaknya Jumlah Uang Beredar (JUB) mempunyai kaitan kuat dengan terjadinya  inflasi. Alur berfikirnya seperti ini, semakin banyak JUB maka daya beli masyarakat  akan   meningkat  tentu   akan   pula diikuti dengan permintaan yang meningkat pula, Jika jumlah penawaran tidak mampu bertambah, tentu  harga  akan  meningkat,  ini  berarti  inflasi akan terjadi. Nah, tidak dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.
3.      Manipulasi data. Misalnya dalam penelitian kita ingin  menggunakan  data  bulanan,  namun  data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan  data  bulanan  melalui  cara  interpolasi atau ekstrapolasi. Contohnya membagi tiga data triwulanan tadi (n/3). Apabila hal seperti ini dilakukan, maka sifat data dari bulan ke satu akan terbawa ke bulan kedua dan ketiga, dan ini besar kemungkinan untuk terjadi autokorelasi.
4.      Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita. Misalnya pengaruh periklanan terhadap penjualan. Kalau dalam penelitian menggunakan data biaya periklanan bulan ke n dan data penjualan bulan ke n, besar kemungkinan akan terjadi autokorelasi. Secara empirik, upaya periklanan bulan ke n tidak akan secara langsung berdampak pada bulan yang sama, tetapi besar kemungkinan akan berdampak pada bulan berikutnya, jaraknya bisa 1 bulan, 2 bulan, atau lebih. Seharusnya data penjualan yang digunakan adalah  data  penjualan bulan ke  n+1 atau n+2 tergantung dampak empiris tadi. Penggunaan data pada bulan yang sama dengan mengabaikan empiris seperti ini disebut juga sebagai Cobweb Phenomenon.
3.      APAKAH YG DIMAKSUD DENGAN PENGUJIAN AUTOKORELASI
 Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi. Terdapat beberapa cara untuk mendeteksi ada tidaknya autokorelasi, antara lain melalui:
1.      Uji Durbin-Watson (DW Test).
2.       Menggunakan   metode   LaGrange   Multiplier (LM).
4.      DALAM  UJI DURBIN-WATSON (DW TEST). TERDAPAT BEBERAPA ASUMSI PENTING YANG HARUS DIPATUHI, APAKAH ITU :
Dalam DW test ini terdapat beberapa asumsi penting yang harus dipatuhi, yaitu:
·         Terdapat intercept dalam model regresi.
·         Variabel      penjelasnya      tidak      random
·         (nonstochastics).
·         Tidak ada unsur lag dari variabel dependen di dalam model.
·         Tidak ada data yang hilang.
·         υt= ρυt −1  + ε t
5.      COBA JELASKAN APA YANG DIMAKSUD DENGAN ASUMSI KLASIK!
Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
Uji asumsi klasik juga tidak perlu dilakukan untuk analisis regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu. Misalnya nilai return saham yang dihitung dengan market model, atau market adjusted model. Perhitungan nilai return yang diharapkan dapat dilakukan dengan persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
6.      SEBUTKAN APA SAJA ASUMSI-ASUMSI YANG DITETAPKAN!
·         Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
·         Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling). Tepatnya bahwa nilai X adalah nonstochastic (tidak random).
·         Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
·         Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memilikivariance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
·         Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
·         Asumsi 6: Variabel X dandisturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random ataunon stochastic.
·         Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
·         Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
·         Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
·         Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.
7.      COBA JELASKAN MENGAPA TIDAK SEMUA ASUMSI PERLU LAKUKAN PENGUJIAN!
Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki variabel respon dan prediktor hanya satu. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).
8.      JELASKAN APA YANG DIMAKSUD DENGAN AUTOKORELASI !
Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Proses Autokorelasi terjadi ketika kovarian antara εi dengan εi tidak sama dengan nol dengan


JELASKAN KENAPA AUTOKORELASI TIMBUL !
Pada pengujian asumsi autokorelasi ini, diharapkan asumsi Autokorelasi tidak terpenuhi. Tetapi terkadang dalam suatu penelitian terjadi autokorelasi. Penyebab terjadinya autokorelasi ini adalah :
·         Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
·         Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
·         Manipulasi data penelitian
·         Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.
10.  BAGAIMANA CARA MENDETEKSI MASALAH AUTOKORELASI ?
Berikut ini merupakan cara-cara mengidentifikasi adanya kasus Autokorelasi :
1)      Pengujian Durbin-Watson yang menguji adanya autokorelasi pada lag-1. Pada Tabel Durbin-Watson[4]diperoleh Output Tabel, yaitu nilai Durbin-Watson batas bawah (dL) dan batas atas (dU). Kriteria pemeriksaan asumsi Autokorelasi residual menggunakan Nilai Durbin-Watson (d), yaitu:
·         Jika d < 2 dan d < dL , maka residual bersifat autokorelasi positif.
·         Jika d < 2 dan d > dU , maka residual tidak bersifat autokorelasi.
·         Jika d < 2 dan dL ≤ d ≤ dU , maka hasil pengujian tidak dapat disimpulkan.
·         Jika d > 2 dan 4 – d < dL , maka residual bersifat autokorelasi negatif.
·         Jika d > 2 dan 4 – d > dU , maka residual tidak bersifat autokorelasi.
·         Jika d > 2 dan dL ≤ 4 – d ≤ dU , maka hasil pengujian tidak dapat disimpulkan.

2)      Pengujian Autocorrelation Function (ACF) yang menguji adanya autokorelasi pada lag-1, lag-2, lag-3, dan seterusnya. Pada uji ACF, kasus autokorelasi terjadi ketika ada lag pada plot ACF yang keluar batas signifikansi (margin error).

3)      Pengujian Autokorelasi lainnya, seperti: Uji Breusch-Godfrey dan Uji Ljung-Box (gunakan software EVIEWS).
11.  APA KONSEKUENSI DARI ADANYA MASALAH AUTOKORELASI DALAM MODEL ?
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum danstandard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
12.  JELASKAN APA YANG DIMAKSUD DENGAN HETEROSKEDASTISITAS !
Heteroskedatisitas adalah asumsi residual dari model regresi yang memiliki varian tidak konstan. Pada pemeriksaan ini, diharapkan asumsi Heteroskedatisitas tidak terpenuhi karena model regresi linier berganda memiliki asumsi varian residual yang konstan (Homoskedatisitas). Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya.
13.  JELASKAN KENAPA HETEROSKEDASTISITAS TIMBUL !
Penyebab terjadinya kasus heteroskedatisitas adalah:
·         Terdapat kesalahan input komponen/nilai variabel respon pada beberapa prediktor, sehingga pada komponen prediktor yang berbeda memiliki komponen variabel respon yang sama
·         Kasus Heteroskedatisitas terjadi secara alami pada variabel-variabel ekonomi
·         Terdapat pengaruh Heteroskedatisitas pada data time series yang umum terjadi pada variabel-variabel ekonomi yang memiliki volatilitas
·         Adanya Manipulasi Data yang menyebabkan residual data memiliki varian yang sistematik.
14.  BAGAIMANA CARA MENDETEKSI MASALAH HETEROSKEDASTISITAS ?
Berikut diberikan cara-cara mengidentifikasi adanya kasus Heteroskedatisitas:
1.      Dilakukan pemeriksaan denganmetode Grafik, seperti:
·         Pemeriksaan output scatter plot dari variabel respon (y) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
·         Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan variabel prediksi respon (y-hat) pada sumbu-X.
·         Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
2.      Dilakukan pengujian denganmetode Formal, meliputi: Uji Park, Uji Glejser, Uji Goldfeld-Quandt, Uji Breusch-Pagan/Godfrey, dan Uji White
15.  APA KONSEKUENSI DARI ADANYA MASALAH HETEROSKEDASTISITAS DALAM MODEL ?
Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.
16.  JELASKAN APA YANG DIMAKSUD DENGAN MULTIKOLINEARITAS !
Multikolinearitas adalah asumsi yang menunjukkan adanya hubungan linear yang kuat diantara beberapa variabel prediktor dalam suatu model regresi linear berganda. Model regresi yang baik memiliki variabel-variabel prediktor yang independen atau tidak berkorelasi. Pada pengujian asumsi ini, diharapkan asumsi Multikolinieritas tidak terpenuhi.
17.  JELASKAN KENAPA MULTIKOLINEARITAS TIMBUL !
Penyebab terjadinya kasus Multikolinieritas adalah terdapat korelasi atau hubungan linear yang kuat diantara beberapa variabel prediktor yang dimasukkan kedalam model regresi, seperti: variabel-variabel ekonomi yang kebanyakan terkait satu dengan yang lain (intercorrelation).
18.  BAGAIMANA CARA MENDETEKSI MASALAH MULTIKOLINEARITAS?
·         Menghitung dan menguji koefisien korelasi diantara variabel-variabel prediktor. Terjadi kasus Multikolinieritas ketika terdapat korelasi yang kuat (atau signifikan) diantara variabel-variabel prediktor.
·         Mengecek nilai standard errordari masing-masing koefisien regresi [se(β)]. Kasus Multikolinieritas biasanya terjadi ketika nilai standard error dari koefisien regresi membesar, sehingga hasil ini akan cenderung menerima H0 (menyimpulkan bahwa koefisien regresi tidak signifikan) pada pengujian signifikansi parameter/koefisien regresi. Hal ini dapat terjadi, meskipun nilai koefisien regresinya tidak mendekati nol.
·         Menjumpai adanya output pengujian serentak koefisien regresi atau Uji ANOVA atau Uji F yang signifikan, tetapi output pengujian parsial koefisien regresi atau Uji t dari masing-masing variabel prediktor tidak ada yang signifikan.
·         Membandingkan output koefisien regresi dengan koefisien korelasiantara variabel respon dan prediktor. Pertama, kasus Multikolinieritas biasanya terjadi ketika terdapat perubahan hasil pengujian signifikansi pada koefisien regresi dan koefisien korelasi. Kedua, terjadi kasus Multikolinieritas ketika terdapat perubahan tanda koefisien (+/-) pada koefisien regresi dan koefisien korelasi.
·         Melakukan pemeriksaan nilaiVariance Inflation Factor (VIF) dari masing-masing variabel prediktor. Kasus Multikolinieritas terjadi ketika nilai VIFj > 10
19.  APA KONSEKUENSI DARI ADANYA MASALAH MULTIKOLINEARITAS DALAM MODEL?
Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilaistandar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t. Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya
20.  JELASKAN APA YANG DIMAKSUD DENGAN NORMALITAS!
Asumsi Normalitas adalah asumsi residual yang berdistribusi Normal. Asumsi ini harus terpenuhi untuk model regresi linear yang baik. Uji Normalitas dilakukan pada nilai residual model regresi. Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
21.  JELASKAN KENAPA NORMALITAS TIMBUL!
Penyebab terjadinya kasus Normalitas adalah:
·         Terdapat data residual dari model regresi yang memiliki nilai data yang berada jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran datanya menjadi non-Normal.
·         Terdapat kondisi alami dari data yang pada dasarnya tidak berdistribusi Normal atau berdistribusi lain, seperti: distribusi binormal, multinormal, eksponensial, gamma, dll.
22.  BAGAIMANA CARA MENDETEKSI MASALAH NORMALITAS?
Berikut diberikan cara-cara mengidentifikasi adanya kasus Normalitas:
·         Dilakukan pemeriksaan denganmetode Grafik, yaitu pemeriksaan Normalitas dengan output normal P-P plot atau Q-Q plot. Asumsi Normalitas terpenuhi ketika pencaran data residual berada disekitar garis lurus melintang
·         Dilakukan pengujian denganmetode Formal, seperti: pengujian normalitas yang dilakukan melalui uji Kolmogorov-Smirnov, uji Anderson-Darling, uji Shapiro-Wilk, dan uji Jarque-Bera yang mana semua pengujian ini memiliki hipotesis interpretasi, yaitu:
H0 : Residual berdistribusi Normal
H1 : Residual tidak berdistribusi Normal
Asumsi Normalitas terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) lebih besar dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.
23.  APA KONSEKUENSI DARI ADANYA MASALAH NORMALITAS DALAM MODEL?
Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk.
24.  BAGAIMANA CARA MENANGANI JIKA DATA TERNYATA TIDAK NORMAL?
§  Melakukan transformasi variabelterhadap variabel respon (y) dan variabel prediktor (X). Transformasi yang digunakan adalah transformasi ln, akar kuadrat, dan Box-Cox.
§  Menggunakan transformasi pilihan untuk menstimulasi Normalitas[3], yaitu: transformasi ln-skewness (gunakan software STATA) yang dilakukan pada variabel respon (y), kemudian transformasi yang terbentuk diterapkan juga pada variabel prediktornya (X). Ketentuan transformasi ini dilakukan dengan mentransformasikan y dalam ln|y – k| secara iteratif sehingga ditemukan suatu nilai k yang menyebabkan nilai skewness-nya mendekati nol.
§  Menggunakan metode estimasi yang lebih advance, seperti: Regresi dengan pendekatan Bootstrapping, Regresi Nonparametrik, dan Regresi dengan pendekatan Bayessian.


Tidak ada komentar:

Posting Komentar

Bagaimana Cara Mempersiapkan Wawancara Kerja Baik Online Maupun Offline?

Nama               : Feby Anggun Nuralif Kelas                : 4EB07 Mata Kuliah    : Manajemen Sumber Daya Manusia # ...