Pengertian Uji Asumsi Klasik dan Jenis-jenisnya beserta dengan Tutorial SPSS (+ Video Tutorial)

Assalamu‘alaikum wr. wb.

Halo gais, Kembali lagi bersama Inzaghi's Blog! Sekarang, kita akan memberikan Rumus-rumus Uji Asumsi Klasik beserta dengan Tutorial pembuatannya di SPSS.



PENGERTIAN DAN RUMUS

Sumber Materi : Gramedia.com

A. Pengertian Uji Asumsi

Uji asumsi pada dasarnya adalah salah satu uji yang digunakan sebagai syarat statistik. Uji asumsi haruslah dipenuhi pada analisis regresi linier berganda serta tidak pada regresi linier sederhana. Analisis yang dimaksud ialah analisis regresi linier berganda dengan basis OLS seperti yang telah dijelaskan sebelumnya.

Melakukan uji asumsi sebelum melakukan uji hipotesis dianggap sebagai salah satu syarat yang harus dilakukan pada penelitian kuantitatif. Jika, hasil dari uji asumsi tidak sesuai dengan hipotesis maka akan timbul bermacam-macam reaksi. Oleh karena itu, melakukan uji asumsi terlebih dahulu adalah hal yang penting dalam penelitian kuantitatif.

Para ahli pun memberikan penjelasan mengenai pengertian dari uji asumsi. Berikut beberapa pengertian yang dikemukakan oleh para ahli mengenai uji asumsi. Menurut Sunjoyo, dkk (2013) uji asumsi merupakan syarat statistik yang harus dipenuhi pada analisis regresi linier ganda dengan basis OLS atau Ordinary Least Square.

Terkadang ketika melakukan uji asumsi, peneliti akan memeroleh data yang tidak sesuai dengan hipotesis sebelumnya, sehingga membuat peneliti merasa kebingungan. Namun, apabila hal tersebut terjadi di lapangan sebaiknya tidak melakukan manipulasi data agar data yang diperoleh sesuai dengan hipotesis. Namun, ada baiknya apabila mengikuti arahan dari para ahli sebagai berikut.

Menurut Azwar (2010) analisis atau uji hipotesis dapat dilakukan tanpa perlu melakukan uji asumsi terlebih dahulu. Apabila hasil dari uji asumsi tidak sesuai dengan apa yang diharapkan peneliti, maka hasil analisisnya tidak akan selalu invalid. Ketika menemui kejadian hal ini, maka lebih baik membiarkan data sebagaimana mestinya dan tidak melakukan manipulasi data yang akhirnya menyebabkan kebohongan data.

B. Jenis-jenis Uji Asumsi

Uji asumsi yang umum digunakan adalah Uji Multikolinieritas, Uji Heteroskedastisitas, Uji Normalitas, Uji Linearitas, Uji Autokorelasi. Dalam setiap uji-uji asumsi tersebut, tidak ada ketentuan khusus mengenai tes mana yang harus didahului atau dipenuhi. Analisis dapat dilakukan bergantung pada data yang tersedia. Contohnya analisis seluruh tes penerimaan klasisk dilakukan, kemudian ada yang atau data yang tidak memenuhi syarat. Maka tes pun akan ditingkatkan dengan tes lebih lanjut usai data-data memenuhi syarat.

Berikut adalah penjelasan dari setiap jenis uji asumsi.

1. Uji Normalitas

Uji Normalitas melibatkan melihat apakah ada atau tidak nilai sisa normal. Model regresi yang baik adalah yang memiliki residual dan berdistribusi normal. Uji normalitas tidak perlu dilakukan untuk setiap variabel, cukup untuk residualnya saja.

Kesalahan umum, khususnya, ketika melakukan Uji Normalitas untuk setiap variabel, meskipun tidak dilarang, model regresi membutuhkan normalitas pada nilai residualnya, bukan variabel pencariannya.

Pemahaman normal juga bisa mirip dengan ruang kelas. Di kelas ada siswa yang tidak pandai matematika, tetapi ada juga siswa yang pandai matematika, tetapi jumlahnya lebih sedikit. Ada juga siswa yang rata-rata dan menjadi mayoritas siswa di kelas. Jika seluruh kelas penuh dengan siswa yang tidak bisa mengerjakan matematika, itu tidak normal. Di depan. Jika suatu kelas penuh dengan siswa yang sangat cerdas, maka ini tidak normal atau bisa disebut kelas atas. Pengamatan pada data normal dapat menghasilkan ekstrim yang rendah dan sangat Ekstrim dan seringkali rata-rata kumulatif. Hal yang sama berlaku untuk rata-rata sarana relatif dan kedekatan.

Uji Normalitas dapat dilakukan dengan tes normal P-Plot, Tes histogram, Tes Chi Square, Tes Kurtosis, Tes Skewness, Tes Kolmogorov-Smirnov. Namun, pengujian normalitas tidak memiliki metode terbaik atau model yang paling cocok.

Biasanya pada saat pengujian dengan menggunakan metode pemetaan sering kali menimbulkan persepsi yang berbeda dari beberapa pengamat. Oleh karena itu, penggunaan uji normalitas dengan uji statistik tidak perlu diragukan lagi, meskipun tidak dapat menjamin bahwa uji statistik akan lebih baik dibandingkan dengan menggunakan metode skematis.

Jika residual abnormal ditemukan tetapi mendekati nilai kritis, metode lain juga dapat digunakan untuk memberikan justifikasi untuk normalisasi. Jika jauh dari nilai normal, data dapat dimodifikasi dengan menambahkan observasi dan menghilangkan outlier. Transformasi juga dapat dilakukan sebagai akar kuadrat, logaritma natural, invers, dan bentuk lainnya tergantung pada apakah kurva normalnya ke kanan, ke kiri, atau ke tengah, dll.

2. Uji Multikolinearitas

Jenis Uji Asumsi yang kedua ialah Uji Multikolinearitas yang dirancang untuk mengetahui apakah terdapat korelasi yang kuat antara variabel independen dengan model regresi linier ganda, apabila ada korelasi tinggi antara variabel independen hubungan dengan variabel independen serta variabel dependen terganggu.

Sebagai contoh, model regresi dengan variabel independen merupakan motivasi, kepemimpin serta kepuasan kerja dengan menggunakan variabel dependen kinerja. Logika sederhananya, apabila model mencari kinerja didasarkan pada dampak motivasi, kepuasan kerja dan kepemimpinan, maka tidak ada korelasi yang tinggi yang terjadi di antara motivasi serta kepemimpinan, motivasi dengan kepuasan kerja maupun antara kepemimpinan dengan kepuasan kerja.

Alat statistik umumnya akan digunakan untuk dapat menguji dari gangguan multikolinieritas, alat yang dimaksud ialah variance inflation factor atau IVD, korelasi pearson antara variabel independen maupun pertimbangan dari nilai eigen serta indeks kondisi.

3. Uji Heteroskedastisitas

Pada Uji Heteroskedastisitas, peneliti dapat memeriksa apakah terdapat perbedaan yang tidak sama antara residu satu dengan pengamatan lainnya. Salah satu model dari regresi adalah model yang memenuhi syarat bahwa ada kesamaan pada varian antara residu satu dengan pengamatan dan lainnya yang disebut pula dengan homoscedasticity.

Dalam uji varians variabel, peneliti dapat memeriksa untuk melihat apakah ada ketidaksamaan antara satu residu dengan residu lainnya. Salah satu model regresi adalah salah satu yang memenuhi persyaratan bahwa ada kesamaan varians antara residual dan observasi dan yang lainnya juga dikenal sebagai varian seragam.

Pembuktian varian variabel dapat dilakukan melalui penggunaan Metode Scatterplot dengan memplot nilai prediksi atau zpred dengan nilai sisa atau sresid. Model yang baik adalah model ketika grafik tidak mengandung pola-pola tertentu, seperti berkumpul di Tengah, memperbesar, menyempit maupun Memperkecil, Tes Glejser, Tes Wei maupun Tes park dapat digunakan pula sebagai tes statistik.

Ada beberapa solusi alternatif yang dapat digunakan apabila model tersebut melanggar asumsi dari heteroskedastisitas adalah dengan mengubah menjadi bentuk-bentuk logaritmik. Alternatif ini dapat diterapkan jika semua data positif, atau jika semua variabel dapat dibagi dengan variabel lain yang mengalami gangguan serupa yaitu gangguan heteroskedastisitas.

4. Uji Autokorelasi

Uji Autokorelasi adalah uji yang dilakukan untuk melihat apakah ada korelasi antara suatu periode waktu dengan periode waktu sebelumnya. Secara sederhana, uji autokorelasi adalah analisis regresi yang mencakup pengujian pengaruh variabel independen terhadap variabel dependen, sehingga tidak ada korelasi antara observasi dengan data observasi sebelumnya.

Uji autokorelasi hanya akan dilakukan pada data time series dan tidak perlu dilakukan pada data cross sectional seperti kuesioner. Di dalamnya, pengukuran semua variabel dapat dilakukan secara bersamaan dalam waktu yang bersamaan. Uji autokorelasi juga diperlukan dengan menggunakan model regresi dalam penelitian pasar saham Indonesia, dimana biasanya jangka waktunya akan lebih dari satu tahun, sehingga perlu dilakukan penelitian dengan uji autokorelasi.

Ada beberapa cara untuk mengatasi masalah autokorelasi, salah satunya adalah dengan memodifikasi data atau mengubah model regresi menjadi kesamaan dan perbedaan. Selain itu, dapat pula dilakukan dengan cara memasukan salah satu variabel lag serta variabel lain yang masih berkaitan menjadi salah satu variabel bebas, sehingga pada akhirnya data observasi pun akan berkurang satu.

5. Uji Linearitas

Uji Linearitas dapat digunakan untuk melihat apakah model yang dibangun memiliki hubungan yang linier. Uji linier ini jarang digunakan karena menurut beberapa penelitian, uji ini biasanya dibangun atas dasar studi teoritis bahwa ada hubungan antara variabel independen dengan dependen yang bersifat linier. Hubungan antara variabel tersebut, secara teoritis tidak memiliki hubungan linier akan tetapi tidak dapat dianalisis dengan menggunakan regresi linier, contohnya adalah seperti masalah elastisitas.

Apabila ada hubungan di antara dua variabel yang belum diketahui apakah hubungan tersebut linier atau tidak, maka Uji Linearitas pun tidak dapat digunakan untuk memberikan adjustment atau penyesuaian bahwa hubungan tersebut memiliki linier atau tidak.

Uji Linearitas dapat digunakan untuk mengkonfirmasi apakah ada linieritas antara dua variabel yang diidentifikasi dalam teori berdasarkan pengamatan penelitian. Uji linieritas juga dapat digunakan dengan melakukan Uji Durbin Watson dan Tes Pengali Lagrange atau Uji Ramsey.

C. Jenis-Jenis Uji Asumsi Pada Regresi Linear

Seperti yang dijelaskan sebelumnya, bahwa uji asumsi merupakan syarat statistik yang harus dipenuhi pada analisis regresi linier ganda dengan basis OLS. Oleh karena itu, Grameds juga harus memahami apa saja sih jenis-jenis uji asumsi pada analisis regresi linier?

Keberadaan regresi linier menjadi syarat maupun asumsi pada regresi linier terbagi menjadi dua macam. Berikut penjelasannya.

1. Uji Asumsi Klasik pada Regresi Linier Sederhana

Ada beberapa hal yang perlu diperhatikan pada uji asumsi klasik regresi linier sederhana antara lain sebagai berikut.
  • Data interval maupun rasio,
  • Linearitas
  • Normalitas
  • Heteroskedastisitas
  • Outlier, serta
  • Auto korelasi yang ada hanya untuk data runtut waktu atau data time series saja.

2. Uji Asumsi Klasik pada Regresi Linier Berganda

Beberapa hal yang perlu diperhatikan pada uji asumsi klasik regresi linier berganda ialah sebagai berikut.
  • Rasio atau data interval
  • Linearitas
  • Heteroskedastisitas
  • Normalitas
  • Outlier
  • Multikollinearitet
  • Auto korelasi yang hanya dapat digunakan untuk runtut waktu atau data time series saja.

Dari kedua jenis pengujian hipotesis regresi linier, apakah perbedaan pengujian hipotesis regresi linier sederhana dan pengujian hipotesis regresi linier berganda? Berikut penjelasannya.

Berdasarkan penjelasan macam Uji Asumsi pada regresi linier, maka dapat disimpulkan bahwa uji asumsi antara regresi linier sederhana dengan regresi linier berganda tidak jauh berbeda. Namun, dapat dilihat bahwa uji asumsi pada regresi linier sederhana dan berganda memiliki perbedaan pada uji multikolinearitas saja, di mana syarat uji tersebut hanya ada dan dapat digunakan pada Uji Asumsi pada regresi linier berganda saja.


TUTORIAL ASUMSI KLASIK SPSS

Sumber Artikel Materi : Mjurnal.com dan Statistikian.com

Dalam analisis regresi linier baik sederhana maupun berganda, diperlukan uji prasyarat / uji asumsi klasik. Uji asumsi klasik ini merupakan salah satu prasyarat agar hasil estimasi model regresi tidak “Bias”.

Sama seperti di Analisis Regresi Korelasi, di sini juga diharuskan mengetik data penelitian pada lembar kerja SPSS atau Copy tabulasi data dari Excel dan Paste pada lembar kerja SPSS seperti gambar di bawah ini. Datanya bisa menggunakan Bilangan Acak seperti =RANDBETWEEN(0;99).

A. Uji Linearitas


Saat kita melakukan Uji Regresi Linear atau Uji Pearson Product moment, kita dihadapkan pada situasi dimana kita perlu melakukan Uji Linearitas, sebab Linearitas merupakan salah satu syarat atau asumsi yang harus dipenuhi.

Linearitas adalah sifat hubungan yang linear antar variabel, yang berarti bahwa setiap perubahan yang terjadi pada satu variabel akan menyebabkan perubahan yang sama besarnya pada variabel lainnya.

1. Menguji Linearitas di SPSS

Ada 2 cara untuk melakukan uji linearitas dengan menggunakan Aplikasi SPSS, yaitu fungsi "Scatter Plot Graph" dan fungsi "Compare Means".

Mari, kita coba cara melakukannya dengan menggunakan Fungsi “Compare Means”.

Buka aplikasi SPSS Anda dan isikan data dengan skala data interval atau numerik pada 2 Variabel yaitu X dan Y. Jika ingin 3 Variabel atau lebih juga boleh, misalnya X1, X2, dan Y. Data tersebut seperti contoh di bawah ini :


Sama seperti sebelumnya, ubah Pecahan Desimal menjadi 0 di bagian "Variable View" pada Pojok Bawah. Selanjutnya, kita klik pada menu "Analyze" lalu pilih "Compare Means --> Means...".


Kemudian, pilih variabel Y sebagai Variabel Dependen (Terikat) dan variabel X1, X2 sebagai Variabel Independen (Bebas) lalu klik Tombol Options dan Centang pada bagian "Test of Linearity" dan "Anova Table and Eta", kemudian klik "OK".


Dan inilah Hasil Output-nya :



2. Interprestasi Linearitas Regresi

Interprestasinya adalah lihat pada Kolom Sig. pada baris Linearity di Table ANOVA, jika nilainya < 0,05 maka bersifat linear sehingga dapat disimpulkan memenuhi syarat linearitas.

Lihat pada output Jika plot-plot yang ada mengikuti garis fit line, maka terdapat hubungan linear.

Metode pengujian grafis ini memberikan interpretasi dan tentu saja kesimpulan yang sangat bervariasi di antara mereka yang melakukan interpretasi, sehingga sangat subyektif. Oleh karena itu, tes ini tidak dianjurkan.

B. Uji Normalitas


Uji Normalitas adalah Uji Statistik yang dilakukan untuk mengetahui bagaimana sebaran sebuah data. Cara Uji Normalitas dengan SPSS dapat dilakukan dengan Uji Shapiro Wilk atau Lilliefors serta Kolmogorov-Smirnov. Selain itu juga bisa dengan metode grafik. Dimana semua Uji Normalitas dengan SPSS di dalam bahasan ini akan kami kupas satu per satu dan coba membuatkan tutorialnya agar Anda mudah memahaminya.

Kali ini akan dibahas 2 Uji Normalitas yang biasa digunakan oleh para peneliti selain uji Kolmogorov-Smirnov. Tes Kolmogorov Smirnov memang yang paling populer, namun dalam praktiknya memiliki kelemahan kecil yaitu dapat diandalkan dalam pengujian dengan sampel besar > 200.

Bagaimana jika sampel kurang dari itu? Dalam SPSS kita bisa menggunakan Shapiro Wilk dan Lilliefors (Adaptasi dan pengembangan dari Uji Kolmogorov Smirnov). Dan bagaimana cara melakukan Uji Shapiro-Wilk dan Lilliefors tersebut dengan SPSS? Kita bisa menggunakan fungsi EXPLORE.

Jika ingin mengunduh (Download) File untuk Uji Normalitas, silakan klik di sini.

1. Tutorial Uji Normalitas dengan SPSS

Silakan isi dataset SPSS Anda seperti contoh di atas. Anda juga bisa isi sembarang angka pada satu variabel yang akan diuji normalitas dengan SPSS. Setelah data terisi pada variabel, klik pada menu "Analyze" lalu pilih "Descriptive Statistics --> Explore...".


Masukkan variabel ke dalam dependen list (Catatan : Apabila dalam variabel Anda terdapat 2 kelompok, misal kelompok A dan B, Anda dapat melakukan uji normalitas pada masing-masing kelompok dengan cara memasukkan variabel yang menjadi Grouping (A dan B atau 1 dan 2) ke kotak Factor List. Tapi, jika variabelnya lebih dari satu, Uji Normalitas-nya terlalu banyak.

Pada Display centang Both. Artinya Anda akan melihat Nilai Statistics dan plot uji normalitas termasuk juga hasil Uji Shapiro Wilk dan Lilliefors. Kemudian, klik pada tombol Plots, Centang Stem-and-Leaf, Histogram, Normality Plots With Tests. Klik tombol "Continue" dan selanjutnya Klik "OK".


Lihat Output Anda dan apabila dalam output view Anda tampil beberapa tabel dan beberapa Gambar atau Diagram, berarti langkah yang Anda lakukan sudah benar.

2. Interprestasi Output Uji Normalitas dengan SPSS

Saatnya kita belajar cara baca Uji Normalitas dengan SPSS yang kiranya akan mudah Anda pahami jika telah mengikuti langkah demi langkah tahapan di atas. Perhatikan tabel di bawah ini ya!


Seperti yang kami janjikan, ada 2 Uji yaitu Shapiro-Wilk dan Lilliefors (Kolmogorov-Smirnov).

a. Shapiro-Wilk

Untuk menentukan apakah Data Anda berdistribusi normal menggunakan Shapiro-Wilk, maka pada SPSS cukup Anda lihat nilai Sig. pada kolom Shapiro-Wilk. Nilai sig itu berarti signifikansi atau boleh disebut p value atau nilai probabilitas. Pada contoh di atas nilainya sebesar 0,710 lebih dari 0,05 (> 0,05), maka dapat dikatakan data berdistribusi Normal atau yang berarti menerima H0.

b. Lilliefors (Kolmogorov-Smirnov)

Hampir sama dengan Shapiro-Wilk di atas, cara interprestasinya adalah dengan melihat nilai Sig. pada kolom Kolmogorov-Smirnov. Pada contoh di atas nilainya 0,200 lebih dari 0,05, maka data berdistribusi Normal atau yang berarti menerima H0.

Dan untuk memperkuat kesimpulan di atas, di bawah ini kita bisa menggunakan beberapa diagram uji normalitas dengan SPSS, yaitu antara lain histogram, stem leaf, normal QQ plot, Detrend QQ Plot dan Box Plot.

c. Histogram


Contoh di atas, membentuk Kurva Normal dan sebagian besar bar/batang berada di bawah kurva, maka variabel berdistribusi normal.

d. Normal QQ Plots


Contoh di atas, plot-plot mengikuti garis fit line, maka variabel berdistribusi normal.

e. Detrend QQ Plots


Contoh di atas, plot-plot tersebar merata di atas dan di bawah garis horizontal, serta garis horizontal tepat berada ditengah diagram, maka variabel berdistribusi normal.

f. Stem-Leaf


Contoh di atas, angka-angka membentuk kurva normal miring ke arah kanan, maka variabel berdistribusi normal.

g. Box-Plot


Contoh di atas, box berada ditengah dengan kedua kaki yang sama panjang, garis horizontal berada ditengah box dan tidak terdapat plot-plot di atas atau di bawah box, maka variabel berdistribusi normal.



Video Tutorial Uji Normalitas dengan SPSS (Shapiro Wilk dan Kolmogorov Smirnov) di YouTube :


C. Uji Heteroskedastisitas


Uji Heteroskedastisitas adalah uji yang menilai apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model Regresi Linear. Uji ini merupakan salah satu dari uji asumsi klasik yang harus dilakukan pada regresi linear. Apabila Asumsi Heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak valid sebagai alat peramalan.


Langkah Pertama, klik pada menu "Analyze" lalu pilih "Regression --> Linear...". Setelah terbuka jendela, Masukkan X1 dan X2 ke kotak Variabel Independent dan masukkan Y ke kotak Variabel Dependent. Caranya sama seperti melakukan Regresi Linear, dan kemudian, klik "OK".


Dan inilah Hasil Signifikansi ANOVA dan Koefisien :


Dari output di atas, maka tampak bahwa ketiga variabel tidak ada Gejala Heteroskedastisitas karena Sig. > 0,05.

D. Uji Multikolinearitas


Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi berganda. Model regresi yang dimaksud dalam hal ini antara lain yaitu Regresi Linear, Regresi Logistik, Regresi Data Panel dan Cox Regression.

Dalam situasi terjadi Multikolinearitas dalam sebuah model regresi berganda, maka nilai koefisien beta dari sebuah variabel bebas atau variabel predictor dapat berubah secara dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh karena itu, Multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya Multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas dalam model regresi.

Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak stabil. Dan pengertian multikolinearitas adalah sesungguhnya terletak pada ada atau tidak adanya korelasi antar variabel bebas.

Penyebab Multikolinearitas adalah adanya korelasi atau hubungan yang kuat antara dua variabel bebas atau lebih, seperti yang sudah dijelaskan di atas. Namun penyebab lainnya yang dapat menyebabkan hal tersebut secara tidak langsung adalah, antara lain :
  1. Penggunaan variabel dummy yang tidak akurat di dalam model regresi. Akan lebih berisiko terjadi Multikolinearitas jika ada lebih dari 1 variabel dummy di dalam model.
  2. Adanya perhitungan sebuah variabel bebas yang didasarkan pada variabel bebas lainnya di dalam model. Hal ini bisa dicontohkan sebagai berikut : Dalam model regresi Anda, ada variabel X1X2 dan Perkalian antara X1 dan X2 (X1*X2). Dalam situasi tersebut bisa dipastikan, terdapat kolinearitas antara X1 dan X1*X2 serta kolinearitas antara X2 dengan X1*X2.
  3. Adanya pengulangan variabel bebas di dalam model, misalkan : .

Dampak dari multikolinearitas antara lain :
  • Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar errornya besar.
  • Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis pada nilai koefisien regresi partial.
  • Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel lainnya.
  • Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat multikolinearitas.

1. Melakukan Uji Multikolinearitas di SPSS

Buat Dataset yang telah kita buat di awal, yaitu 1 Variabel (Y) sebagai Variabel Dependen (Variabel Terikat) dan 2 Variabel (X1, X2) sebagai Variabel Independen (Variabel Bebas).


Selanjutnya sama seperti Regresi Linear, yaitu klik pada menu "Analyze" lalu pilih "Regression --> Linear...". Metode yang dipilih terserah Anda, apakah metode Enter atau metode stepwise, itu tergantung pada model regresi yang akan Anda lakukan terkait dengan pertanyaan-pertanyaan penelitian di dalam metode penelitian Anda. Untuk Variabel Bebas (Independent) dan Variabel Bebas (Dependent), sudah saya jelaskan di atas.

Klik tombol Statistics dan pastikan bahwa Anda mencentang Collinearity Diagnostics dan Descriptive, kemudian tekan tombol Continue. Caranya seperti di bawah ini :


Untuk checklist yang lainnya, terserah Anda apakah akan digunakan atau tidak. Tentunya jika anda menginginkan hasil yang maksimal dalam rangka untuk membuat sebuah model regresi yang BLUE (Best Linear Unbiased estimation), maka Anda harus mencentang semuanya. Oleh karena itu, Anda harus mempelajari juga tentang asumsi klasik Regresi Linear, antara lain Autokorelasi, Heteroskedastisitas, Outlier, Linearitas Regresi dan Normalitas residual pada Regresi Linear.

Jika Anda sudah menyelesaikan prosedur lainnya dalam pengujian di dalam Regresi Linear, maka klik Tombol "OK" pada Jendela Utama SPSS. Dan selanjutnya lihatlah outputnya.

2. Membaca Uji Multikolinearitas di SPSS

Berikut inilah Cara membaca Uji Multikolinearitas di SPSS, dan inilah Hasil dari Uji Multikolinearitas.


a. Tabel Coefficient Regresi



Pada tabel korelasi menunjukkan hasil analisis interkorelasi antara variabel bebas yang ditandai dengan Nilai Koefisien Korelasi Pearson. Dalam hal ini di dalam Output SPSS dapat Anda lihat pada persilangan antar variabel bebas. Misalnya dalam tutorial ini, hasil korelasi antara variabel bebas X1 dengan X2 adalah sebesar r = -0,022. Karena nilai -0,022 tersebut Kurang dari 0,8 (-0,022 < 0,8) maka Gejala Multikolinearitas Tidak Terdeteksi. Selanjutnya akan kita pastikan dengan melihat cara deteksi multikolinearitas lainnya, yaitu berdasarkan nilai Standar Error dan Koefisien Beta Regresi Parsial. Lihat di bawah ini :


Dalam Tabel Coefficient dapat Anda perhatikan bahwa nilai Standard Error kurang dari satu yaitu X1 = 0,1 dan X2 = 0,09 dimana keduanya kurang dari satu (< 1). Serta nilai koefisien beta juga kurang dari satu dimana X1 = 0,009 dan X2 = -0,11. Maka dapat dikatakan bahwa Nilai Standar Error Rendah dan Multikolinearitas Tidak terdeteksi. Selanjutnya pastikan lagi dengan nilai rentang Upper dan Lower Bound Confidence Interval, apakah lebar atau sempit. Berikut, inilah hasilnya :



Perhatikan pada tabel coefficient di atas, bahwa Nilai Rentangnya sempit, yaitu pada X1 = 1 (Tolerance) sama dengan 1 (VIF). Sedangkan pada X2 juga kebetulan hasilnya sama yaitu X2 = 1 sama dengan 1. Karena rentangnya sempit maka Multikolinearitas Tidak terdeteksi.

b. Deteksi Multikolinearitas dengan Nilai VIF dan Tolerance Dalam Regresi

Pada tabel yang sama di atas sebagai hasil uji regresi linear, perhatikan nilai VIF dan Tolerance. Kedua ini adalah indikasi kuat yang sering dipakai oleh para peneliti untuk menyimpulkan fenomena terjadinya interkorelasi variabel bebas. Jika nilai VIF kurang dari 10 (VIF < 10) dan atau nilai Tolerance lebih dari 0,01 (Tolerance > 0,01) maka dapat disimpulkan dengan tegas bahwa tidak terdapat masalah multikolinearitas. Dan sebaliknya maka dapat disimpulkan dengan tegas pula bahwa multikolinearitas telah terjadi dalam model. Selanjutnya yang terakhir di dalam output proses yang sudah kita lakukan, kita perhatikan nilai dari Collinearity Diagnostics seperti di bawah ini :


c. Deteksi Multikolinearitas dengan Eigenvalue dan Condition Index

Pada tabel Collinearity Diagnostics di atas sebagai hasil uji regresi linear, kita perhatikan juga nilai eigenvalue dan condition index. Jika Eigenvalue lebih dari 0,01 (Eigenvalue > 0,01) dan atau Condition Index kurang dari 30 (Con idx. < 30), maka berdasarkan eigenvalue dan condition index, dapat disimpulkan bahwa Gejala Multikolinearitas terjadi di dalam model regresi. Data SPSS diatas, nilai Eigenvalue 0,092 > 0,01 dan Collinearity Diagnostics 5,365 dimana kurang dari 30.

Jadi, Kesimpulannya adalah tidak terdapat masalah Multikolinearitas berdasarkan beberapa indikator terutama VIF dan Tolerance, walaupun berdasarkan Condition Index dan Eigenvalue terdapat multikolinearitas. Sehingga hasil pengujian dikatakan reliabel atau terpercaya. Maka nilai koefisien regresi parsial dikatakan handal dan robust atau kebal terhadap perubahan-perubahan yang terjadi pada variabel lainnya di dalam model regresi berganda.

E. Uji Autokorelasi


Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu. Oleh karena itu, apabila Asumsi Autokorelasi terjadi pada sebuah model prediksi, maka nilai disturbance tidak lagi berpasangan secara bebas, melainkan berpasangan secara Autokorelasi. Dalam kesempatan ini, kita hanya akan fokus pada tutorial Uji Autokorelasi dengan SPSS. Namun prinsip penting lainnya tetap akan kami bahas secara singkat dan padat serta mudah dipahami.

Uji Autokorelasi di dalam model regresi linear, harus dilakukan apabila data merupakan data time series atau runtut waktu. Sebab yang dimaksud dengan Autokorelasi sebenarnya adalah: sebuah nilai pada sampel atau observasi tertentu sangat dipengaruhi oleh nilai observasi sebelumnya.

Uji Autokorelasi dengan SPSS adalah menggunakan metode uji Durbin Watson. Dimana pada artikel sebelumnya telah kita bahas, bahwa ada berbagai metode pengujian untuk mendeteksi adanya masalah atau Asumsi Autokorelasi, antara lain :
  1. Uji Durbin Watson
  2. Uji Breucsh Godfrey
  3. Uji Durbin Watson H
  4. The Engle’s ARCH Test

1. Tutorial Uji Autokorelasi (Durbin-Watson) dengan SPSS

Caranya juga hampir sama seperti Uji Regresi Linear dan Uji Multikolinearitas, siapkan Data yang telah kita sediakan. Kemudian, aturlah Variabel Dependen (Variabel Terikat) dan 2 Variabel (X1, X2) sebagai Variabel Independen (Variabel Bebas).


Kemudian, Centang pada bagian "Part and Partial Correlations" dan "Collinearity diagnostics", ini untuk Uji Multikolinearitas. Selanjutnya, Centang Durbin-Watson untuk melakukan Uji Autokorelasi. Klik Tombol "Continue" dan klik lagi pada Tombol "OK" untuk menampilkan Uji Autokolerasi di SPSS.

Selanjutnya pada jendela utama, Anda tekan tombol OK. Dan selanjutnya silakan lihat Output hasil pengujian SPSS. Tampilannya adalah sebagai berikut, dimana tepatnya adalah pada Tabel Summary.


Perhatikan di atas, nilai Durbin Watson pada tabel summary tersebut adalah nilai Durbin Watson hitung yang nantinya akan Anda bandingkan dengan nilai Durbin Watson (DW) Tabel, baik nilai DU (Durbin Upper) maupun nilai DL (Durbin Lower).

2. Cara membaca Nilai DW dengan SPSS

Dalam kesempatan ini kami juga akan menjelaskan cara membaca autokorelasi negatif dan positif. Cara menentukan atau kriteria pengujian autokorelasi berdasarkan nilai DW adalah sebagai berikut :

Deteksi Autokorelasi Positif :
  • Jika dw < dL maka terdapat autokorelasi positif,
  • Jika dw > dU maka tidak terdapat autokorelasi positif,
  • Jika dL < dw < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.

Deteksi Autokorelasi Negatif :
  • Jika (4 – dw) < dL maka terdapat autokorelasi negatif,
  • Jika (4 – dw) > dU maka tidak terdapat autokorelasi negatif,
  • Jika dL < (4 – dw) < dU maka pengujian tidak meyakinkan atau tidak dapat disimpulkan.

[Selengkapnya, silakan baca dan lihat di sini.]


Video Tutorial Uji Homogenitas dengan SPSS di YouTube :



Jika ingin mengunduh (Download) SPSS secara Gratis, silakan klik di sini (Google Drive). Dan jika ingin melihat dan mengunduh (Download) File Excel Tabel Distribusi Z, T, dan F, silakan lihat di sini. Dan untuk mengunduh (Download) Tabel R, silakan lihat di sini. Atau, jika ingin melihat dan mengunduh (Download) Tabel Durbin-Watson, silakan lihat di sini.

Semoga bermanfaat bagi Mahasiswa Informatika, Statistika, Matematika, Aktuaria, dan lainnya yang mempelajari Statistik!

Terima Kasih 😄😘👌👍 :)

Wassalamu‘alaikum wr. wb.

Post a Comment

Previous Post Next Post