Analisis Regresi Linier Berganda: Tata Cara dan Asumsi
Regresi linier berganda atau multiple linear regression (MLR) merupakan salah satu teknik statistik yang digunakan untuk menganalisis hubungan antara dua atau lebih variabel independen dengan satu variabel dependen. Teknik ini merupakan pengembangan dari regresi linier sederhana dengan memperluas model persamaan garis lurus menjadi polinomial.
Outline Artikel
Apa itu
Regresi Linier Berganda?
Regresi
linier berganda adalah teknik statistik yang digunakan untuk menguji hubungan
antara satu variabel dependen dan dua atau lebih variabel independen. Regresi
linier berganda juga dikenal dengan sebutan multiple regression analysis atau
multiple linear regression (MLR). Teknik ini dapat digunakan untuk menguji
seberapa besar pengaruh variabel-variabel independen terhadap variabel dependen,
serta untuk memprediksi nilai variabel dependen ketika nilai variabel
independen berubah.
Pada regresi
linier berganda, persamaan garis lurus digunakan untuk memodelkan hubungan
antara variabel independen dan variabel dependen. Persamaan regresi linier
berganda dapat ditulis sebagai:
Y = b0 +
b1X1 + b2X2 + ... + bkXk + e
Di mana Y
adalah variabel dependen, X1 hingga Xk adalah variabel independen, b0 hingga bk
adalah koefisien regresi yang menunjukkan besarnya pengaruh variabel independen
terhadap variabel dependen, dan e adalah kesalahan residual.
Tata Cara Perhitungan Regresi Linier Berganda (RLB)
Regresi
linier berganda adalah teknik statistik yang digunakan untuk menemukan hubungan
linear antara lebih dari dua variabel. Metode ini sangat umum digunakan dalam
analisis data di berbagai bidang, seperti ekonomi, keuangan, dan ilmu sosial.
RLB memungkinkan untuk memprediksi nilai variabel dependen berdasarkan beberapa
variabel independen yang dipilih.
Tata cara perhitungan RLB melibatkan beberapa langkah penting, seperti menentukan variabel independen yang akan digunakan, menghitung koefisien regresi, uji asumsi, dan menginterpretasikan hasilnya. Perhitungan RLB biasanya dilakukan menggunakan software statistik seperti SPSS, namun pemahaman yang baik tentang tata cara perhitungan RLB akan membantu peneliti untuk memahami hasil yang dihasilkan dari software tersebut. Oleh karena itu, dalam artikel ini akan dijelaskan tata cara perhitungan RLB secara rinci, langkah demi langkah, sehingga pembaca dapat memahami cara kerja metode ini dan menerapkannya dengan benar pada analisis data mereka.
berikut ini adalah tata cara perhitungan untuk mendapatkan koefisien regresi β0, β1, β2, dan seterusnya pada regresi linier berganda:
- Ambil data yang akan dianalisis, terdiri dari dua atau lebih variabel independen (x1, x2, dst.) dan satu variabel dependen (y).
- Hitung rata-rata dari masing-masing variabel independen (x̄1, x̄2, dst.) dan variabel dependen (ȳ).
- Hitung nilai SS (sum of squares) dari masing-masing variabel independen dan dependen. SS dihitung sebagai Σ(xi - x̄)² untuk variabel independen dan Σ(yi - ȳ)² untuk variabel dependen.
- Hitung nilai covariasi antara variabel independen dan variabel dependen (cov(x1, y), cov(x2, y), dst.). Covariasi dihitung sebagai Σ((xi - x̄)(yi - ȳ)).
- Hitung nilai SS total (SST), yaitu jumlah total SS untuk semua variabel.
- Hitung nilai SS residual (SSR) menggunakan persamaan SSR = SST - (SS1 + SS2 + ... + SSp), dengan p adalah jumlah variabel independen.
- Hitung matriks X dengan matriks desain yang terdiri dari variabel independen dan koefisien konstanta (1) pada setiap baris. Matriks X memiliki dimensi n x (p+1), dengan n adalah jumlah data dan p adalah jumlah variabel independen.
- Hitung matriks transpos X (X') dengan membalik baris dan kolom dari matriks X.
- Hitung matriks X'X dengan mengalikan matriks transpos X dengan matriks X.
- Hitung matriks X'y dengan mengalikan matriks transpos X dengan vektor kolom y, yang terdiri dari nilai-nilai variabel dependen.
- Hitung matriks koefisien β dengan persamaan β = (X'X)^(-1) X'y, di mana "^(-1)" menunjukkan inverse dari matriks X'X.
- Setelah nilai β ditemukan, gunakan persamaan regresi linier berganda untuk memprediksi nilai variabel dependen (y) berdasarkan nilai-nilai variabel independen (x1, x2, dst.), yaitu y = β0 + β1x1 + β2x2 + ... + βpxp.
Dengan cara ini, kita dapat menghitung koefisien regresi
untuk regresi linier berganda dan menggunakan persamaan regresi untuk
memprediksi nilai variabel dependen yang tidak diketahui berdasarkan
nilai-nilai variabel independen.
Asumsi Regresi Linier Berganda (RLB)
Regresi
Linier Berganda (RLB) adalah salah satu teknik analisis regresi yang sering
digunakan dalam ilmu statistik. Seperti halnya Regresi Linier Sederhana,
Regresi Linier Berganda juga memiliki beberapa asumsi yang perlu dipenuhi agar
hasil analisis yang diperoleh menjadi akurat dan valid. Asumsi tersebut
meliputi linearitas, normalitas, heteroskedastisitas, dan autokorelasi. Selain
keempat asumsi tersebut, Regresi Linier Berganda memiliki satu asumsi tambahan
yaitu Multikolinieritas.
Berikut adalah penjelasan untuk masing-masing asumsi pada Regresi Linier Berganda (RLB):
Linearitas
Asumsi ini
mengimplikasikan bahwa hubungan antara variabel independen dan dependen
bersifat linier atau garis lurus. Hal ini dapat diuji dengan plot scatter
diagram dan menilai apakah plotnya menunjukkan pola garis lurus atau tidak.
Normalitas
Asumsi ini
mengimplikasikan bahwa nilai residual atau selisih antara nilai observasi
aktual dan nilai prediksi regresi bergolong normal atau simetris. Hal ini dapat
diuji dengan plot Q-Q (quantile-quantile) normal atau uji statistik seperti uji
Shapiro-Wilk atau uji Kolmogorov-Smirnov.
Heteroskedastisitas
Asumsi ini
mengimplikasikan bahwa nilai residual memiliki variansi yang konstan, artinya
tidak ada pola yang jelas dalam sebaran residual sepanjang rentang nilai
prediksi variabel independen. Hal ini dapat diuji dengan plot residual vs.
nilai prediksi atau uji statistik seperti uji White atau uji Breusch-Pagan.
Autokorelasi
Asumsi ini
mengimplikasikan bahwa nilai residual tidak saling berkorelasi atau tidak ada
pola tertentu dalam hubungan antara nilai residual di masa sekarang dan masa
lalu. Hal ini dapat diuji dengan plot residual vs. waktu atau uji statistik
seperti uji Durbin-Watson atau uji Breusch-Godfrey.
Multikolinieritas
Asumsi ini
mengimplikasikan bahwa tidak ada hubungan linier yang kuat antara variabel
independen yang satu dengan yang lain, artinya tidak ada variabel independen
yang dapat dijelaskan oleh kombinasi linier dari variabel independen lainnya.
Hal ini dapat diuji dengan menghitung nilai VIF (variance inflation factor)
untuk setiap variabel independen. Nilai VIF yang tinggi menunjukkan adanya
multikolinieritas.
Posting Komentar untuk "Analisis Regresi Linier Berganda: Tata Cara dan Asumsi"