Regresja ocenia, czy zmienne predykcyjne odpowiadają za zmienność zmiennej zależnej. Na tej stronie opiszemy przykładowe pytania badawcze dotyczące analizy regresji, założenia regresji, ocenę współczynnika determinacji (R-kwadrat), test F, interpretację współczynnika (współczynników) beta oraz równanie regresji.
Przykładowe pytania, na które odpowiada analiza regresji:
Czy wiek i płeć przewidują postawy związane z regulacjami dotyczącymi broni?
Czy pięć aspektów uważności wpływa na wyniki dotyczące spokoju umysłu?
Założenia:
Po pierwsze, analiza regresji jest wrażliwa na wartości odstające. Wartości odstające mogą być zidentyfikowane poprzez standaryzację wyników i sprawdzenie, czy wartości bezwzględne wyników standaryzowanych nie przekraczają 3,29. Takie wartości mogą być uważane za wartości odstające i mogą wymagać usunięcia z danych.
Po drugie, główne założenia regresji to normalność, homoscedastyczność i brak wieloliniowości. Normalność można ocenić poprzez zbadanie normalnego wykresu P-P. Jeśli dane tworzą linię prostą wzdłuż przekątnej, wówczas można założyć normalność. Aby ocenić homoscedastyczność, badacz może stworzyć wykres rozrzutu standaryzowanych reszt w stosunku do standaryzowanych wartości przewidywanych. Jeśli wykres pokazuje rozrzut losowy, założenie jest spełnione. Jednakże, jeśli rozrzut ma kształt stożka, to założenie nie jest spełnione. Wieloliniowość może być oceniana poprzez obliczanie współczynników inflacji wariancji (VIF). Wartości VIF wyższe niż 10 wskazują, że problemem może być wieloliniowość.
Test F
Po przeprowadzeniu regresji obliczana jest wartość F i poziom istotności tej wartości F. Jeżeli wartość F jest statystycznie istotna, to jest ona obliczana na podstawie wartości F i poziomu istotności. Jeśli wartość F jest statystycznie istotna (zazwyczaj p < .05), model wyjaśnia znaczącą ilość wariancji w zmiennej wynikowej.
Ocena R-kwadrat
Gdy regresja jest przeprowadzana, obliczana jest statystyka R2 (współczynnik determinacji). R2 można interpretować jako procent wariancji w zmiennej wynikowej, która jest wyjaśniona przez zestaw zmiennych predyktorów.
Ocena skorygowanego R-kwadratu
Korygowana wartość R2 jest obliczaniem R2, które jest dostosowane w oparciu o liczbę predyktorów w modelu.
Współczynniki beta
Po ocenie wartości F i R2, ważne jest, aby ocenić współczynniki beta regresji. Współczynniki beta mogą być ujemne lub dodatnie i mają wartość t oraz istotność t związaną z każdym z nich. Współczynnik beta to stopień zmiany w zmiennej wynikowej na każdą 1 jednostkę zmiany w zmiennej predykcyjnej. Test t ocenia, czy współczynnik beta jest znacząco różny od zera. Jeśli współczynnik beta nie jest statystycznie istotny (tj. wartość t nie jest znacząca), zmienna nie przewiduje w sposób znaczący wyniku. Jeśli współczynnik beta jest znaczący, należy zbadać znak współczynnika beta. Jeśli współczynnik beta jest dodatni, interpretacja jest taka, że dla każdego 1-jednostkowego wzrostu zmiennej przewidywanej, zmienna wynikowa wzrośnie o wartość współczynnika beta. Jeśli współczynnik beta jest ujemny, interpretacja jest taka, że dla każdego 1-jednostkowego wzrostu zmiennej predyktora, zmienna wyniku zmniejszy się o wartość współczynnika beta. Na przykład, jeśli współczynnik beta wynosi .80 i jest statystycznie istotny, to dla każdego 1-jednostkowego wzrostu zmiennej przewidywanej, zmienna wynikowa wzrośnie o .80 jednostek.
Equation
Po określeniu współczynnika beta można napisać równanie regresji. Używając przykładu i współczynnika beta powyżej, równanie można zapisać w następujący sposób:
y= 0.80x + c, gdzie y jest zmienną wyniku, x jest zmienną przewidywaną, 0.80 jest współczynnikiem beta, a c jest stałą.
* Aby uzyskać pomoc w przeprowadzaniu regresji lub innych analiz ilościowych, kliknij tutaj.
Powiązane strony:
Regresja liniowa
Regresja wieloraka liniowa
Regresja logistyczna
Regresja pierwotna