Una regressione valuta se le variabili predittive spiegano la variabilità di una variabile dipendente. Questa pagina descriverà le domande di ricerca di esempio dell’analisi di regressione, le ipotesi di regressione, la valutazione del R-square (coefficiente di determinazione), il test F, l’interpretazione dei coefficienti beta e l’equazione di regressione.
Esempio di domande a cui risponde un’analisi di regressione:
L’età e il sesso predicono gli atteggiamenti di regolamentazione delle armi?
Le cinque sfaccettature della mindfulness influenzano i punteggi di pace mentale?
Ipotesi:
In primo luogo, l’analisi di regressione è sensibile agli outlier. I valori anomali possono essere identificati standardizzando i punteggi e controllando i punteggi standardizzati per valori assoluti superiori a 3,29. Tali valori possono essere considerati outliers e possono dover essere rimossi dai dati.
In secondo luogo, le principali ipotesi della regressione sono la normalità, l’omoscedasticità e l’assenza di multicollinearità. La normalità può essere valutata esaminando un grafico P-P normale. Se i dati formano una linea retta lungo la diagonale, allora si può assumere la normalità. Per valutare l’omoscedasticità, il ricercatore può creare un grafico di dispersione dei residui standardizzati rispetto ai valori previsti standardizzati. Se il grafico mostra una dispersione casuale, l’ipotesi è soddisfatta. Tuttavia, se la dispersione ha una forma a cono, allora l’ipotesi non è soddisfatta. La multicollinearità può essere valutata calcolando i fattori di inflazione della varianza (VIF). Valori VIF superiori a 10 indicano che la multicollinearità può essere un problema.
F-test
Quando la regressione viene condotta, viene calcolato un valore F e il livello di significatività di quel valore F. Se il valore F è statisticamente significativo (tipicamente p < .05), il modello spiega una quantità significativa di varianza nella variabile risultato.
Valutazione del R-Square
Quando la regressione è condotta, viene calcolata una statistica R2 (coefficiente di determinazione). L’R2 può essere interpretato come la percentuale di varianza nella variabile di risultato che è spiegata dall’insieme delle variabili predittrici.
Valutazione dell’R-Square aggiustato
Il valore R2 aggiustato è il calcolo dell’R2 che è aggiustato in base al numero di predittori nel modello.
Coefficienti beta
Dopo la valutazione del valore F e R2, è importante valutare i coefficienti beta della regressione. I coefficienti beta possono essere negativi o positivi, e hanno un valore t e la significatività del valore t associato a ciascuno. Il coefficiente beta è il grado di cambiamento nella variabile di risultato per ogni 1 unità di cambiamento nella variabile predittiva. Il t-test valuta se il coefficiente beta è significativamente diverso da zero. Se il coefficiente beta non è statisticamente significativo (cioè, il valore t non è significativo), la variabile non predice significativamente il risultato. Se il coefficiente beta è significativo, esaminare il segno del beta. Se il coefficiente beta è positivo, l’interpretazione è che per ogni aumento di 1 unità nella variabile predittiva, la variabile risultato aumenterà del valore del coefficiente beta. Se il coefficiente beta è negativo, l’interpretazione è che per ogni aumento di 1 unità nella variabile predittiva, la variabile di risultato diminuirà del valore del coefficiente beta. Per esempio, se il coefficiente beta è .80 e sono statisticamente significativo, allora per ogni aumento di 1 unità nella variabile predittiva, la variabile risultato aumenterà di .80 unità.
Equazione
Una volta determinato il coefficiente beta, è possibile scrivere un’equazione di regressione. Usando l’esempio e il coefficiente beta di cui sopra, l’equazione può essere scritta come segue:
y= 0,80x + c, dove y è la variabile risultato, x è la variabile predittiva, 0,80 è il coefficiente beta e c è una costante.
*Per assistenza nella conduzione di regressioni o altre analisi quantitative clicca qui.
Pagine correlate:
Regressione lineare
Regressione lineare multipla
Regressione logistica
Regressione ordinale