Articles

Régression

Posted on

Une régression permet d’évaluer si les variables prédictives expliquent la variabilité d’une variable dépendante. Cette page décrira les exemples de questions de recherche de l’analyse de régression, les hypothèses de régression, l’évaluation du R-carré (coefficient de détermination), le test F, l’interprétation du ou des coefficients bêta et l’équation de régression.

Exemples de questions auxquelles répond une analyse de régression :

L’âge et le sexe permettent-ils de prédire les attitudes en matière de réglementation des armes à feu ?

Les cinq facettes de la pleine conscience influencent-elles les scores de tranquillité d’esprit ?

Hypothèses :

Premièrement, l’analyse de régression est sensible aux valeurs aberrantes. Les valeurs aberrantes peuvent être identifiées en normalisant les scores et en vérifiant que les scores normalisés ne présentent pas de valeurs absolues supérieures à 3,29. De telles valeurs peuvent être considérées comme aberrantes et doivent être retirées des données.

Deuxièmement, les principales hypothèses de régression sont la normalité, l’homoscédasticité et l’absence de multicollinéarité. La normalité peut être évaluée en examinant un graphique P-P normal. Si les données forment une ligne droite le long de la diagonale, la normalité peut être supposée. Pour évaluer l’homoscédasticité, le chercheur peut créer un diagramme de dispersion des résidus standardisés par rapport aux valeurs prédites standardisées. Si le graphique montre une dispersion aléatoire, l’hypothèse est satisfaite. Cependant, si la dispersion a une forme conique, alors l’hypothèse n’est pas satisfaite. La multicolinéarité peut être évaluée par le calcul des facteurs d’inflation de la variance (VIF). Des valeurs VIF supérieures à 10 indiquent que la multicollinéarité peut être un problème.

Test F

Lorsque la régression est effectuée, une valeur F, et le niveau de signification de cette valeur F, sont calculés. Si la valeur F est statistiquement significative (généralement p < 0,05), le modèle explique une quantité significative de variance dans la variable de résultat.

Évaluation du R-carré

Lorsque la régression est effectuée, une statistique R2 (coefficient de détermination) est calculée. Le R2 peut être interprété comme le pourcentage de variance de la variable de résultat qui est expliqué par l’ensemble des variables prédictives.

Evaluation du R-carré ajusté

La valeur du R2 ajusté est le calcul du R2 qui est ajusté en fonction du nombre de prédicteurs dans le modèle.

Coefficients bêta

Après l’évaluation de la valeur F et du R2, il est important d’évaluer les coefficients bêta de la régression. Les coefficients bêta peuvent être négatifs ou positifs, et ont une valeur t et une signification de la valeur t associée à chacun. Le coefficient bêta est le degré de changement de la variable de résultat pour chaque unité de changement de la variable prédictive. Le test t permet de déterminer si le coefficient bêta est significativement différent de zéro. Si le coefficient bêta n’est pas statistiquement significatif (c’est-à-dire que la valeur t n’est pas significative), la variable ne prédit pas significativement le résultat. Si le coefficient bêta est significatif, examinez le signe du bêta. Si le coefficient bêta est positif, l’interprétation est que pour chaque augmentation d’une unité de la variable prédictive, la variable de résultat augmentera de la valeur du coefficient bêta. Si le coefficient bêta est négatif, l’interprétation est la suivante : pour chaque augmentation d’une unité de la variable prédictive, la variable de résultat diminuera de la valeur du coefficient bêta. Par exemple, si le coefficient bêta est de 0,80 et que je suis statistiquement significatif, alors pour chaque augmentation d’une unité de la variable prédicteur, la variable de résultat augmentera de 0,80 unité.

Equation

Une fois que le coefficient bêta est déterminé, alors une équation de régression peut être écrite. En utilisant l’exemple et le coefficient bêta ci-dessus, l’équation peut être écrite comme suit :

y= 0,80x + c, où y est la variable de résultat, x est la variable prédictive, 0,80 est le coefficient bêta et c est une constante.

*Pour obtenir de l’aide pour effectuer des régressions ou d’autres analyses quantitatives, cliquez ici.

Pages associées :

Régression linéaire
Régression linéaire multiple
Régression logistique
Régression ordinale

.

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *