Una regresión evalúa si las variables predictoras explican la variabilidad de una variable dependiente. Esta página describirá preguntas de investigación de ejemplo de análisis de regresión, supuestos de regresión, la evaluación del R-cuadrado (coeficiente de determinación), la prueba F, la interpretación de los coeficientes beta y la ecuación de regresión.
Ejemplos de preguntas a las que responde un análisis de regresión:
¿La edad y el género predicen las actitudes de regulación de armas?
¿Influyen las cinco facetas de la atención plena en las puntuaciones de paz mental?
Supuestos:
En primer lugar, el análisis de regresión es sensible a los valores atípicos. Los valores atípicos pueden identificarse estandarizando las puntuaciones y comprobando que las puntuaciones estandarizadas no tengan valores absolutos superiores a 3,29. Tales valores pueden considerarse atípicos y puede ser necesario eliminarlos de los datos.
En segundo lugar, los principales supuestos de la regresión son la normalidad, la homocedasticidad y la ausencia de multicolinealidad. La normalidad puede evaluarse examinando un gráfico P-P normal. Si los datos forman una línea recta a lo largo de la diagonal, se puede asumir la normalidad. Para evaluar la homocedasticidad, el investigador puede crear un gráfico de dispersión de los residuos estandarizados frente a los valores predichos estandarizados. Si el gráfico muestra una dispersión aleatoria, se cumple el supuesto. Sin embargo, si la dispersión tiene forma de cono, entonces no se cumple el supuesto. La multicolinealidad puede evaluarse mediante el cálculo de los factores de inflación de la varianza (VIF). Los valores de VIF superiores a 10 indican que la multicolinealidad puede ser un problema.
Prueba F
Cuando se lleva a cabo la regresión, se calcula un valor F, y el nivel de significación de ese valor F. Si el valor F es estadísticamente significativo (normalmente p < .05), el modelo explica una cantidad significativa de varianza en la variable de resultado.
Evaluación del R-cuadrado
Cuando se realiza la regresión, se calcula un estadístico R2 (coeficiente de determinación). El R2 puede interpretarse como el porcentaje de varianza en la variable de resultado que se explica por el conjunto de variables predictoras.
Evaluación del R-cuadrado ajustado
El valor R2 ajustado es el cálculo del R2 que se ajusta en función del número de predictores en el modelo.
Coeficientes beta
Después de la evaluación del valor F y del R2, es importante evaluar los coeficientes beta de la regresión. Los coeficientes beta pueden ser negativos o positivos, y tienen un valor t y la significación del valor t asociados a cada uno. El coeficiente beta es el grado de cambio en la variable de resultado por cada 1 unidad de cambio en la variable de predicción. La prueba t evalúa si el coeficiente beta es significativamente diferente de cero. Si el coeficiente beta no es estadísticamente significativo (es decir, el valor t no es significativo), la variable no predice significativamente el resultado. Si el coeficiente beta es significativo, examine el signo de la beta. Si el coeficiente beta es positivo, la interpretación es que por cada aumento de 1 unidad en la variable predictora, la variable de resultado aumentará en el valor del coeficiente beta. Si el coeficiente beta es negativo, la interpretación es que por cada aumento de 1 unidad en la variable de predicción, la variable de resultado disminuirá en el valor del coeficiente beta. Por ejemplo, si el coeficiente beta es 0,80 y es estadísticamente significativo, entonces por cada aumento de 1 unidad en la variable predictora, la variable de resultado aumentará en 0,80 unidades.
Ecuación
Una vez determinado el coeficiente beta, se puede escribir una ecuación de regresión. Utilizando el ejemplo y el coeficiente beta anterior, la ecuación se puede escribir de la siguiente manera:
y= 0,80x + c, donde y es la variable de resultado, x es la variable de predicción, 0,80 es el coeficiente beta y c es una constante.
*Para obtener ayuda con la realización de regresiones u otros análisis cuantitativos, haga clic aquí.
Páginas relacionadas:
Regresión lineal
Regresión lineal múltiple
Regresión logística
Regresión ordinal