Uma regressão avalia se as variáveis preditoras são responsáveis pela variabilidade de uma variável dependente. Esta página irá descrever exemplos de análise de regressão, questões de pesquisa, hipóteses de regressão, a avaliação do quadrado R (coeficiente de determinação), o teste F, a interpretação do(s) coeficiente(s) beta, e a equação de regressão.
P>Perguntas de exemplo respondidas por uma análise de regressão:
P>Atitudes de regulação de armas de fogo predizem a idade e o sexo?
As cinco facetas da atenção influenciam a pontuação da paz de espírito?
Premissas:
P>Primeiro, a análise de regressão é sensível aos valores anómalos. Os outliers podem ser identificados através da padronização das pontuações e da verificação das pontuações padronizadas para valores absolutos superiores a 3,29. Tais valores podem ser considerados aberrantes e podem ter de ser removidos dos dados.
Segundo, os principais pressupostos da regressão são a normalidade, homocedasticidade, e ausência de multicolinearidade. A normalidade pode ser avaliada através do exame de um gráfico P-P normal. Se os dados formarem uma linha recta ao longo da diagonal, então a normalidade pode ser assumida. Para avaliar a homoscedasticidade, o investigador pode criar um gráfico de dispersão de resíduos padronizados versos padronizados de valores previstos. Se o gráfico mostrar dispersão aleatória, a suposição é cumprida. No entanto, se a dispersão tiver uma forma de cone, então a suposição não é cumprida. A multicolinearidade pode ser avaliada por factores de inflação de variância calculada (VIFs). Valores VIF superiores a 10 indicam que a multicolinearidade pode ser um problema.
teste F
Quando a regressão é conduzida, um valor F, e o nível de significância desse valor F, é calculado. Se o valor F for estatisticamente significativo (tipicamente p < .05), o modelo explica uma quantidade significativa de variância na variável de resultado.
Avaliação do quadrado R
Quando a regressão é conduzida, é calculada uma estatística R2 (coeficiente de determinação). O R2 pode ser interpretado como a percentagem de variância na variável de resultado que é explicada pelo conjunto de variáveis preditoras.
Avaliação do Quadrado R Ajustado
O valor R2 ajustado é o cálculo do R2 que é ajustado com base no número de preditores no modelo.
Coeficientes Beta
Após a avaliação do valor F e R2, é importante avaliar os coeficientes beta da regressão. Os coeficientes beta podem ser negativos ou positivos, e têm um valor t e significado do valor t associado a cada um deles. O coeficiente beta é o grau de mudança na variável de resultado para cada 1-unidade de mudança na variável de previsão. O teste t avalia se o coeficiente beta é significativamente diferente de zero. Se o coeficiente beta não for estatisticamente significativo (ou seja, o valor t não é significativo), a variável não prevê significativamente o resultado. Se o coeficiente beta for significativo, examinar o sinal do beta. Se o coeficiente beta for positivo, a interpretação é que para cada aumento de 1 unidade na variável predizidora, a variável de resultado aumentará pelo valor do coeficiente beta. Se o coeficiente beta for negativo, a interpretação é que para cada aumento de 1-unidade na variável preditor, a variável de resultado irá diminuir pelo valor do coeficiente beta. Por exemplo, se o coeficiente beta for .80 e I estatisticamente significativo, então para cada aumento de 1-unidade na variável preditor, a variável de resultado aumentará .80 unidades.
Equação
Após o coeficiente beta ser determinado, então uma equação de regressão pode ser escrita. Utilizando o exemplo e o coeficiente beta acima, a equação pode ser escrita da seguinte forma:
y= 0,80x + c, onde y é a variável de resultado, x é a variável preditor, 0,80 é o coeficiente beta, e c é uma constante.
*Para assistência na realização de regressões ou outras análises quantitativas clique aqui.
Páginas relacionadas:
p>Regressão linear
Regressão linear múltipla
Regressão logística
Regressão ordinal