Articles

¿Qué es la autocorrelación?

Posted on

La autocorrelación es una característica de los datos que muestra el grado de similitud entre los valores de las mismas variables en intervalos de tiempo sucesivos. En este artículo se explica qué es la autocorrelación, los tipos de autocorrelación -autocorrelación positiva y negativa-, así como la forma de diagnosticar y comprobar la autocorrelación.

Cuando se tiene una serie de números, y existe un patrón tal que los valores de la serie pueden predecirse basándose en los valores precedentes de la serie, se dice que la serie de números presenta autocorrelación. Esto también se conoce como correlación serial y dependencia serial. La existencia de autocorrelación en los residuos de un modelo es una señal de que el modelo puede no ser sólido. La autocorrelación se diagnostica utilizando un correlograma (gráfico ACF) y puede probarse utilizando la prueba de Durbin-Watson.

La parte auto de autocorrelación proviene de la palabra griega que significa «yo», y autocorrelación significa datos que están correlacionados consigo mismos, en lugar de estar correlacionados con algunos otros datos. Considere los nueve valores de Y que aparecen a continuación. La columna de la derecha muestra los últimos ocho de estos valores, desplazados «hacia arriba» una fila, con el primer valor eliminado. Cuando correlacionamos estas dos columnas de datos, excluyendo la última observación que tiene valores perdidos, la correlación es de 0,64. Esto significa que los datos están correlacionados consigo mismos (es decir tenemos autocorrelación/correlación serial).

Autocorrelación positiva y negativa

El ejemplo anterior muestra autocorrelación positiva de primer orden, donde el primer orden indica que las observaciones que están a una distancia están correlacionadas, y positivo significa que la correlación entre las observaciones es positiva. Cuando se representan los datos que muestran una correlación de primer orden positiva, los puntos aparecen en una curva suave en forma de serpiente, como la de la izquierda. Con una correlación de primer orden negativa, los puntos forman un patrón en zigzag si se conectan, como se muestra a la derecha.

Autocorrelación positiva y negativa

Autocorrelación positiva y negativa

Diagnosticar la autocorrelación mediante un correlograma

Un correlograma muestra la correlación de una serie de datos consigo misma; también se conoce como gráfico de autocorrelación y gráfico ACF. El correlograma es para los datos mostrados arriba. El desfase se refiere al orden de la correlación. Podemos ver en este gráfico que en el lag 0, la correlación es 1, ya que los datos están correlacionados consigo mismos. A un retardo de 1, la correlación se muestra como alrededor de 0,5 (esto es diferente a la correlación calculada anteriormente, ya que el correlograma utiliza una fórmula ligeramente diferente). También podemos ver que tenemos correlaciones negativas cuando los puntos están separados 3, 4 y 5.

Diagnosticar la autocorrelación utilizando un correlograma

Diagnosticar la autocorrelación utilizando un correlograma

Prueba de autocorrelación

El error de muestreo por sí solo significa que normalmente veremos alguna autocorrelación en cualquier conjunto de datos, por lo que se requiere una prueba estadística para descartar la posibilidad de que el error de muestreo esté causando la autocorrelación. La prueba estándar para ello es la prueba de Durbin-Watson. Esta prueba sólo comprueba explícitamente la correlación de primer orden, pero en la práctica tiende a detectar las formas más comunes de autocorrelación, ya que la mayoría de las formas de autocorrelación presentan algún grado de correlación de primer orden.

Las implicaciones de la autocorrelación

Cuando se detecta autocorrelación en los residuos de un modelo, esto sugiere que el modelo está mal especificado (es decir, en algún sentido es erróneo). Una de las causas es que faltan en el modelo una o varias variables clave. Si los datos se han recogido a lo largo del espacio o del tiempo y el modelo no lo tiene en cuenta explícitamente, es probable que haya autocorrelación. Por ejemplo, si un modelo meteorológico es erróneo en un barrio, es probable que también lo sea en un barrio vecino. La solución es incluir las variables que faltan, o modelar explícitamente la autocorrelación (por ejemplo, utilizando un modelo ARIMA).

La existencia de autocorrelación significa que los errores estándar calculados, y en consecuencia los valores p, son engañosos.

Inscríbase en Displayr

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *