{"id":1054,"date":"2026-03-26T11:28:09","date_gmt":"2026-03-26T09:28:09","guid":{"rendered":"https:\/\/blog.uclm.es\/miguelangeltarancon\/?p=1054"},"modified":"2026-03-26T11:28:09","modified_gmt":"2026-03-26T09:28:09","slug":"autocorrelacion-en-el-modelo-de-regresion-lineal-el-precio-de-ignorar-el-pasado-y-tomar-muchos-cafes","status":"publish","type":"post","link":"https:\/\/blog.uclm.es\/miguelangeltarancon\/2026\/03\/26\/autocorrelacion-en-el-modelo-de-regresion-lineal-el-precio-de-ignorar-el-pasado-y-tomar-muchos-cafes\/","title":{"rendered":"Autocorrelaci\u00f3n en el modelo de regresi\u00f3n lineal: el precio de ignorar el pasado (y tomar muchos caf\u00e9s\u2026)"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-1024x572.jpg\" alt=\"\" class=\"wp-image-1055\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-1024x572.jpg 1024w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-300x167.jpg 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-768x429.jpg 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-1536x857.jpg 1536w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/Auto_correlacion-2048x1143.jpg 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><strong>El departamento que no olvidaba.<\/strong><\/p>\n\n\n\n<p>Imagina un departamento universitario mod\u00e9lico, de una universidad centenaria y con lustre. Tiene presupuesto de investigaci\u00f3n \u2014variable <strong>x\u2081<\/strong>\u2014, consume caf\u00e9 en cantidades razonablemente escandalosas \u2014variable <strong>x\u2082<\/strong>\u2014, y produce art\u00edculos cient\u00edficos en proporci\u00f3n a ambas cosas. La relaci\u00f3n es estable y regular:<\/p>\n\n\n\n<p class=\"has-text-align-center\">y\u209c = 20 + 0.8\u00b7x1\u209c + 1.5\u00b7x2\u209c + \u03b5\u209c<\/p>\n\n\n\n<p>El problema surge con <strong>\u03b5\u209c<\/strong>, la perturbaci\u00f3n aleatoria. En series temporales, ese t\u00e9rmino de error no siempre se comporta como un sorteo independiente en cada periodo. A veces <em>recuerda<\/em>: si el a\u00f1o pasado fue malo, este a\u00f1o tambi\u00e9n tiende a serlo un poco. En t\u00e9rminos t\u00e9cnicos, el error sigue un proceso autorregresivo de orden 1 \u2014<strong>AR(1)<\/strong>\u2014:<\/p>\n\n\n\n<p class=\"has-text-align-center\">\u03b5\u209c = \u03c1\u00b7\u03b5\u209c\u208b\u2081 + u\u209c,&nbsp;&nbsp;&nbsp; u\u209c ~ N(0, \u03c3\u00b2)<\/p>\n\n\n\n<p>El par\u00e1metro <strong>\u03c1<\/strong> (rho) mide cu\u00e1nto recuerda el error. Si \u03c1 = 0, el error no tiene memoria: cada a\u00f1o es un mundo aparte. Si \u03c1 = 0.85, el error de este a\u00f1o est\u00e1 muy condicionado por el del a\u00f1o anterior \u2014como un departamento al que le cuesta olvidar los disgustos del curso pasado. Es el efecto <strong>\u00abbola de nieve\u00bb<\/strong>.<\/p>\n\n\n\n<p>La pregunta que este post quiere responder es aparentemente sencilla; pero esconde una trampa cl\u00e1sica: <strong>\u00bfqu\u00e9 es peor, ignorar la autocorrelaci\u00f3n cuando existe, o corregirla cuando no existe?<\/strong> Ambas son opciones equivocadas, pero sus consecuencias son asim\u00e9tricas. Y esa asimetr\u00eda es exactamente lo que vamos a explorar.<\/p>\n\n\n\n<p><strong>Lo que dice la teor\u00eda.<\/strong><\/p>\n\n\n\n<p>El estimador de <em>M\u00ednimos Cuadrados Ordinarios<\/em> (MCO) tiene una propiedad notable: es <strong>insesgado<\/strong> incluso cuando los errores est\u00e1n autocorrelacionados. El problema no es que se equivoque sistem\u00e1ticamente \u2014en promedio apunta al valor correcto\u2014, sino que <strong>es ineficiente<\/strong>: su dispersi\u00f3n entre muestras es mayor de lo necesario (imprecisi\u00f3n, lo que quiere decir que, para nuestra muestra de datos concreta, tenemos m\u00e1s riesgo de que nuestro estimador se quede \u00ablejos\u00bb de verdadero par\u00e1metro poblacional, desconocido, al que intenta representar.<\/p>\n\n\n\n<p>Pero hay algo m\u00e1s grave que la ineficiencia: cuando los errores est\u00e1n autocorrelacionados y se aplica MCO, los <strong>errores est\u00e1ndar reportados por el modelo est\u00e1n sesgados a la baja<\/strong>. El modelo subestima sistem\u00e1ticamente su propia incertidumbre. Los estad\u00edsticos t se inflan artificialmente<strong> <\/strong>y se rechazan hip\u00f3tesis nulas que no deber\u00edan rechazarse. El modelo <strong>ve significaci\u00f3n donde quiz\u00e1s no la hay.<\/strong><\/p>\n\n\n\n<p>El modelo <strong>GLS-AR(1)<\/strong> \u2014<em>M\u00ednimos Cuadrados Generalizados<\/em> con estructura <em>autorregresiva de orden 1<\/em>\u2014 fue dise\u00f1ado precisamente para este caso. Al incorporar la estructura del error en la estimaci\u00f3n, recupera eficiencia y produce errores est\u00e1ndar bien calibrados. \u00bfY cuando se aplica GLS innecesariamente? La teor\u00eda predice una <strong>ligera p\u00e9rdida de eficiencia<\/strong> al estimar un par\u00e1metro \u03c1 adicional que en realidad es cero, pero sin sesgar los estimadores. En resumen: <strong>ignorar la autocorrelaci\u00f3n real es un error m\u00e1s grave que corregir una autocorrelaci\u00f3n inexistente<\/strong>. Los datos van a confirmarlo.<\/p>\n\n\n\n<p><strong>El experimento de simulaci\u00f3n.<\/strong><\/p>\n\n\n\n<p>El dise\u00f1o es deliberadamente limpio. Generamos <strong>1.000 muestras artificiales<\/strong> de T = 80 observaciones anuales para el modelo del departamento, reservando 20 observaciones adicionales para medir el error de predicci\u00f3n fuera de muestra. En cada muestra estimamos dos modelos: MCO cl\u00e1sico y GLS-AR(1) mediante m\u00e1xima verosimilitud (funci\u00f3n gls() del paquete nlme de R).<\/p>\n\n\n\n<p>El experimento se repite en dos escenarios sim\u00e9tricamente opuestos:<\/p>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Experimento 1 \u2014 AR(1) fuerte (\u03c1 = 0.85):<\/strong> la perturbaci\u00f3n tiene memoria larga. El error de un a\u00f1o condiciona fuertemente el del siguiente. Es el caso donde la autocorrelaci\u00f3n existe, importa y MCO deber\u00eda sufrir las consecuencias. <em>Great ball of\u2026 snow.<\/em><\/li>\n<\/ul>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Experimento 2 \u2014 Ruido blanco (\u03c1 = 0.05):<\/strong> los errores son pr\u00e1cticamente independientes entre s\u00ed. No hay autocorrelaci\u00f3n real. Es el caso donde aplicar GLS-AR(1) es innecesario \u2014y potencialmente contraproducente\u2014.<\/li>\n<\/ul>\n\n\n\n<p>Para cada simulaci\u00f3n registramos: la media de los estimadores, el error porcentual respecto al valor verdadero (medida del sesgo), el <strong>error est\u00e1ndar (SE) entre muestras<\/strong> \u2014la dispersi\u00f3n real del estimador a lo largo de las 1.000 repeticiones\u2014, el <strong>SE medio reportado por el modelo<\/strong> \u2014lo que el modelo <em>cree<\/em> que es su precisi\u00f3n, que suele venir integrado, para cada estimador, en los resultados de la estimaci\u00f3n\u2014, el <strong>error porcentual entre ambos SE<\/strong> (la comparaci\u00f3n clave), la <strong>tasa de rechazo del contraste t<\/strong>, y el <strong>error absoluto medio (MAE) de predicci\u00f3n fuera de muestra.<\/strong><\/p>\n\n\n\n<p>Las variables explicativas se generaron como caminatas aleatorias con deriva (cumsum()), que produce series con tendencia suave y variabilidad interanual similar a datos anuales reales. Los errores se generaron con la varianza estacionaria correcta para el proceso AR(1) en t = 1.<\/p>\n\n\n\n<p><strong>Resultados.<\/strong><\/p>\n\n\n\n<p><em>Experimento 1: el precio de ignorar la autocorrelaci\u00f3n (\u03c1 = 0.85).<\/em><\/p>\n\n\n\n<p>La tabla 1 recoge los resultados completos del primer experimento.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"888\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-24.png\" alt=\"\" class=\"wp-image-1058\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-24.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-24-300x272.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-24-768x695.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p>El primer resultado es el que la teor\u00eda ya anticipaba: <strong>los estimadores de MCO no est\u00e1n sesgados<\/strong>. La media de b\u0302\u2081 es 0.8018 (error porcentual +0.23%) y la de b\u0302\u2082 es 1.421 (error \u22125.3%). GLS tampoco sesga de modo apreciable. Ambos m\u00e9todos apuntan al valor verdadero en promedio. Hasta aqu\u00ed, nadie pierde.<\/p>\n\n\n\n<p>El verdadero problema est\u00e1 en la <strong>dispersi\u00f3n<\/strong>. El SE de b\u0302\u2081 entre muestras es 0.1057 con MCO frente a 0.0559 con GLS: GLS es casi <strong>el doble de preciso<\/strong>. Con b\u0302\u2082 la diferencia es a\u00fan mayor: 2.4484 frente a 1.2269.<\/p>\n\n\n\n<p>Pero el problema m\u00e1s grave no es la <em>ineficiencia<\/em>, sino lo que ocurre con los <strong>errores est\u00e1ndar que el modelo reporta<\/strong>. El SE medio reportado por MCO para b\u0302\u2081 es apenas 0.035, cuando la dispersi\u00f3n real entre muestras es 0.1057. El error porcentual es <strong>\u221266.9%<\/strong>: MCO subestima su propia incertidumbre en dos tercios. Para b\u0302\u2082 la situaci\u00f3n es pr\u00e1cticamente id\u00e9ntica: \u221265.4%. El modelo no solo es impreciso; adem\u00e1s <em>no lo sabe<\/em>.<\/p>\n\n\n\n<p>La consecuencia directa es la <strong>inflaci\u00f3n de la significaci\u00f3n estad\u00edstica<\/strong>. La tasa de rechazo de H\u2080: b\u2082 = 0 es del <strong>55.6%<\/strong> con MCO frente al 31.6% con GLS. MCO detecta el efecto del caf\u00e9 con una confianza que no ha ganado.<\/p>\n\n\n\n<p>En cuanto a la predicci\u00f3n fuera de muestra, el MAE medio es 9.871 con MCO y 9.023 con GLS, una mejora del <strong>8.6%<\/strong> a favor del modelo bien especificado. La ganancia es real pero modesta: <strong>el principal coste de ignorar la autocorrelaci\u00f3n es inferencial, no predictivo.<\/strong><\/p>\n\n\n\n<p><em>Experimento 2: el coste de corregir lo que no necesita correcci\u00f3n (\u03c1 = 0.05).<\/em><\/p>\n\n\n\n<p>La tabla 2 presenta los resultados del segundo experimento, donde la perturbaci\u00f3n es pr\u00e1cticamente ruido blanco y se aplica igualmente GLS-AR(1).<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"883\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-25.png\" alt=\"\" class=\"wp-image-1060\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-25.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-25-300x270.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-25-768x691.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p>El cambio de escenario es radical. Ning\u00fan m\u00e9todo sesga los estimadores: los errores porcentuales rondan el 1% o menos para ambos coeficientes. Y la dispersi\u00f3n de los estimadores es pr\u00e1cticamente id\u00e9ntica entre m\u00e9todos: SE de b\u0302\u2081 entre muestras de 0.026 con MCO y 0.0261 con GLS. Sin autocorrelaci\u00f3n real, GLS no mejora la eficiencia, pero tampoco la empeora.<\/p>\n\n\n\n<p>Lo m\u00e1s llamativo es la <strong>simetr\u00eda en los errores porcentuales del SE<\/strong> reportado: \u221212.8% para MCO y \u221212.3% para GLS en b\u0302\u2081; \u22128.9% y \u22128.3% en b\u0302\u2082. Aplicar GLS innecesariamente no produce una distorsi\u00f3n adicional relevante en la calibraci\u00f3n del SE: ambos m\u00e9todos se equivocan por igual.<\/p>\n\n\n\n<p>En predicci\u00f3n, los MAE son indistinguibles: 4.283 con MCO y 4.285 con GLS. <strong>El coste de una correcci\u00f3n innecesaria es m\u00e1s bien peque\u00f1o.<\/strong> El motivo: GLS estima \u03c1 = 0.012, pr\u00e1cticamente cero. El modelo reconoce que no hab\u00eda enfermedad y aplica una correcci\u00f3n m\u00ednima.<\/p>\n\n\n\n<p>En s\u00edntesis: el coste de una correcci\u00f3n innecesaria es m\u00ednimo. No es gratis \u2014hay una ligera subestimaci\u00f3n del SE que tambi\u00e9n afecta a MCO\u2014, pero sus efectos son tan similares entre m\u00e9todos que resultan dif\u00edciles de distinguir en la pr\u00e1ctica.<\/p>\n\n\n\n<p>Ahora bien, hemos de matizar este resultado, ya que el contexto en el que nos movemos es de muestras de 80 observaciones. En un marco de muestras peque\u00f1as, como suele ocurrir con cierta frecuencia \u2014modelos de no m\u00e1s de 20 datos anuales, por ejemplo\u2014, el coste de incluir un par\u00e1metro a estimar adicional podr\u00eda ser m\u00e1s evidente (lo que penalizar\u00eda medidas de bondad como el <em>AIC<\/em>).<\/p>\n\n\n\n<p><em>Una lectura comparativa: qu\u00e9 nos dicen las figuras.<\/em><\/p>\n\n\n\n<p>Las figuras que siguen permiten visualizar, de forma conjunta, las diferencias entre los dos experimentos y los dos m\u00e9todos de estimaci\u00f3n \u2014MCO vs GLS con esquema AR(1)\u2014 en cada dimensi\u00f3n del an\u00e1lisis. Su lectura comparativa \u2014izquierda vs. derecha, Experimento 1 vs. Experimento 2\u2014 es la s\u00edntesis m\u00e1s directa del experimento.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"617\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-26.png\" alt=\"\" class=\"wp-image-1062\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-26.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-26-300x189.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-26-768x483.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura 1<\/em><\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"617\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-27.png\" alt=\"\" class=\"wp-image-1063\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-27.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-27-300x189.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-27-768x483.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura <\/em>2<\/p>\n\n\n\n<p><strong>Dispersi\u00f3n de los estimadores (figuras 1 y 2).<\/strong> En el Experimento 1, la distribuci\u00f3n de MCO es notablemente m\u00e1s ancha que la de GLS: los estimadores de MCO vagan mucho m\u00e1s alrededor del valor verdadero. En b\u0302\u2082 la diferencia es especialmente llamativa \u2014la cola izquierda de MCO alcanza valores negativos del todo implausibles para el efecto del caf\u00e9\u2014. En el Experimento 2, las curvas de ambos m\u00e9todos son pr\u00e1cticamente indistinguibles: sin autocorrelaci\u00f3n, la ventaja de GLS desaparece.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"617\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-29.png\" alt=\"\" class=\"wp-image-1065\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-29.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-29-300x189.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-29-768x483.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura <\/em>3<\/p>\n\n\n\n<p><strong>Error est\u00e1ndar reportado frente al SE entre muestras (figura 3).<\/strong> La figura 3 confronta lo que cada modelo reporta como SE con la dispersi\u00f3n real \u2014la l\u00ednea gris de referencia\u2014. En el Experimento 1, la densidad de MCO queda muy a la izquierda de la referencia en ambas variables: <strong>subestimaci\u00f3n sistem\u00e1tica y severa<\/strong>. GLS tambi\u00e9n subestima, pero de forma mucho m\u00e1s moderada. En el Experimento 2, ambas densidades se aproximan razonablemente a la referencia y son casi id\u00e9nticas entre s\u00ed.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"953\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-30.png\" alt=\"\" class=\"wp-image-1067\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-30.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-30-300x291.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-30-768x746.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura 4<\/em><\/p>\n\n\n\n<p><strong>Error porcentual del SE (figura 4).<\/strong> La figura 4 resume en un \u00fanico gr\u00e1fico de barras la magnitud de la subestimaci\u00f3n. En el Experimento 1, las barras de MCO alcanzan el \u221266.9% (b\u2081) y \u221265.4% (b\u2082): el modelo reporta un error est\u00e1ndar que es apenas un tercio de lo que deber\u00eda ser. GLS subestima en torno al \u221215%, un error muy inferior. En el Experimento 2 la diferencia entre m\u00e9todos desaparece: ambos rondan el \u221210%, sin ninguna desventaja sistem\u00e1tica.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"617\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-31.png\" alt=\"\" class=\"wp-image-1068\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-31.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-31-300x189.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-31-768x483.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura <\/em>5<\/p>\n\n\n\n<p><strong>MAE de predicci\u00f3n fuera de muestra (figura 5).<\/strong> En el Experimento 1, la distribuci\u00f3n del MAE de GLS est\u00e1 desplazada hacia la izquierda respecto a la de MCO: GLS predice mejor, aunque la ganancia sea modesta. En el Experimento 2, las dos distribuciones se solapan casi perfectamente: no hay ventaja de ning\u00fan m\u00e9todo cuando el error es ruido blanco.<\/p>\n\n\n\n<figure class=\"wp-block-image size-full\"><img loading=\"lazy\" decoding=\"async\" width=\"981\" height=\"617\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-32.png\" alt=\"\" class=\"wp-image-1069\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-32.png 981w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-32-300x189.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-32-768x483.png 768w\" sizes=\"auto, (max-width: 981px) 100vw, 981px\" \/><\/figure>\n\n\n\n<p class=\"has-text-align-center\"><em>Figura <\/em>6<\/p>\n\n\n\n<p><strong>Distribuci\u00f3n del \u03c1 estimado por GLS (figura 6).<\/strong> Esta figura act\u00faa como control de calidad del experimento. En el Experimento 1, GLS estima \u03c1 \u2248 0.768 (el valor verdadero es 0.85; el sesgo hacia abajo es esperable en muestras finitas). En el Experimento 2, la masa se concentra cerca de cero: el modelo reconoce que no hay autocorrelaci\u00f3n real y ajusta su correcci\u00f3n en consecuencia. El estimador de \u03c1 funciona como un term\u00f3metro del problema.<\/p>\n\n\n\n<p><strong>En conclusi\u00f3n&#8230;<\/strong><\/p>\n\n\n\n<p>Los resultados permiten trazar un diagn\u00f3stico claro, aunque con un matiz importante que conviene no pasar por alto.<\/p>\n\n\n\n<p><strong>Cuando la autocorrelaci\u00f3n existe y se ignora (Experimento 1):<\/strong> MCO produce estimadores insesgados pero ineficientes. Pero el problema m\u00e1s grave es que el modelo no lo sabe: subestima su propia incertidumbre en cerca de un 67%, infla los estad\u00edsticos t y genera una falsa sensaci\u00f3n de significaci\u00f3n estad\u00edstica. La predicci\u00f3n tambi\u00e9n empeora, aunque de forma m\u00e1s modesta.<\/p>\n\n\n\n<p><strong>Cuando no hay autocorrelaci\u00f3n y se aplica GLS (Experimento 2):<\/strong> los estimadores permanecen insesgados, la eficiencia no se deteriora, la calibraci\u00f3n del SE es similar a la de MCO, y el MAE de predicci\u00f3n es pr\u00e1cticamente id\u00e9ntico. El coste de una correcci\u00f3n innecesaria es sorprendentemente peque\u00f1o.<\/p>\n\n\n\n<p>La asimetr\u00eda que predice la teor\u00eda se confirma con claridad: <strong>ignorar la autocorrelaci\u00f3n es mucho m\u00e1s da\u00f1ino que corregirla innecesariamente<\/strong>, especialmente desde el punto de vista de la inferencia. <strong>El error de omisi\u00f3n es sist\u00e9mico e invisible; el error de comisi\u00f3n es limitado y auto-diagnosticable.<\/strong><\/p>\n\n\n\n<p><strong>Lecciones para llevar a casa.<\/strong><\/p>\n\n\n\n<ol class=\"wp-block-list\">\n<li><strong>La insesgadez no es suficiente.<\/strong> MCO es insesgado con autocorrelaci\u00f3n, pero eso no lo hace fiable para la inferencia. Lo que importa no es solo que el estimador apunte al blanco en promedio, sino que el modelo sepa cu\u00e1nto se aleja del blanco en cada muestra individual. Y MCO, con autocorrelaci\u00f3n fuerte, no lo sabe.<br><\/li>\n\n\n\n<li><strong>El error est\u00e1ndar reportado puede mentir.<\/strong> Un SE artificialmente peque\u00f1o produce estad\u00edsticos t artificialmente grandes. Si el modelo subestima su incertidumbre en un 67%, el contraste t equivale a exigir solo un tercio de la evidencia necesaria para rechazar la hip\u00f3tesis nula. Eso no es rigor estad\u00edstico: es optimismo estructural.<br><\/li>\n\n\n\n<li><strong>Diagnosticar antes de corregir.<\/strong> El test de Durbin-Watson y sus variantes modernas \u2014Breusch-Godfrey, entre otros\u2014 permiten detectar autocorrelaci\u00f3n antes de decidir qu\u00e9 modelo estimar. No hay que aplicar GLS por defecto en cualquier serie temporal, pero tampoco ignorar el problema porque el modelo converge bien.<br><\/li>\n\n\n\n<li><strong>El \u03c1 estimado es un term\u00f3metro.<\/strong> GLS-AR(1) estima \u03c1 como parte del proceso. Un \u03c1 estimado cercano a cero es la propia se\u00f1al de que la correcci\u00f3n era innecesaria. Si el remedio dice que no hab\u00eda enfermedad, conviene revisitar el diagn\u00f3stico inicial.<br><\/li>\n\n\n\n<li><strong>La predicci\u00f3n es el juez m\u00e1s severo.<\/strong> La diferencia en MAE entre MCO y GLS en el Experimento 1 es real pero modesta (8.6%). El principal coste de ignorar la autocorrelaci\u00f3n es inferencial, no predictivo. En aplicaciones donde la predicci\u00f3n sea el objetivo principal, GLS sigue siendo preferible, pero no dr\u00e1sticamente superior.<br><\/li>\n\n\n\n<li><strong>El caf\u00e9 sigue siendo significativo.<\/strong> Con MCO, la tasa de rechazo de H\u2080: b\u2082 = 0 es del 55.6% frente al 31.6% con GLS. Ambos m\u00e9todos encuentran evidencia del efecto del caf\u00e9, pero MCO lo hace con una confianza que no ha ganado. Un revisor sagaz preguntar\u00e1 por qu\u00e9 el SE es tan peque\u00f1o. La respuesta honesta, con MCO y autocorrelaci\u00f3n fuerte, es que el modelo no se lo merece.<\/li>\n<\/ol>\n\n\n\n<p><strong>(*) Nota t\u00e9cnica.<\/strong><\/p>\n\n\n\n<p>El experimento se realiz\u00f3 en R con 1.000 simulaciones por escenario. Las variables explicativas se generaron como caminatas aleatorias con deriva (cumsum()). Los errores se generaron con la varianza estacionaria correcta para el proceso AR(1) en t = 1. El modelo GLS se estim\u00f3 con la funci\u00f3n gls() del paquete nlme, usando estructura de correlaci\u00f3n corAR1() y m\u00e1xima verosimilitud. La predicci\u00f3n fuera de muestra es ex ante pura: solo se usan los valores de x\u2081 y x\u2082 en el periodo de predicci\u00f3n, sin aprovechar el \u00faltimo residuo observado.<\/p>\n\n\n\n<p><\/p>\n","protected":false},"excerpt":{"rendered":"<p>El departamento que no olvidaba. Imagina un departamento universitario mod\u00e9lico, de una universidad centenaria y con lustre. Tiene presupuesto de investigaci\u00f3n \u2014variable x\u2081\u2014, consume caf\u00e9 en cantidades razonablemente escandalosas \u2014variable x\u2082\u2014, y produce art\u00edculos cient\u00edficos en proporci\u00f3n a ambas cosas. La relaci\u00f3n es estable y regular: y\u209c = 20 + 0.8\u00b7x1\u209c + 1.5\u00b7x2\u209c + \u03b5\u209c [&hellip;]<\/p>\n","protected":false},"author":78,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23],"tags":[],"class_list":["post-1054","post","type-post","status-publish","format-standard","hentry","category-error-estandar"],"_links":{"self":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1054","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/comments?post=1054"}],"version-history":[{"count":8,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1054\/revisions"}],"predecessor-version":[{"id":1072,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1054\/revisions\/1072"}],"wp:attachment":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/media?parent=1054"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/categories?post=1054"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/tags?post=1054"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}