{"id":1001,"date":"2026-03-12T15:32:58","date_gmt":"2026-03-12T13:32:58","guid":{"rendered":"https:\/\/blog.uclm.es\/miguelangeltarancon\/?p=1001"},"modified":"2026-03-12T15:32:58","modified_gmt":"2026-03-12T13:32:58","slug":"cuando-los-trajes-de-sastre-pueden-ser-un-desastre-sobreparametrizacion-y-uso-de-dummies-en-modelos-econometricos","status":"publish","type":"post","link":"https:\/\/blog.uclm.es\/miguelangeltarancon\/2026\/03\/12\/cuando-los-trajes-de-sastre-pueden-ser-un-desastre-sobreparametrizacion-y-uso-de-dummies-en-modelos-econometricos\/","title":{"rendered":"Cuando los trajes de \u00absastre\u00bb pueden ser un desastre (sobreparametrizaci\u00f3n y uso de dummies en modelos econom\u00e9tricos)&#8230;"},"content":{"rendered":"\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"572\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-1024x572.jpg\" alt=\"\" class=\"wp-image-1002\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-1024x572.jpg 1024w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-300x167.jpg 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-768x429.jpg 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-1536x857.jpg 1536w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/De_sastre-2048x1143.jpg 2048w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p><strong>El sastre que cose a medida&#8230; \u00bfo que tapa los agujeros?<\/strong><\/p>\n\n\n\n<p>Imagina que eres sastre de una firma de moda <em>pr\u00eat-\u00e0-porter<\/em> y te encargan un patr\u00f3n para un traje. Tu trabajo es que el traje le quede bien a <em>cualquier persona<\/em> de complexi\u00f3n est\u00e1ndar, no solo a un cliente concreto. Si te dedicas a rellenar cada bulto y disimular cada asimetr\u00eda con un parche <em>ad hoc<\/em>, el traje le quedar\u00e1 impecable a ese cliente&#8230; pero en cuanto se lo ponga otra persona, parecer\u00e1 que lleva puesto un saco de patatas con pretensiones.<\/p>\n\n\n\n<p>En Econometr\u00eda ocurre exactamente lo mismo. Cuando estimamos un modelo de regresi\u00f3n, nuestro objetivo no es simplemente \u00abexplicar\u00bb los datos que tenemos delante, sino capturar la relaci\u00f3n estructural entre las variables, de modo que el modelo <strong>funcione tambi\u00e9n fuera de la muestra<\/strong>. Un modelo que se ajusta demasiado bien a los datos de estimaci\u00f3n puede haber <strong>aprendido el ruido<\/strong>, no la se\u00f1al. En este experimento hemos fabricado un caso de laboratorio para ilustrar una pr\u00e1ctica muy extendida \u2014y muy tentadora\u2014 entre analistas y estudiantes: el uso de variables <em>dummy<\/em> (ficticias) para \u00abcorregir\u00bb observaciones an\u00f3malas o <em>outliers<\/em> dentro de la muestra. El resultado es un R\u00b2 cada vez mayor. La tentaci\u00f3n de publicar ese modelo es enorme.<\/p>\n\n\n\n<p>El problema es que, fuera de la muestra, ese R\u00b2 inflado no vale gran cosa.<\/p>\n\n\n\n<p><strong>El experimento: datos, modelos y <em>outliers<\/em>.<\/strong><\/p>\n\n\n\n<p>Hemos generado una serie temporal anual de 25 observaciones (2000-2024). La variable dependiente <strong><em>y<\/em><\/strong> responde a dos explicativas, <em><strong>x1<\/strong><\/em> y <strong><em>x2<\/em><\/strong>. Para hacerlo m\u00e1s interesante \u2014y realista\u2014 hemos introducido tres observaciones an\u00f3malas en distintos puntos de la muestra.<br>Estas tres anomal\u00edas no son producto de mala suerte: son perturbaciones que cualquier variable econ\u00f3mica real puede sufrir (<em>shocks<\/em> de pol\u00edtica, crisis, eventos extraordinarios). La cuesti\u00f3n es c\u00f3mo responde el econ\u00f3metra ante ellas.<\/p>\n\n\n\n<p>Hemos estimado cuatro especificaciones del mismo modelo de regresi\u00f3n:<\/p>\n\n\n\n<p><strong>\u2022 Modelo 1 (M1):<\/strong> solo x1 y x2. El modelo base, parsimonioso y honesto.<br><strong>\u2022 Modelo 2 (M2): <\/strong>M1 + una <em>dummy<\/em> que vale 1 en el <em>outlier<\/em> m\u00e1s evidente (residuo m\u00e1s grande). \u00a1Alguien encontr\u00f3 la anomal\u00eda m\u00e1s gorda!<br><strong>\u2022 Modelo 3 (M3):<\/strong> M2 + una <em>dummy<\/em> para el segundo <em>outlier<\/em>. Ya vamos cogiendo ritmo\u2026<br><strong>\u2022 Modelo 4 (M4):<\/strong> M3 + una <em>dummy<\/em> para el tercer <em>outlier<\/em>. A este paso, ponemos una <em>dummy<\/em> por cada a\u00f1o del siglo XX.<\/p>\n\n\n\n<p>La l\u00f3gica es clara: cada <em>dummy<\/em> \u00abexplica\u00bb una anomal\u00eda al decirle al modelo que ese a\u00f1o fue especial. Matem\u00e1ticamente, la <em>dummy<\/em> <strong>absorbe <\/strong>el residuo de ese punto. El resultado inevitable es que<strong> R\u00b2 sube<\/strong>. Siempre. Sin excepci\u00f3n. Es una ley matem\u00e1tica tan infalible como la del IVA: nunca falla cuando toca pagar.<\/p>\n\n\n\n<p><strong>Resultados de la estimaci\u00f3n: la ilusi\u00f3n del R\u00b2 creciente<\/strong><\/p>\n\n\n\n<p>La <em>Tabla 1<\/em> recoge los resultados de los cuatro modelos. Obs\u00e9rvese c\u00f3mo evolucionan las m\u00e9tricas de bondad de ajuste al a\u00f1adir <em>dummies<\/em>:<\/p>\n\n\n\n<figure class=\"wp-block-image aligncenter size-large is-resized\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"786\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1024x786.png\" alt=\"\" class=\"wp-image-1003\" style=\"aspect-ratio:1.3027792996129988;width:640px;height:auto\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1024x786.png 1024w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-300x230.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-768x590.png 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen.png 1364w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>El R\u00b2 pasa del 19,9% en M1 hasta el 70,6% en M4. Impresionante, \u00bfverdad? Aqu\u00ed es donde muchos estudiantes (y no pocos investigadores) cometen el error de proclamar: \u00ab\u00a1El Modelo 4 es claramente el mejor!\u00bb<\/p>\n\n\n\n<p>Pero antes de correr a publicarlo, conviene hacerse una pregunta inc\u00f3moda: \u00bfmejor para qu\u00e9? Fij\u00e9monos en el R\u00b2 ajustado, que penaliza la incorporaci\u00f3n de variables adicionales. Tambi\u00e9n sube, s\u00ed, pero m\u00e1s moderadamente (de 0,127 a 0,629). Y el AIC, que penaliza la complejidad, tambi\u00e9n mejora de forma consistente\u2026 lo cual, a priori, parece dar la raz\u00f3n al modelo con m\u00e1s dummies.<\/p>\n\n\n\n<p><br>Pero aqu\u00ed viene el truco: todas estas m\u00e9tricas son m\u00e9tricas <strong>dentro de la muestra<\/strong>. Miden qu\u00e9 tan bien el modelo \u00abrecuerda\u00bb los datos que ya ha visto. Son como el examen de tipo test en que tienes el libro delante: claro que te salen bien las respuestas.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"894\" height=\"1024\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1-894x1024.png\" alt=\"\" class=\"wp-image-1004\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1-894x1024.png 894w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1-262x300.png 262w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1-768x879.png 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-1.png 1130w\" sizes=\"auto, (max-width: 894px) 100vw, 894px\" \/><\/figure>\n\n\n\n<p>La figura anterior lo deja claro visualmente. A medida que a\u00f1adimos <em>dummies,<\/em> la l\u00ednea de valores ajustados se acerca m\u00e1s a los puntos observados, especialmente en los <em>outliers<\/em>. En el Modelo 4, los residuos de esas tres observaciones son pr\u00e1cticamente cero. \u00bfEs eso bueno? Si el objetivo es predecir, no: <strong>el modelo ha memorizado un accidente, no ha aprendido una ley.<\/strong><\/p>\n\n\n\n<p><strong>La prueba de fuego: predecir fuera de la muestra<\/strong><\/p>\n\n\n\n<p>Para demostrar que un R\u00b2 alto no garantiza mejor capacidad predictiva, hemos construido tres escenarios de predicci\u00f3n para los a\u00f1os 2025-2029. En todos ellos, las <em>dummies<\/em> valen 0, porque en el futuro no sabemos de antemano si va a ocurrir algo an\u00f3malo ni cu\u00e1ndo.<\/p>\n\n\n\n<p><strong>\u2022 Escenario A \u2013<\/strong> Inercia normal: el comportamiento futuro de <em><strong>y<\/strong><\/em> sigue una din\u00e1mica similar a la de la muestra. Sin grandes sorpresas.<br><strong>\u2022 Escenario B \u2013 <\/strong>Mayor varianza: la variable <strong><em>y<\/em><\/strong> oscila m\u00e1s de lo habitual, pero sin que ning\u00fan valor sea propiamente un <em>outlier<\/em>. Un entorno algo m\u00e1s turbulento.<br><strong>\u2022 Escenario C \u2013 <\/strong><em>Outlier <\/em>futuro: similar al A, pero con una observaci\u00f3n claramente an\u00f3mala en el tercer a\u00f1o del horizonte predictivo. La prueba m\u00e1s dura para todos los modelos.<\/p>\n\n\n\n<p>Calculamos el <strong>Error Medio Absoluto (MAE)<\/strong> como medida de error predictivo. El MAE tiene la virtud de ser interpretable en las mismas unidades que y, y de no castigar excesivamente los errores grandes (a diferencia del error cuadr\u00e1tico medio).<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"411\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-3-1024x411.png\" alt=\"\" class=\"wp-image-1007\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-3-1024x411.png 1024w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-3-300x120.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-3-768x308.png 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-3.png 1344w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>Los resultados de la Tabla 2 son, en cierto modo, el coraz\u00f3n del post. Coment\u00e9moslos con calma:<\/p>\n\n\n\n<p><br><strong>Escenario A (inercia normal)<\/strong><br>El ganador es M2 (MAE = 4,15), no el modest\u00edsimo M1 ni, desde luego, los recargados M3 y M4. \u00bfPor qu\u00e9 gana M2? En este experimento concreto, la <em>dummy<\/em> de M2 recoge el <em>outlier<\/em> m\u00e1s impactante de la muestra, lo que mejora ligeramente la estimaci\u00f3n de los dem\u00e1s coeficientes. Pero el mensaje importante es que M4, el de mayor R\u00b2, obtiene el peor MAE junto con M3. La sobreparametrizaci\u00f3n lastra la predicci\u00f3n.<br><\/p>\n\n\n\n<p><strong>Escenario B (mayor varianza)<\/strong><br>Aqu\u00ed M1 es el m\u00e1s preciso (MAE = 3,05). Con un entorno algo m\u00e1s vol\u00e1til pero sin anomal\u00edas concretas, el modelo m\u00e1s sencillo generaliza mejor. Los modelos con <em>dummies<\/em> cargan con \u00abrecuerdos\u00bb que en este escenario no sirven para nada. La parsimonia gana.<\/p>\n\n\n\n<p><br><strong>Escenario C (outlier futuro)<\/strong><br>Ning\u00fan modelo predice bien el <em>outlier<\/em> futuro, porque nadie lo anticipa (las <em>dummies<\/em> est\u00e1n a 0). Pero los modelos sobreparametrizados (M3 y M4) se llevan los peores MAE (9,81 y 9,68), mientras que M2 y M1 obtienen 7,77 y 8,66 respectivamente. El modelo m\u00e1s cargado de <em>dummies<\/em> no protege en absoluto ante sorpresas futuras\u2026 lo cual tiene todo el sentido: sus <em>dummies<\/em> estaban dise\u00f1adas para sorpresas pasadas y ya conocidas.<\/p>\n\n\n\n<figure class=\"wp-block-image size-large\"><img loading=\"lazy\" decoding=\"async\" width=\"1024\" height=\"971\" src=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-4-1024x971.png\" alt=\"\" class=\"wp-image-1008\" srcset=\"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-4-1024x971.png 1024w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-4-300x285.png 300w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-4-768x729.png 768w, https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-content\/uploads\/sites\/67\/2026\/03\/imagen-4.png 1364w\" sizes=\"auto, (max-width: 1024px) 100vw, 1024px\" \/><\/figure>\n\n\n\n<p>La Figura 2 permite visualizar lo que muestran los n\u00fameros. En todos los escenarios, las cuatro l\u00edneas de predicci\u00f3n son pr\u00e1cticamente id\u00e9nticas en el horizonte futuro: al desactivar las <em>dummies<\/em>, los cuatro modelos convergen en sus predicciones. Esto revela algo importante: las <em>dummies<\/em> no estaban aportando informaci\u00f3n estructural sobre el comportamiento de <strong><em>y<\/em><\/strong>, sino simplemente corrigiendo a posteriori puntos inconvenientes.<\/p>\n\n\n\n<p><strong>Lecciones para el estudiante (y para el investigador con memoria corta)<\/strong><\/p>\n\n\n\n<p><strong>Lecci\u00f3n 1:<\/strong> R\u00b2 es una medida de ajuste en muestra, no de calidad del modelo<br>El R\u00b2 siempre puede aumentarse a\u00f1adiendo variables, aunque sean totalmente irrelevantes. En el l\u00edmite, un modelo con tantos par\u00e1metros como observaciones tiene R\u00b2 = 1\u2026 y predicci\u00f3n = 0. Usar el R\u00b2 como \u00fanico criterio de selecci\u00f3n de modelos es como juzgar a un cocinero por lo limpio que deja el plato propio.<\/p>\n\n\n\n<p><br><strong>Lecci\u00f3n 2:<\/strong> el R\u00b2 ajustado y el AIC penalizan la complejidad, pero no son infalibles.<br>Ambos indicadores mejoran en nuestro experimento al a\u00f1adir <em>dummies<\/em> sobre <em>outliers<\/em>, porque la ganancia en ajuste supera la penalizaci\u00f3n por el par\u00e1metro adicional. Sin embargo, como hemos visto, esa mejora en muestra no se traslada a la predicci\u00f3n. El R\u00b2 ajustado y el AIC son mejores criterios que el R\u00b2 simple, pero no sustituyen a la validaci\u00f3n fuera de muestra.<\/p>\n\n\n\n<p><br><strong>Lecci\u00f3n 3: <\/strong>una <em>dummy<\/em> por <em>outlier<\/em> es una soluci\u00f3n cosm\u00e9tica, no estructural.<br>Cuando una observaci\u00f3n es an\u00f3mala, <strong>la pregunta correcta es \u00ab\u00bfpor qu\u00e9?\u00bb<\/strong>, no \u00ab\u00bfc\u00f3mo la elimino del residuo?\u00bb <strong>Si la anomal\u00eda tiene una explicaci\u00f3n econ\u00f3mica <\/strong>\u2014una crisis, un cambio de r\u00e9gimen, una cat\u00e1strofe natural\u2014<strong> lo adecuado es incorporar esa explicaci\u00f3n como variable, no simplemente marcar el a\u00f1o con una <em>dummy<\/em> y pasar p\u00e1gina.<\/strong> La <em>dummy<\/em> dice: \u00abaqu\u00ed pas\u00f3 algo\u00bb. Pero no dice qu\u00e9, ni por qu\u00e9, ni si volver\u00e1 a pasar.<\/p>\n\n\n\n<p><br><strong>Lecci\u00f3n 4:<\/strong> la parsimonia es una virtud, no una limitaci\u00f3n.<br>El <em>principio de parsimonia<\/em> \u2014preferir el modelo m\u00e1s sencillo que explique los datos de manera satisfactoria\u2014 es uno de los pilares del m\u00e9todo cient\u00edfico. En Econometr\u00eda se materializa en criterios como el AIC o el BIC, y en la pr\u00e1ctica de la validaci\u00f3n cruzada o la divisi\u00f3n muestra de estimaci\u00f3n \/ muestra de control. Un modelo parsimonioso <strong>generaliza mejor<\/strong> porque no ha \u00abmemorizado\u00bb los accidentes del pasado.<\/p>\n\n\n\n<p><br><strong>Lecci\u00f3n 5: <\/strong>valida siempre fuera de muestra.<br>La mejor forma de evaluar un modelo econom\u00e9trico es comprobar <strong>c\u00f3mo funciona con datos que no ha visto.<\/strong> Esto puede hacerse reservando una parte de la muestra para validaci\u00f3n (lo que en <em>machine learning<\/em> se llama t<em>rain\/test split<\/em>), o mediante t\u00e9cnicas de validaci\u00f3n cruzada. Si solo dispones de una muestra corta, el AIC y el BIC son aproximaciones razonables al error de predicci\u00f3n fuera de muestra\u2026 pero siempre con cautela.<\/p>\n\n\n\n<p><strong>Conclusi\u00f3n: el peligro del R\u00b2 como trofeo<\/strong><\/p>\n\n\n\n<p>Nuestro experimento de laboratorio demuestra de forma clara y reproducible que <strong>la sobreparametrizaci\u00f3n mediante variables <em>dummy<\/em> puede inflar espectacularmente el R\u00b2 sin mejorar \u2014e incluso empeorando\u2014 la capacidad predictiva del modelo.<\/strong><\/p>\n\n\n\n<p>La moraleja no es que las variables <em>dummy<\/em> sean malas. Son herramientas leg\u00edtimas y \u00fatiles para incorporar efectos estructurales conocidos (cambios legislativos, crisis identificadas, intervenciones de pol\u00edtica econ\u00f3mica). El problema surge cuando se usan de forma sistem\u00e1tica para maquillar residuos grandes, sin ninguna justificaci\u00f3n te\u00f3rica o emp\u00edrica m\u00e1s all\u00e1 de \u00abeste punto me molestaba\u00bb.<\/p>\n\n\n\n<p><br>La pr\u00f3xima vez que veas un R\u00b2 de 0,98 en una regresi\u00f3n con series temporales macroecon\u00f3micas, no aplaudas demasiado r\u00e1pido. Pregunta primero: \u00ab\u00bfcu\u00e1ntas <em>dummies<\/em> llevas ah\u00ed dentro?\u00bb Si la respuesta es m\u00e1s de dos o tres <strong>sin justificaci\u00f3n econ\u00f3mica clara<\/strong>, es momento de ponerse en alerta.<\/p>\n\n\n\n<p><br>La Estad\u00edstica no es un concurso de belleza del ajuste. Es una herramienta para entender el mundo y, si todo va bien, para anticiparlo. Y para anticipar el futuro, el pasado \u2014con todas sus anomal\u00edas cosidas con <em>dummies<\/em>\u2014 no siempre es el mejor maestro.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>El sastre que cose a medida&#8230; \u00bfo que tapa los agujeros? Imagina que eres sastre de una firma de moda pr\u00eat-\u00e0-porter y te encargan un patr\u00f3n para un traje. Tu trabajo es que el traje le quede bien a cualquier persona de complexi\u00f3n est\u00e1ndar, no solo a un cliente concreto. Si te dedicas a rellenar [&hellip;]<\/p>\n","protected":false},"author":78,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[23],"tags":[],"class_list":["post-1001","post","type-post","status-publish","format-standard","hentry","category-error-estandar"],"_links":{"self":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1001","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/users\/78"}],"replies":[{"embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/comments?post=1001"}],"version-history":[{"count":3,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1001\/revisions"}],"predecessor-version":[{"id":1010,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/posts\/1001\/revisions\/1010"}],"wp:attachment":[{"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/media?parent=1001"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/categories?post=1001"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/blog.uclm.es\/miguelangeltarancon\/wp-json\/wp\/v2\/tags?post=1001"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}