{"id":291,"date":"2023-10-22T10:36:37","date_gmt":"2023-10-22T10:36:37","guid":{"rendered":"https:\/\/agustincastro.es\/?p=291"},"modified":"2026-01-24T13:22:59","modified_gmt":"2026-01-24T13:22:59","slug":"regresion-lineal-evaluacion-de-supuestos","status":"publish","type":"post","link":"https:\/\/agustincastro.es\/index.php\/2023\/10\/22\/regresion-lineal-evaluacion-de-supuestos\/","title":{"rendered":"Regresi\u00f3n lineal: Evaluaci\u00f3n de supuestos"},"content":{"rendered":"\n<p>En esta pr\u00e1ctica trabajaremos sobre los&nbsp;<strong>SUPUESTOS<\/strong>&nbsp;que deben cumplirse a la hora de dar por v\u00e1lida una regresi\u00f3n lineal, concretamente los de <strong>LINEALIDAD<\/strong>, <strong>INDEPENDENCIA<\/strong>, <strong>NORMALIDAD <\/strong>y <strong>HOMOCEDASTICIDAD<\/strong>. <\/p>\n\n\n\n<p>Estos supuestos proporcionan las bases para interpretar correctamente los resultados y las conclusiones del modelo.<\/p>\n\n\n\n<p>La importancia de cumplir con estos supuestos radica en garantizar la validez de las inferencias estad\u00edsticas y las conclusiones derivadas del modelo de regresi\u00f3n. Adem\u00e1s, el incumplimiento de estos supuestos puede afectar la capacidad predictiva del modelo y conducir a estimaciones sesgadas y poco fiables de los coeficientes de regresi\u00f3n. Es esencial realizar pruebas de diagn\u00f3stico para evaluar la violaci\u00f3n de estos supuestos y, si es necesario, aplicar t\u00e9cnicas de correcci\u00f3n o considerar modelos <\/p>\n\n\n\n<p><\/p>\n\n\n\n<p>Aqu\u00ed ten\u00e9is los enlaces a la publicaci\u00f3n del documento de pr\u00e1cticas en&nbsp;<strong><a href=\"https:\/\/rpubs.com\/acastro\/regresion_lineal_supuestos\" target=\"_blank\" rel=\"noreferrer noopener\">RPubs&nbsp;<\/a><\/strong>y&nbsp;<strong><a rel=\"noreferrer noopener\" href=\"https:\/\/github.com\/acastromartinez\/GITHUB---R\" target=\"_blank\">GitHUb<\/a><\/strong>. Los tests y gr\u00e1ficos de esta pr\u00e1ctica se han realizado en el lenguaje de programaci\u00f3n R. Consultar los documentos&nbsp;<strong>RMarkdown<\/strong>, y el&nbsp;<strong>.pdf<\/strong>&nbsp;para ver los ejemplos realizados y las explicaciones sobre los procedimientos.<\/p>\n\n\n\n<h1 class=\"wp-block-heading\">Supuestos<\/h1>\n\n\n\n<ul class=\"wp-block-list\">\n<li><strong>Linealidad<\/strong>: Este supuesto implica que la relaci\u00f3n entre las variables independientes y la variable dependiente debe ser lineal. Si la relaci\u00f3n es no lineal, los resultados de la regresi\u00f3n (lineal) pueden ser poco confiables y conducir a interpretaciones err\u00f3neas sobre la relaci\u00f3n entre las variables.<\/li>\n\n\n\n<li><strong>Normalidad<\/strong>: El supuesto de normalidad establece que los&nbsp;<strong>errores<\/strong>&nbsp;de la regresi\u00f3n deben seguir una distribuci\u00f3n normal. \u00a1Cuidado con esto!, los errores, no las variables. Cuando este supuesto se cumple, las pruebas de hip\u00f3tesis y los intervalos de confianza pueden interpretarse con mayor precisi\u00f3n. Si la normalidad no se cumple, los intervalos de confianza y las pruebas de hip\u00f3tesis pueden verse afectados, lo que puede conducir a conclusiones err\u00f3neas.<\/li>\n\n\n\n<li><strong>Homocedasticidad<\/strong>: Este supuesto implica que la varianza de los&nbsp;<strong>errores<\/strong>&nbsp;debe ser constante en todos los niveles de las variables predictoras. Cuando se viola este supuesto, se produce&nbsp;<strong>heterocedasticidad<\/strong>, lo que significa que la dispersi\u00f3n de los errores var\u00eda en diferentes rangos de las variables predictoras. La presencia de heterocedasticidad puede distorsionar los intervalos de confianza y los valores p-value, lo que puede afectar la precisi\u00f3n de las pruebas de hip\u00f3tesis.<\/li>\n\n\n\n<li><strong>Independencia<\/strong>: El supuesto de independencia indica que los errores de la regresi\u00f3n no deben estar correlacionados entre s\u00ed. Si hay autocorrelaci\u00f3n presente, puede afectar la precisi\u00f3n de los coeficientes y las pruebas de hip\u00f3tesis, lo que lleva a conclusiones err\u00f3neas sobre la importancia de las variables predictoras.&nbsp;<strong>\u00bfQu\u00e9 es la autocorrelaci\u00f3n?<\/strong>&nbsp;la presencia de autocorrelaci\u00f3n en los residuos indica que&nbsp;<strong>los errores del modelo muestran cierto patr\u00f3n sistem\u00e1tico en su distribuci\u00f3n a lo largo del tiempo<\/strong>. Recordad que los errores o residuos de un modelo de regresi\u00f3n deber\u00edan distribuirse de manera aleatoria y seguir una distribuci\u00f3n normal con media cero y varianza constante.<\/li>\n<\/ul>\n\n\n\n<h1 class=\"wp-block-heading\">Dataset: mtcars<\/h1>\n\n\n\n<p>El conjunto de datos&nbsp;<strong>mtcars<\/strong>&nbsp;est\u00e1 integrado en R y contiene detalles, datos t\u00e9cnicos, y de rendimiento, sobre diferentes modelos de autom\u00f3viles, recopilados por la revista \u201cMotor Trend\u201d. Se utiliza com\u00fanmente como ejemplo en el aprendizaje y la pr\u00e1ctica de an\u00e1lisis de datos y modelado en R. Cuenta con 32 observaciones para una lista de 11 variables.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>data(mtcars)\nhead(mtcars)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>##                    mpg cyl disp  hp drat    wt  qsec vs am gear carb\n## Mazda RX4         21.0   6  160 110 3.90 2.620 16.46  0  1    4    4\n## Mazda RX4 Wag     21.0   6  160 110 3.90 2.875 17.02  0  1    4    4\n## Datsun 710        22.8   4  108  93 3.85 2.320 18.61  1  1    4    1\n## Hornet 4 Drive    21.4   6  258 110 3.08 3.215 19.44  1  0    3    1\n## Hornet Sportabout 18.7   8  360 175 3.15 3.440 17.02  0  0    3    2\n## Valiant           18.1   6  225 105 2.76 3.460 20.22  1  0    3    1<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>str(mtcars)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## 'data.frame':    32 obs. of  11 variables:\n##  $ mpg : num  21 21 22.8 21.4 18.7 18.1 14.3 24.4 22.8 19.2 ...\n##  $ cyl : num  6 6 4 6 8 6 8 4 4 6 ...\n##  $ disp: num  160 160 108 258 360 ...\n##  $ hp  : num  110 110 93 110 175 105 245 62 95 123 ...\n##  $ drat: num  3.9 3.9 3.85 3.08 3.15 2.76 3.21 3.69 3.92 3.92 ...\n##  $ wt  : num  2.62 2.88 2.32 3.21 3.44 ...\n##  $ qsec: num  16.5 17 18.6 19.4 17 ...\n##  $ vs  : num  0 0 1 1 0 1 0 1 1 1 ...\n##  $ am  : num  1 1 1 0 0 0 0 0 0 0 ...\n##  $ gear: num  4 4 4 3 3 3 3 4 4 4 ...\n##  $ carb: num  4 4 1 1 2 1 4 2 2 4 ...<\/code><\/pre>\n\n\n\n<h1 class=\"wp-block-heading\">Relaci\u00f3n entre las variables<\/h1>\n\n\n\n<p>Antes de crear el modelo de regresi\u00f3n lineal, el que estudiaremos como variable dependiente o respuesta a&nbsp;<strong>mpg<\/strong>&nbsp;(miles per US gallon) e independiente o predictora&nbsp;<strong>weigth<\/strong>&nbsp;(wt), echaremos un vistazo a la relaci\u00f3n existente entre ambas variables, gr\u00e1ficamente y, a nivel de correlaci\u00f3n.<\/p>\n\n\n\n<p><br>Si creamos un plot de ambas variables (x = wt, y = mpg) podemos ver como hay una&nbsp;<strong>relaci\u00f3n negativa<\/strong>&nbsp;entre ellas. Como era de esperar, un aumento del peso del veh\u00edculo dar\u00e1 lugar a una disminuci\u00f3n del rendimiento en lo que se refiere al consumo de combustible. Los veh\u00edculos m\u00e1s pesados recorrer\u00e1n menos millas por gal\u00f3n de combustible.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>par(mfrow = c(1, 1))\nplot(mtcars$wt, mtcars$mpg,\n     main = \"millas por gallon VS weigth\",\n     sub = \"plot\",\n     xlab = \"peso\",\n     ylab = \"millas por gal\u00f3n\",\n     cex.lab = 1.2,\n     cex.axis = 1,\n     mgp = c(2.4, 1, 0),\n     pch = 19,\n     col = \"black\")<\/code><\/pre>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"731\" data-src=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-21-1024x731.png\" alt=\"\" class=\"wp-image-292 lazyload\" data-srcset=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-21-1024x731.png 1024w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-21-300x214.png 300w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-21-768x549.png 768w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-21.png 1344w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/731;\" \/><\/figure>\n\n\n\n<p>Podemos cuantificar esa relaci\u00f3n negativa midiendo su correlaci\u00f3n lineal (-0,87, correlaci\u00f3n fuerte).<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>df &lt;- data.frame(mtcars$mpg, mtcars$wt)\ncolnames(df) &lt;- c(\"peso\", \"millas\/gal\u00f3n\")\npairs.panels(df, method = \"pearson\",\n             main = \"Correlaci\u00f3n mpg \/ wt\",\n             cex.labels = 1.5,\n             cex.cor = 1, stars = TRUE,\n             pch = 20,\n             gap = 0, \n             lm = TRUE, col = \"#2ECC71\", \n             hist.col = \"#2ECC71\")<\/code><\/pre>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"731\" data-src=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-22-1024x731.png\" alt=\"\" class=\"wp-image-293 lazyload\" data-srcset=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-22-1024x731.png 1024w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-22-300x214.png 300w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-22-768x549.png 768w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-22.png 1344w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/731;\" \/><\/figure>\n\n\n\n<p>Tambi\u00e9n podemos estudiar esta correlaci\u00f3n con la funci\u00f3n&nbsp;<strong>cor<\/strong>. La Ho (nula) es que no existe correlaci\u00f3n entre las variables. El resultado sugiere que existe una fuerte correlaci\u00f3n entre el peso del autom\u00f3vil y la eficiencia del combustible en t\u00e9rminos de millas por gal\u00f3n. Un valor de p tan bajo indica una alta significancia estad\u00edstica, lo que respalda descartar la Ho y aceptar la alternativa, que se\u00f1ala la presencia de una relaci\u00f3n entre estas dos variables.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>cor.test(mtcars$wt, mtcars$mpg)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## \n##  Pearson's product-moment correlation\n## \n## data:  mtcars$wt and mtcars$mpg\n## t = -9.559, df = 30, p-value = 1.294e-10\n## alternative hypothesis: true correlation is not equal to 0\n## 95 percent confidence interval:\n##  -0.9338264 -0.7440872\n## sample estimates:\n##        cor \n## -0.8676594<\/code><\/pre>\n\n\n\n<h1 class=\"wp-block-heading\">Regresi\u00f3n lineal<\/h1>\n\n\n\n<p>Creamos el modelo de regresi\u00f3n lineal con la funci\u00f3n&nbsp;<strong>lm<\/strong>. El modelo resultante ser\u00eda igual a&nbsp;<strong>mpg = -5,3445 wt + 37,2851<\/strong>, con un coeficiente de determinaci\u00f3n R^2 ajustado de&nbsp;<strong>0,7446<\/strong>&nbsp;Con este modelo, el&nbsp;<strong>74,46%<\/strong>&nbsp;de la varianza en&nbsp;<strong>mpg<\/strong>&nbsp;ser\u00eda explicada por&nbsp;<strong>wt<\/strong>.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>mod &lt;- lm(mpg ~ wt, data = mtcars) <em># mpg ~ wt<\/em>\nsummary(mod)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## \n## Call:\n## lm(formula = mpg ~ wt, data = mtcars)\n## \n## Residuals:\n##     Min      1Q  Median      3Q     Max \n## -4.5432 -2.3647 -0.1252  1.4096  6.8727 \n## \n## Coefficients:\n##             Estimate Std. Error t value Pr(&gt;|t|)    \n## (Intercept)  37.2851     1.8776  19.858  &lt; 2e-16 ***\n## wt           -5.3445     0.5591  -9.559 1.29e-10 ***\n## ---\n## Signif. codes:  0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1\n## \n## Residual standard error: 3.046 on 30 degrees of freedom\n## Multiple R-squared:  0.7528, Adjusted R-squared:  0.7446 \n## F-statistic: 91.38 on 1 and 30 DF,  p-value: 1.294e-10<\/code><\/pre>\n\n\n\n<h1 class=\"wp-block-heading\">Comprobaci\u00f3n supuestos<\/h1>\n\n\n\n<h2 class=\"wp-block-heading\">Linealidad<\/h2>\n\n\n\n<p>Una forma de comprobar la&nbsp;<strong>linealidad<\/strong>&nbsp;es ver si la media de los residuos del modelo es igual, o cercana, a 0. En este caso, se cumple, con una media de pr\u00e1cticamente 0.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>mean(mod$residuals)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## &#91;1] 7.196392e-17<\/code><\/pre>\n\n\n\n<h2 class=\"wp-block-heading\">Normalidad<\/h2>\n\n\n\n<p>Para comprobar la normalidad vamos a utilizar el test de&nbsp;<strong>Shapiro-Wilk<\/strong>, dado que el n\u00famero de observaciones es inferior a 50 (idealmente, entre 30 y 50; n = 35). Con un p-value de 0.1044 (mayor que 0,05) no descartamos la Ho de normalidad.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>shapiro.test(mod$residuals)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## \n##  Shapiro-Wilk normality test\n## \n## data:  mod$residuals\n## W = 0.94508, p-value = 0.1044<\/code><\/pre>\n\n\n\n<p>Al mismo tiempo, utilizamos un gr\u00e1fico&nbsp;<strong>QQ-PLOT<\/strong>&nbsp;para valorar la normalidad visualmente. En un gr\u00e1fico Q-Q, los cuantiles de la muestra se comparan con los cuantiles te\u00f3ricos de la distribuci\u00f3n de inter\u00e9s. Si los puntos en el gr\u00e1fico se ajustan aproximadamente a una l\u00ednea diagonal, indica que los datos siguen de cerca la distribuci\u00f3n te\u00f3rica (normal). Para hacer este gr\u00e1fico utilizamos la fuciones&nbsp;<strong>qqplot<\/strong>&nbsp;y&nbsp;<strong>qqline<\/strong>.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>qqPlot(mod$residuals, \n       distribution = \"norm\",\n       main = \"Q-Q PLOT de residuos en mpg ~ wt\",\n       xlab = \"cuantiles te\u00f3ricos\",\n       ylab = \"cuantiles de la muestra\",\n       id = FALSE, grid = TRUE,\n       envelope = 0.95, col = carPalette()&#91;1], col.lines = carPalette()&#91;3],\n       pch = 20,\n       cex = 1,\n       lwd = 2)\nqqline(mod$residuals,\n       col = \"blue\",\n       lty = 1,\n       lwd = 2)   <\/code><\/pre>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"731\" data-src=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-23-1024x731.png\" alt=\"\" class=\"wp-image-294 lazyload\" data-srcset=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-23-1024x731.png 1024w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-23-300x214.png 300w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-23-768x549.png 768w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-23.png 1344w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/731;\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Homocedasticidad<\/h2>\n\n\n\n<p>Para evaluar la homocedasticidad de los residuos utilizamos el test de&nbsp;<strong>Breusch-Pagan<\/strong>, con la funci\u00f3n&nbsp;<strong>bptest()<\/strong>&nbsp;La funci\u00f3n captura los residuos guardados en el objeto&nbsp;<strong>mod<\/strong>&nbsp;para realizar los c\u00e1lculos, por lo que no es necesario indicarlo de la forma&nbsp;<strong>mod$residuals<\/strong><\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>bptest(mod)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>## \n##  studentized Breusch-Pagan test\n## \n## data:  mod\n## BP = 0.040438, df = 1, p-value = 0.8406<\/code><\/pre>\n\n\n\n<p>Igualmente, podemos evaluar la homocedasticidad de forma visual utilizando&nbsp;<strong>plot<\/strong>&nbsp;del objeto&nbsp;<strong>mod<\/strong>. Tenemos dos gr\u00e1ficos para ver esto: (gr\u00e1fico 1) la distribuci\u00f3n de los&nbsp;<strong>residuos VS valores ajustados<\/strong>. Lo que se busca es que estos presenten un patr\u00f3n&nbsp;<strong>aleatorio<\/strong>&nbsp;alrededor de 0. Un patr\u00f3n aleatorio sugiere que el modelo de regresi\u00f3n es apropiado y que los supuestos del modelo se cumplen. Por otro lado, el (gr\u00e1fico 2), donde los residuos est\u00e1n estandarizados en t\u00e9rminos de su error est\u00e1ndar. Un&nbsp;<strong>gr\u00e1fico de residuos estandarizados versus valores ajustados<\/strong>&nbsp;es \u00fatil para identificar valores at\u00edpicos y puntos influyentes que se destacan en t\u00e9rminos de su distancia con respecto a los valores ajustados y su variabilidad. La estandarizaci\u00f3n de los residuos los convierte en valores adimensionales, lo que facilita la comparaci\u00f3n de la magnitud de los residuos en diferentes partes del rango de valores ajustados. En este caso los gr\u00e1ficos muestran una cierta p\u00e9rdida de homocedasticidad, mientras que el test valid\u00f3 esta.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>par(mfrow = c(1, 2))\nplot(mod, 1)\nplot(mod, 3)<\/code><\/pre>\n\n\n\n<figure class=\"wp-block-image size-large\"><img decoding=\"async\" width=\"1024\" height=\"731\" data-src=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-24-1024x731.png\" alt=\"\" class=\"wp-image-295 lazyload\" data-srcset=\"https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-24-1024x731.png 1024w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-24-300x214.png 300w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-24-768x549.png 768w, https:\/\/agustincastro.es\/wp-content\/uploads\/2023\/10\/image-24.png 1344w\" data-sizes=\"(max-width: 1024px) 100vw, 1024px\" src=\"data:image\/svg+xml;base64,PHN2ZyB3aWR0aD0iMSIgaGVpZ2h0PSIxIiB4bWxucz0iaHR0cDovL3d3dy53My5vcmcvMjAwMC9zdmciPjwvc3ZnPg==\" style=\"--smush-placeholder-width: 1024px; --smush-placeholder-aspect-ratio: 1024\/731;\" \/><\/figure>\n\n\n\n<h2 class=\"wp-block-heading\">Independencia<\/h2>\n\n\n\n<p>El test de&nbsp;<strong>Durbin-Watson<\/strong>&nbsp;es una prueba estad\u00edstica que se utiliza para analizar la presencia de autocorrelaci\u00f3n de primer orden en los residuos de un modelo de regresi\u00f3n. Aunque su uso original estaba destinado a modelos de regresi\u00f3n lineal simple, tambi\u00e9n puede aplicarse a modelos de regresi\u00f3n m\u00faltiple.&nbsp;<strong>La prueba proporciona informaci\u00f3n sobre la independencia de los residuos<\/strong>. El estad\u00edstico de Durbin-Watson toma valores entre&nbsp;<strong>0 y 4<\/strong>. Un valor de 2 sugiere que no hay autocorrelaci\u00f3n.&nbsp;<strong>Los valores m\u00e1s cercanos a 0 indican autocorrelaci\u00f3n positiva<\/strong>, mientras que&nbsp;<strong>los valores m\u00e1s cercanos a 4 indican autocorrelaci\u00f3n negativa<\/strong>.<\/p>\n\n\n\n<p>El p-value es inferior a 0,05, por lo que se descarta la H0 de ausencia de autocorrelaci\u00f3n en los residuos. El valor del estad\u00edstico de D-W es de 1,25. Habr\u00eda que aceptar la H alternativa de que hay \u201cautocorrelaci\u00f3n\u201d y por tanto, no hay independencia en los residuos. Este resultado hace que tengamos que ser precavidos con el modelo generado.<\/p>\n\n\n\n<pre class=\"wp-block-code\"><code>durbinWatsonTest(mod)<\/code><\/pre>\n\n\n\n<pre class=\"wp-block-code\"><code>##  lag Autocorrelation D-W Statistic p-value\n##    1       0.3628798      1.251727   0.016\n##  Alternative hypothesis: rho != 0<\/code><\/pre>\n","protected":false},"excerpt":{"rendered":"<p>En esta pr\u00e1ctica trabajaremos sobre los&nbsp;SUPUESTOS&nbsp;que deben cumplirse a la hora de dar por v\u00e1lida una regresi\u00f3n lineal, concretamente los de LINEALIDAD, INDEPENDENCIA, NORMALIDAD y HOMOCEDASTICIDAD. Estos supuestos proporcionan las bases para interpretar correctamente los resultados y las conclusiones del modelo. La importancia de cumplir con estos supuestos radica en garantizar la validez de las [&hellip;]<\/p>\n","protected":false},"author":1,"featured_media":330,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[7,5],"tags":[],"class_list":["post-291","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-r","category-tecnica-y-practica"],"_links":{"self":[{"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/posts\/291","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/comments?post=291"}],"version-history":[{"count":6,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/posts\/291\/revisions"}],"predecessor-version":[{"id":315,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/posts\/291\/revisions\/315"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/media\/330"}],"wp:attachment":[{"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/media?parent=291"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/categories?post=291"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/agustincastro.es\/index.php\/wp-json\/wp\/v2\/tags?post=291"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}