En el artículo anterior justifiqué las ecuaciones de las rectas de regresión de $Y$ sobre $X$, con ecuación punto-pendiente $$y-\bar{y}=\dfrac{s_{xy}}{s_{x}^{2}}\,(x-\bar{x})$$ y de $X$ sobre $Y$ cuya ecuación punto-pendiente es $$x-\bar{x}=\dfrac{s_{xy}}{s_{y}^{2}}\,(y-\bar{y})$$
Dichas rectas son coincidentes si el coeficiente de correlación de Pearson es igual a $1$, que es el caso de dependencia funcional.
En el caso de que la correlación sea nula ( dependencia aleatoria ), la recta de regresión de $Y$ sobre $X$ es paralela al eje de abscisas, puesto que al ser la covarianza nula $s_{xy}=0$, la ecuación de la midms es $y=\bar{y}$ ( valor constante ); y, por otra parte, la recta de regresión de $X$ sobre $Y$ es paralela al eje de ordenadas, habida cuenta de que por la misma razón ( la covarianza es nula, $s_{xy}=0$ ), así que la ecuación de esta otra recta es ahora $x=\bar{x}$ ( valor constante ). En consecuencia, no habiendo correlación alguna (aleatoriedad), las dos rectas de regresión son perpendiculares una a la otra.
El caso que reviste mayor interés es el de dependencia es estadística ( correlación no nula, pero no habiendo dependecia funcional ). Siendo así, las rectas son secantes, y el punto de intersección es $I(\bar{x},\bar{y})$, cosa que ya había adelantado en otros artículos y también en clase al empezar a hacer ejercicios prácticos.
A continuación paso a justificar esta propiedad. Para ello hay que resolver el sistema de ecuaciones, con incógnitas $x$ e $y$: $$\left\{\begin{matrix}y-\bar{y}=\dfrac{s_{xy}}{s_{x}^{2}}\,(x-\bar{x}) \\ x-\bar{x}=\dfrac{s_{xy}}{s_{y}^{2}}\,(y-\bar{y}) \end{matrix}\right.$$
que puede expresarse de la forma $$\left\{\begin{matrix}y=\dfrac{s_{xy}}{s_{x}^2}\,x+\left( \bar{y}-\dfrac{s_{xy}}{s_{x}^2}\,\bar{x}\right) \\ y=\dfrac{s_{y}^{2}}{s_{xy}}\,x+\left( \bar{y}-\dfrac{s_{y}^{2}}{s_{xy}}\,\bar{x}\right)\end{matrix}\right.$$
igualando los segundos miembros de ambas igualdades, llegamos a una ecuación con $x$ como incógnita $$\dfrac{s_{xy}}{s_{x}^2}\,x+\left( \bar{y}-\dfrac{s_{xy}}{s_{x}^2}\,\bar{x}\right)=\dfrac{s_{y}^{2}}{s_{xy}}\,x+\left( \bar{y}-\dfrac{s_{y}^{2}}{s_{xy}}\,\bar{x}\right)$$ y agrupando términos semejantes $$x\,\left( \dfrac{s_{xy}}{s_{x}^{2}} - \dfrac{s_{y}^{2}}{s_{xy}} \right) = \bar{x}\,\left( \dfrac{s_{xy}}{s_{x}^{2}} - \dfrac{s_{y}^{2}}{s_{xy}} \right) $$ y simplificando, se obtiene $$x=\bar{x}$$
Sustituyendo en la primera ecuación de (1): $$y-\bar{y}=\dfrac{s_{xy}}{s_{x}^{2}}\,(\bar{x}-\bar{x})=0 \Rightarrow y=\bar{y}$$
luego, como queríamos demostrar, el punto de intersección de las rectas de regresión ( de $Y$ sobre $X$, y de $X$ sobre $Y$ ) es $$I(\bar{x},\bar{y})$$
$\square$