En el modelo de
regresión lineal múltiple
|

|


Desde otro punto de vista,
comparando la V ar
cuando se utiliza el modelo de
regresión lineal múltiple
con dos regresores y cuando
se utiliza el modelo de regresión lineal simple
de un solo
regresor. Se obtiene que




si existe alta multicolinealidad 1 - r122
0 y, por tanto,
V ar
>> V ar
.



La última
ecuación se generaliza para un
modelo de regresión lineal con
k variables regresoras, de la siguiente forma
|
Se
denomina factor de incremento de
la varianza al número
|
|


Si existe
multicolinealidad, el FIV
es muy grande y V ar
es mucho
mayor que V ar
.



De todo lo anterior se deduce que en un problema de
regresión múltiple con fuerte multicolinealidad
se verificará:
![]() |
Los estimadores
![]() |
![]() |
Por la alta variabilidad de los estimadores
![]() |
![]() |
La multicolinealidad normalmente afecta a unas
variables y a otras no, por tanto, puede
afectar a unos parámetros del modelo y a otros no.
|
![]() |
La multicolinealidad no afecta a las predicciones
![]() ![]() ![]() |
![]() |
En resumen la multicolinealidad es un problema de
la muestra de la que se quiere obtener
más
información de la que
contiene.
|
![]() |
Se resuelve el problema de multicolinealidad
eliminando del modelo las variables explicativas
dependientes. Esto es, se deben eliminar del modelo
aquellas variables que proporcionan una
información que
se obtiene de otras variables ya incluídas en el modelo.
|
Detectando la
multicolinealidad.
La
multicolinealidad indica que existe una fuerte
correlación entre las variables
regresoras, por lo tanto para
detectarla se debe estudiar:
![]() |
Gráfico
de dispersión matricial.
|
El gráfico de dispersión matricial de las regresoras permite tener una idea acerca de la posible relación lineal entre dos regresoras (ver Figura 9.1.).
![]() |
La matriz de correlaciones de las variables
regresoras, R.
La existencia de algún valor alto fuera de la diagonal de esta
matriz (ri,j,
i
![]()
Pero ésto no es
suficiente ya que la matriz R
no detecta fuertes relaciones de una
variable
regresora con un conjunto de variables regresoras.
Por ejemplo, considérese un conjunto de k
(k grande) regresoras, donde las
variables x1,x2,...,xk-1
son independientes pero la variable xk
está relacionada con las otras por la siguiente relación exacta
![]()
Éste es un caso extremo de multicolinealidad
y no se puede calcular
![]() ![]() ![]() ![]() | |||
![]() |
Los elementos de la diagonal de la matriz
R-1.
Ya que se verifica que el i-ésimo elemento de esta matriz es
por tanto si FIV
si diag![]() ![]() ![]() ![]()
Como consecuencia se
debería eliminar la
variable explicativa xi
del modelo de regresión.
El inconveniente de este método es que la matriz R-1 se calcula con
poca precisión (depende
mucho de la muestra) cuando la matriz R es casi singular (su
determinante es próximo
a
cero).
| |||
![]() |
Calcular los autovalores de la matriz R.
Si las variables regresoras son ortogonales, todos
los autovalores de R son iguales a uno, pero si hay
multicolinealidad, al menos uno de los autovalores
de R es
próximo a cero, la variable
regresora
asociada a ese autovalor será la que es aproximadamente una
combinación lineal de las
otras
variables regresoras.
Para medir si un autovalor es próximo a cero o, equivalentemente, para medir
la multicolinealidad
asociada a la matriz R
se utiliza el índice de
condicionamiento
![]()
|
A modo indicativo se puede utilizar el siguiente criterio:
* Si 10
< IC
no hay multicolinealidad.

* Si 10
< IC
< 30,
hay moderada multicolinealidad.

* Si IC
> 30,
hay alta multicolinealidad.

Autovalores y autovectores de
una matriz.
Sea A una matriz
cuadrada de orden k. Considérese la
ecuación

donde I es la matriz
identidad. A las soluciones de esta ecuación se les denomina autovalores
(raíces características) de la matriz A.
Debe tenerse en cuenta que si
es próximo a cero entonces uno (al menos) de los autovalores de A
es próximo a cero.

Dado el autovalor
i, i
= 1,...,k,
los autovectores (o
vectores característicos)
i
asociados a
i se obtienen resolviendo la siguiente
ecuación vectorial




esta ecuación se puede escribir de forma matricial como
sigue

donde E es una matriz
diagonal cuyos elementos son los autovalores y V
es la matriz cuyas columnas son los autovectores que se pueden elegir
ortogonales y unitarios. Entonces V es
una matriz ortonormal, sus filas (o columnas) son ortogonales y de módulo
1, verificando la siguiente relación

de donde

No hay comentarios:
Publicar un comentario