domingo, 29 de junio de 2014

MULTICOLINEALIDAD


En el modelo de regresión lineal múltiple

Y = Xa + e,
(9.1)
el estimador por mínimos cuadrados ^a se obtiene resolviendo el sistema de ecuaciones
(XtX)^a = XtY ==>  ^a = (XtX)
-1XtY.
(9.2)
Por tanto, para calcular ^a es necesario invertir la matriz (XtX). Se pueden dar las siguientes situaciones:
bullet
Una (o más) de las columnas de la matriz de diseño X, x..j, es una combinación lineal exacta de las otras columnas, esto es, una variable explicativa es combinación lineal de las otras. Entonces el rang(X) < k + 1, el   t |X  X| = 0 y no existe   t (X  X)-1. Por tanto el sistema (XtX)^a = XtY no tiene solución única. No se puede estimar unívocamente el vector ^a. Este sería el caso extremo de multicolinealidad que en la práctica no se suele dar.
bullet
El caso opuesto al anterior se da cuando las variables regresoras son ortogonales. Esto es,
          sum n x..jx..k =    xijxik = 0
si i /= j,  i,j = 1,2,...k.
         i=1
(9.3)
En este caso los resultados del modelo de regresión se pueden interpretar sin ambigüedad. La matriz XtX es diagonal y la matriz V ar(^a) también es diagonal, lo que implica que los estimadores a^ i, i = 1,2,...k, son incorrelados. El signo de a^i es igual al signo del coeficiente de correlación r(xi,Y ), y la contribución de la variable regresora xi a R2 es independiente de las otras variables regresoras que están incluídas en el modelo de regresión, esto es, si se elimina alguna variable regresora o se añade una nueva (ortogonal), la contribución de xi es la misma.
bullet
En la mayoría de las situaciones lo que ocurre es una situación intermedia entre los dos casos extremos anteriores. Esto es, existe una cierta relación entre las variables explicativas lo que hace que los estimadores a^i estén correlacionados. Si está relación es muy fuerte porque dos o más variables regresoras “están próximas” a una relación de linealidad del tipo
  n1x1 + n2x2 + ...+ nkxk = 0,
siendo n1,n2,...,nk números no todos iguales a cero. Entonces se tiene un problema de multicolinealidad.
Aunque exista problema de multicolinealidad, se puede ajustar y estimar el modelo de regresión lineal, pero con mucha variabilidad, en el sentido de que las varianzas de los estimadores de los coeficientes del modelo son muy altas, lo que afecta al estudio del modelo.
Desde otro punto de vista, comparando la V ar(a^i) cuando se utiliza el modelo de regresión lineal múltiple (RLM  ) con dos regresores y cuando se utiliza el modelo de regresión lineal simple (RLS) de un solo regresor. Se obtiene que
Var (a^i/RLM  ) = V-ar(^ai/RLS)-, i
= 1,2,
                   1- r212
si existe alta multicolinealidad 1 - r122 >~~ 0 y, por tanto, V ar(^ai/RLM  ) >> V ar(a^i/RLS).
La última ecuación se generaliza para un modelo de regresión lineal con k variables regresoras, de la siguiente forma
                V ar(^ai/RLS) V
ar(^ai/RLM  ) =--1--r2-----,  i = 1,2,...k,
                      i.resto
(9.4)
donde ri.resto2 es el coeficiente de correlación múltiple entre la variable explicativa xi y el resto de variables explicativas.
Se denomina factor de incremento de la varianza al número
              1 FIV (xi) =
1---r2---,  i = 1,2,...k.
              i.resto
(9.5)
Por tanto,
V ar(^ai/RLM  ) = FIV (xi) V
ar(^ai/RLS) , i = 1,2,...k,
(9.6)
De (9.6) se deduce que V ar(a^i/RLM  ) < V ar(^ai/RLS), lo que implica que el modelo de regresión lineal simple estima con mayor precisión la influencia de la variable xi en la variable respuesta que el modelo de regresión múltiple.
Si existe multicolinealidad, el FIV (xi) es muy grande y V ar(^ai/RLM
) es mucho mayor que V ar(^a /RLS)
  i.
De todo lo anterior se deduce que en un problema de regresión múltiple con fuerte multicolinealidad se verificará:
bullet
Los estimadores a^i tendrán varianzas muy altas y estarán muy correlacionados entre sí.
bullet
Por la alta variabilidad de los estimadores ^ai puede ocurrir que los contrastes individuales (contrastes de la t) sean no significativos mientras que el contraste conjunto (contraste de la F) sea altamente significativo.
bullet
La multicolinealidad normalmente afecta a unas variables y a otras no, por tanto, puede afectar a unos parámetros del modelo y a otros no.
bullet
La multicolinealidad no afecta a las predicciones (  )
 Y^, residuos (e), y varianza poblacional ( 2)
 s.
bullet
En resumen la multicolinealidad es un problema de la muestra de la que se quiere obtener más información de la que contiene.
bullet
Se resuelve el problema de multicolinealidad eliminando del modelo las variables explicativas dependientes. Esto es, se deben eliminar del modelo aquellas variables que proporcionan una información que se obtiene de otras variables ya incluídas en el modelo.
Detectando la multicolinealidad.
La multicolinealidad indica que existe una fuerte correlación entre las variables regresoras, por lo tanto para detectarla se debe estudiar:
bullet
 Gráfico de dispersión matricial.
El gráfico de dispersión matricial de las regresoras permite tener una idea acerca de la posible relación lineal entre dos regresoras (ver Figura 9.1.).
 
bullet
La matriz de correlaciones de las variables regresoras, R.
La existencia de algún valor alto fuera de la diagonal de esta matriz (ri,j, i/=j, es próximo a ±1) , indica que existe una fuerte relación lineal entre las variables regresoras xi y xj.
Pero ésto no es suficiente ya que la matriz R no detecta fuertes relaciones de una variable regresora con un conjunto de variables regresoras. 
Por ejemplo, considérese un conjunto de k (k grande) regresoras, donde las variables x1,x2,...,xk-1 son independientes pero la variable xk está relacionada con las otras por la siguiente relación exacta
            k sum -1
xk =  -1---   xi.
      k- 1 i=1
Éste es un caso extremo de multicolinealidad y no se puede calcular a^  ya que rang(X) = k. Pero si k es grande todos los términos de R son pequeños, ri,j = 0, si i/=j, i,j = 1,...,k - 1  y  ri,k  -~ 0, i = 1,...,k - 1.
bullet
Los elementos de la diagonal de la matriz R-1.
Ya que se verifica que el i-ésimo elemento de esta matriz es
diag(i)R -1 = FIV (i) = ----12----,    i
= 1,...,k,
                     1- ri.resto
(8.7)
por tanto si FIV (i) es un valor muy alto, existe multicolinealidad causada por la variable xi. Por ejemplo 
si diag(i)R-1 = FIV (i) > 10 ==> ri.resto2 > 0'9.
Como consecuencia se debería eliminar la variable explicativa xi del modelo de regresión.
El inconveniente de este método es que la matriz R-1 se calcula con poca precisión (depende mucho de la muestra) cuando la matriz R es casi singular (su determinante es próximo a cero).
bullet
Calcular los autovalores de la matriz R.
Si las variables regresoras son ortogonales, todos los autovalores de R son iguales a uno, pero si hay multicolinealidad, al menos uno de los autovalores de R es próximo a cero, la variable regresora asociada a ese autovalor será la que es aproximadamente una combinación lineal de las otras variables regresoras.
Para medir si un autovalor es próximo a cero o, equivalentemente, para medir la multicolinealidad asociada a la matriz R se utiliza el índice de condicionamiento (IC) de la matriz R que es una buena medida de la singularidad de esta matriz. La definición del índice de acondicionamineto es la siguiente,
         (                  )1/2 IC (R)
=   m´ax-autovalor de-R    > 1
           m´in autovalor de R
(9.8)
 
A modo indicativo se puede utilizar el siguiente criterio:
* Si 10 < IC(R) no hay multicolinealidad.
* Si 10 < IC(R) < 30, hay moderada multicolinealidad.
* Si IC(R) > 30, hay alta multicolinealidad.
Autovalores y autovectores de una matriz.
Sea A una matriz cuadrada de orden k. Considérese la ecuación
|A - cI |= 0,
donde I es la matriz identidad. A las soluciones de esta ecuación se les denomina autovalores (raíces características) de la matriz A. Debe tenerse en cuenta que si |A | es próximo a cero entonces uno (al menos) de los autovalores de A es próximo a cero.
Dado el autovalor cii = 1,...,k, los autovectores (o vectores característicos) ui asociados a c i se obtienen resolviendo la siguiente ecuación vectorial
ciui = Aui.   i = 1,...,k,
esta ecuación se puede escribir de forma matricial como sigue
VE  =  AV,
donde E es una matriz diagonal cuyos elementos son los autovalores y V es la matriz cuyas columnas son los autovectores que se pueden elegir ortogonales y unitarios. Entonces V es una matriz ortonormal, sus filas (o columnas) son ortogonales y de módulo 1, verificando la siguiente relación
VVt  = VtV  = I,
de donde
  t        t            t
V  VE  = V AV  ==>  E = V  AV.
 

No hay comentarios:

Publicar un comentario