Naturaleza de la multicolinealidad:
Originalmente el término
de multicolinealidad significó la existencia de una relación perfecta o
exacta entre las variables explicativas de un modelo de regresión. En la
actualidad se incluye en la multicolinealidad el término de error
estocástico. Representándose de la sgte forma:
.λ1 x1 + λ2 x2 + λk xk
+ νi = 0
La multicolinealidad así referida se refiere solamente a relaciones lineales
entre variables x. No elimina las relaciones no lineales existentes entre
ellas.
Se supone que en un modelo clásico de
regresión lineal no hay multicolinealidad debido a que :
Si la multicolinealidad es perfecta los
coeficientes de la regresión de las variables x son indeterminados y sus
errores estándar son infinitos. Si la multicolinealidad es menos que
perfecta los coef de regresión poseen grandes errores estándar, lo que hace
que los coef no pueden ser estimados con gran precisión.
Fuentes de Multicolinealidad para
Montgomery y Peck:
- El método de recolección de información empleado, es decir muestras obtenidas en un rango limitado de valores.
- Restricciones sobre el modelo o en la población que es objeto de muestreo.
- Especificación del modelo.
- Un modelo sobredeterminado. Es decir que posee más variables explicativas que el Nº de observaciones.
Estimación en presencia de
Multicolinealidad perfecta:
Aquí los coef de regresión permanecen indeterminados y sus errores estándar
son infinitos. Si X3 y X2 son perfectamente colineales, no hay forma que X3
se mantenga Cte., porque a medida que cambia X2 lo hace X3, esto hace que no
se pueda separar la influencia de las dos variables sobre Y.
En el caso de multicolinealidad perfecta,
no se puede obtener una solución única para los coeficientes de regresión
individual, pero si se pueden obtener para combinaciones lineales de estos.
En el caso de multicolinealidad perfecta, las varianzas y os errores
estándar de β2 y β3 son infinitos.
Estimación en presencia de
Multicolinealidad alta pero imperfecta:
Por lo general no existe una relación perfecta entre las variables, pero si
puede haber una alta multicolinealidad, situación en la cual es posible la
estimación de los coef de regresión β2 y β3.
Consecuencias teóricas
de la Multicolinealidad:
Si se satisfacen los supuestos del modelo clásico, los estimadores MCO de
los coef de regresión son MELI, y aún en caso de presentarse una alta
multicolinealidad, los estimadores seguirán siendo MELI.
Goldberger
definió la
micronumerosidad exacta como la contraparte de la multicolinealidad
exacta, definiendo que en el caso de un tamaño de la muestra cero es
imposible hacer cualquier estimación, y si el Nº de observaciones excede el
Nº de parámetros sucede exactamente lo mismo.
Primero: El insesgamiento es una propiedad de muestreo repetido, lo que no
nos dice nada respecto de las propiedades de los estimadores de una muestra
dada.
Segundo: La colinealidad no destruye la propiedad de varianza mínima. Los
estimadores lineales insesgados tienen varianza mínima, es decir son
eficientes. Por esto no significa que la varianza de un estimador MCO sea
necesariamente pequeña.
Consecuencias de la
Multicolinealidad:
1.
Los
estimadores MCO presentan varianzas y covarianzas grandes que hacen difícil
la estimación precisas.
2.
Los
intervalos de confianza tienden a ser mucho más amplios, lo que hace más
posible aceptar una hipótesis nula de cero.
3.
La
razón t de uno o más coef tienden a ser no significativas.
4.
El R
2 puede ser muy alto.
5.
Los
estimadores MCO y sus errores estándar pueden ser sensibles a pequeños
cambios en la información.
Cuando la colinealidad
es alta no son confiables las pruebas sobre los regresores individuales, en
tales casos la prueba F global es la que mostrará si Y está relacionada con
los regresores.
En situaciones de
extrema multicolinealidad la eliminación de la variable altamente colineal
trae como resultado que la otra var. se torne estadísticamente
significativa.
Detección de la
Multicolinealidad:
Lo importante no es si
existe o no colinealidad, sino los diferentes grados de colinealidad que
existen. La multicolinealidad es una caract de las muestras no de la
población. Entre las distintas formas de detectar multicolinealidad están
las sgts:
1.
La
presencia de un R2 elevado y razones t poco significativas.
La multicolinealidad se considera dañina solo cuando la totalidad de las
influencias de las variables explicativas no se pueden separar.
2.
Altas
correlaciones entre parejas de regresores:
Si el coef de
correlación de orden cero es grande mayor que 0.8 la multicolinealidad es un
problema grave. Las correlaciones de orden cero elevadas son una condición
suficiente pero no necesaria para que exista la multicolinealidad, ya que
esta tb se puede presentar con coef de correlaciones bajos, es decir
inferiores a 0.5.
Cuando los modelos
tienen más de dos variables explicativas los coef de correlación de orden
cero no son una herramienta segura para det si existe o no multicolinealidad,
a diferencia si hay solo 2 var. explicativas donde si lo son.
3.
Regresiones auxiliares:
Una forma de det cual
var. está correlacionada con las otras var. X es realizar una regresión de
cada Xi sobre las otras var. X y calcular el R2 correspondiente.
Cada una de estas regresiones se llama regresiones auxiliares. Para
determinar si la variable se deja o no en el modelo se debe comparar el F
calculado con el Fi crítico al nivel de significancia seleccionado. Así si
el F calculado no excede al F crítico la variable no es colineal con las
demás X, y se mantiene en el modelo; en caso contrario se saca del modelo ya
que la var. sería colineal.
4.
Valores
propios e índice de condición:
Número de condición =
k = Máximo valor propio
Mínimo valor propio
Indice de condición (IC)
= √ k
No hay comentarios:
Publicar un comentario