Mi a teendő a multikollinearitással?

az egyik azt várná, hogy a multikollinearitás erős legyen.

Fontos felismerni, hogy a multikollinearitás következtében külön nem lehet becsülni az egyes paraméterek pontos értékét. Ha például a 4.1. Táblázatból származó regresszióban megvizsgáljuk az együtthatók becsléseinek kovariancia mátrixát:

24,00739 10,41840 -10,39384

10,41840 4,566967 -4,541984 -10,39384 -4,541984 4,521524

Felhívjuk a figyelmet arra, hogy az együtthatók összegének varianciájának becslése, amelyet nem tudunk pontosan megbecsülni

D (β1 + D2) + 2 cov (β1 β2) = 4,57 + 4,52 + 2 (- 4,54) = 0,01 ez azt jelenti, hogy

Ezeknek a paramétereknek az összegét pontosan becsülhetjük (a variancia nagyon kicsi). Tehát nem tudunk mindkét együtthatót kiértékelni, de ki tudjuk értékelni az egyik együtthatókat vagy azok lineáris kombinációját. A multikollinearitás elleni küzdelem módszereinek többsége erre épül.

Mi van, ha multikollinearitás van?

1) Semmi. Számos kutató úgy véli, hogy nincs semmi baj abban, hogy az együtthatókat nem pontosan becsülik, nem. Például, ha a modellt az előrejelzéshez használjuk, akkor a multikollinearitással rendelkező modell alapján jó előrejelzést kapunk.

2) Módosítsa a modell specifikációját. Gyakran a multikollinearitás abból fakad, hogy a modell helytelenül van felépítve. Tudod (a) csak dobd ki azokat a változókat, amelyek a többiektől függenek. (b) A változók felülbírálása, a logaritmusok / első eltérések megadására stb. Például, amint azt példánkból (4.4. Táblázat) látjuk, amikor csak egy változót hagyunk ki kettőből, a modell csak javul (a beállított együttható növeli).

3) Növelje a mintát. Adjon hozzá adatokat egy másik struktúrával, ahol a magyarázó változók egymástól nem függenek. (Jó ötlet, de hol kapjuk meg őket =)

3) Menj a változók lineáris kombinációjához. Ezt másképp lehet tenni,

Kapcsolódó cikkek