Miért használják a közönséges legkisebb négyzetek módszerét lineáris regresszióban?

Miért használják a közönséges legkisebb négyzetek módszerét lineáris regresszióban?
Anonim

Válasz:

Ha a Gauss-Markof feltételezések akkor maradnak, akkor az OLS biztosítja a lineáris becslők legalacsonyabb standard hibáját, így a legjobb lineáris objektív becslést

Magyarázat:

Ezeket a feltételezéseket figyelembe véve

  1. A paraméterek együtthatása lineáris, ez csak azt jelenti # beta_0 és beta_1 # lineárisak, de a #x# változónak nem kell lineárisnak lennie # X ^ 2 #

  2. Az adatokat véletlenszerű mintából vettük

  3. Nincs tökéletes több kollinearitás, így két változó nem tökéletesen összefügg.

  4. #E (u #/#x_j) = 0 # az átlagos feltételes feltételezés nulla, azaz a # # X_j a változók nem szolgáltatnak információt a nem megfigyelt változók átlagáról.

  5. A varianciák egyenlőek az egyes szinteknél #x# azaz #var (u) = Sigma ^ 2 #

Ezután az OLS a legjobb lineáris becslõ a lineáris becslõk populációjában vagy a (legjobb lineáris nem megítélõ becslõ) kék.

Ha ez a további feltételezés:

  1. A szórások általában eloszlanak

Ezután az OLS becslõ lesz a legjobb becslõ, függetlenül attól, hogy lineáris vagy nem lineáris becslõ.

Ez lényegében azt jelenti, hogy ha az 1-5 feltevések megtartják, akkor az OLS biztosítja a lineáris becslők legalacsonyabb standard hibáját, és ha 1-6 tart, akkor a becslések legalacsonyabb standard hibáját biztosítja.