Kleinste-kwadratenmethode

Uit Wikipedia, de vrije encyclopedie
Ga naar: navigatie, zoeken

De kleinste-kwadratenmethode is een rekenmethode om bij een gegeven verzameling puntenparen in het vlak uit een verzameling curven de "best passende" te bepalen. De methode dankt zijn naam "kleinste kwadraten" aan het daarbij gehanteerde criterium voor "best passen", waarbij de mate van passen wordt afgemeten aan het totaal van de kwadratische afwijkingen (meestal in verticale zin) van de curve.

Geschiedenis[bewerken]

De methode werd onafhankelijk van elkaar ontwikkeld door Carl Friedrich Gauss en Adrien Marie Legendre. In 1801 gebruikte Gauss de kleinste-kwadratenmethode om de baan van de pas ontdekte planetoïde Ceres te schatten. Hij voorspelde nauwkeurig waar en wanneer Ceres weer zou verschijnen.

Definitie[bewerken]

De kleinste-kwadratenmethode in z'n eenvoudigste, oorspronkelijke vorm is een methode om bij een gegeven verzameling punten in het xy-vlak, die verondersteld worden (min of meer) op een rechte lijn te liggen, de "best passende" lijn te bepalen. Best passen betekent dat het totaal van de gekwadrateerde afwijkingen in verticale zin van de punten t.o.v. de lijn zo klein mogelijk is.

Stellen we het i-de meetpunt voor door (x_i,y_i), en de gezochte lijn door:

y=a+bx,

dan wordt de afwijking d_i voor dit punt gegeven door:

d_i=y_i -(a+bx_i).

Linreg.PNG

De som van de kwadraten van alle afwijkingen is

\sum_{i=1}^{n}{d_i^2}=\sum_{i=1}^{n}\left(y_i -(a+bx_i)\right)^2.

Het komt er nu op neer bij de gegeven punten de parameters a en b zo te bepalen dat de bovenstaande som minimaal is. Dit voert tot de zogeheten normaalvergelijkingen voor a en b:

a \cdot n + b \sum{x}= \sum{y}
a \sum{x} + b \sum{x^2} = \sum{xy},

met als oplossingen

b=\frac{n\sum xy - \sum x\sum y}{n\sum x^2 - \sum x\sum x}

en

a=\frac 1n\sum y -\frac 1n b\sum x=\bar{y}-b\bar{x}.

Generalisatie[bewerken]

De kleinste-kwadratenmethode is een methode om een model te passen aan een aantal meetwaarden. De parameters van het model waarvoor geldt dat de kwadraten van de afwijkingen van de meetwaarden ten opzichte van het model minimaal zijn, worden gezocht.

Als het model slechts onafhankelijke parameters kent, die daarnaast elk alleen in de eerste macht voorkomen, dan kan men de kleinste-kwadratenmethode in een keer toepassen: men verkrijgt in een enkele bewerking de optimale parameters. Deze variant noemt men de lineaire kleinste-kwadratenmethode. Let op: dit wil dus niet zeggen dat het model een rechte lijn is! Veel gecompliceerdere modellen kunnen lineair worden opgelost.

Wanneer het model wel hogere machten heeft of correlaties tussen parameters kent, kan via een iteratieve procedure toch vaak een goed model worden gevonden. Hiervoor moet men een aantal keren een berekening maken waarbij de lokale afgeleide van de model-functie wordt gebruikt. Men moet daarvoor echter wel van tevoren weten waar men ongeveer zal uitkomen, anders kan men in een verkeerd (suboptimaal) minimum uitkomen.

In het algemene geval worden de n waarnemingsparen \,(x_i,y_i) geacht te voldoen aan:

y_i = f(x_1,\dots,x_n, \beta_1,\dots,\beta_m)+ u_i,

waarin \,f een bekende familie van functies is, geparametriseerd door de m parameters \beta_1,\dots,\beta_m, en \,u_i een storingsterm is.

De optimale waarden b_1,\dots,b_m van de parameters worden bepaald door het kleinste-kwadratencriterium, dus zo dat de som van de kwadratische afwijkingen

S = \sum_{i=1}^n \left(y_i - f(x_1,\dots,x_n, b_1,\dots,b_m)\right)^2

minimaal is.

Lineaire regressie[bewerken]

De kleinste-kwadratenmethode vindt onder meer toepassing bij lineaire regressie.

Een vergelijkbare rekenmethode waarbij alle waarden niet vooraf bekend hoeven te zijn is het Kalman-filter.