Kleinste-kwadratenmethode

Uit Wikipedia, de vrije encyclopedie
Naar navigatie springen Naar zoeken springen

De kleinste-kwadratenmethode is een rekenmethode om bij een gegeven verzameling punten in het vlak uit een verzameling curven de best passende te bepalen. De methode dankt zijn naam kleinste kwadraten aan het daarbij gehanteerde criterium voor best passen, waarbij de mate van passen wordt afgemeten aan het totaal van de kwadratische afwijkingen (meestal in verticale zin) van de curve.

Geschiedenis[bewerken]

De methode werd onafhankelijk van elkaar ontwikkeld door Carl Friedrich Gauss en Adrien Marie Legendre. In 1801 gebruikte Gauss de kleinste-kwadratenmethode om de baan van de pas ontdekte planetoïde Ceres te schatten. Hij voorspelde nauwkeurig waar en wanneer Ceres weer zou verschijnen.

Definitie[bewerken]

De kleinste-kwadratenmethode in z'n eenvoudigste, oorspronkelijke vorm is een methode om bij een gegeven verzameling punten in het xy-vlak, die verondersteld worden (min of meer) op een rechte lijn te liggen, de best passende lijn te bepalen. Best passen betekent dat het totaal van de gekwadrateerde afwijkingen in verticale zin van de punten ten opzichte van de lijn zo klein mogelijk is.

Als het -de meetpunt wordt voorgesteld door en de gezochte lijn door:

,

wordt de afwijking voor dit punt gegeven door:

Linreg.PNG

De som van de kwadraten van alle afwijkingen is

Het komt er nu op neer bij de gegeven punten de parameters en zo te bepalen dat de bovenstaande som minimaal is. Dit voert tot de zogeheten 'normaalvergelijkingen' voor en :

met als oplossingen

en

Generalisatie[bewerken]

De kleinste-kwadratenmethode is een methode om een model te passen aan een aantal meetwaarden. De parameters van het model waarvoor geldt dat de kwadraten van de afwijkingen van de meetwaarden ten opzichte van het model minimaal zijn, worden gezocht.

Als het model slechts onafhankelijke parameters kent die daarnaast elk alleen in de eerste macht voorkomen, dan kan de kleinste-kwadratenmethode in een keer worden toegepast waarbij in een enkele bewerking de optimale parameters worden verkregen. Deze variant noemt men de 'lineaire' kleinste-kwadratenmethode. Dit wil dus niet zeggen dat het model een rechte lijn is. Veel gecompliceerdere modellen kunnen lineair worden opgelost.

Als het model wel hogere machten heeft of correlaties tussen parameters kent, kan via een iteratieve procedure toch vaak een goed model worden gevonden. Hiervoor moet een aantal keren een berekening worden gemaakt waarbij de lokale afgeleide van de modelfunctie wordt gebruikt. Daarvoor moet echter wel van tevoren bekend zijn waar de uitkomst ongeveer ligt, anders volgt een verkeerd of suboptimaal minimum.

In het algemene geval worden de waarnemingsparen geacht te voldoen aan:

,

waarin een bekende familie van functies is, geparametriseerd door de parameters , en een storingsterm is.

De optimale waarden van de parameters worden bepaald door het kleinste-kwadratencriterium, dus zo dat de som van de kwadratische afwijkingen

minimaal is.

Lineaire regressie[bewerken]

De kleinste-kwadratenmethode vindt onder meer toepassing bij lineaire regressie.

Een vergelijkbare rekenmethode waarbij alle waarden niet vooraf bekend hoeven te zijn is het Kalman-filter.

Lineaire vergelijkingen[bewerken]

Als een stelsel lineaire vergelijkingen overbepaald is, dus met meer onafhankelijke vergelijkingen dan het aantal onbekenden, kan met de kleinste-kwadratenmethode de best passende oplossing berekend worden.

In het overbepaalde stelsel lineaire vergelijkingen

is de matrix van dimensies , met , en is de rijenrang van de uitgebreide matrix groter dan . Het stelsel is dus niet oplosbaar, maar de beste benadering in de zin van kleinste kwadraten voldoet aan:

minimaal.

De kleinste-kwadratenoplossing is: