Meest aannemelijke schatter

Uit Wikipedia, de vrije encyclopedie

De methode van de grootste aannemelijkheid of maximum-likelihood-method is in de statistiek een schattingsmethode die als schatting van een parameter die waarde kiest, waarvoor de aannemelijkheidsfunctie maximaal is. De schatter heet meest aannemelijke schatter, of maximum-likelihood-schatter.

De schatting wordt daarom de meest aannemelijke schatting genoemd. Het is de parameterwaarde die gezien de steekproefuitkomst het meest aannemelijk is. Hoe aannemelijk een parameterwaarde is, wordt afgemeten aan de kans (of kansdichtheid) om bij die waarde van de parameter de steekproefuitkomst te vinden. Een voorbeeld zal dit verduidelijken.

Voorbeelden[bewerken | brontekst bewerken]

Een vreemde munt ziet er in het geheel niet mooi symmetrisch uit. Wat zal bij werpen de kans op kop zijn? We gooien 10 keer met de munt en vinden 3 keer kop. De kans op deze uitkomst is nog een functie van ; en wel is volgens de binomiale verdeling:

De functie is de aannemelijkheidsfunctie. Hoe groter de kans op de gebeurtenis die plaatsvond, hier de uitkomst , is als functie van , hoe 'aannemelijker' het ons lijkt dat die kans de werkelijke kans op kop was. We zoeken nu de waarde van die het 'meest aannemelijk' is, dus waar de aannemelijkheidsfunctie maximaal is. We zien gemakkelijk dat en dat verder . Het maximum van wordt (met enige wiskunde) gevonden bij . Dus de meest aannemelijke schatting van is 0,3.

De uitkomst van een aselecte steekproef is afkomstig uit een normale verdeling met parameters en . De aannemelijkheidsfunctie is dus:

Voor het bepalen van het maximum kan men ook de logaritme nemen:

De partiële afgeleiden naar en zijn:

en

Stelt men deze uitdrukkingen gelijk aan 0, dan krijgt men als oplossing:

en

Omdat inderdaad voor deze waarden maximaal is, zijn en dus de meest aannemelijke schatters van en .

Geschiedenis[bewerken | brontekst bewerken]

Ronald Fisher in 1913

De methode van de grootste aannemelijkheid werd gepropageerd en geanalyseerd - met overigens vruchteloze pogingen voor een bewijs - door Ronald Fisher tussen 1912 en 1922.[1] Wel was de methode al eerder gebruikt door Gauss, Laplace, Thiele en Edgeworth.[2]

De methode is uiteindelijk verder dan heuristische rechtvaardiging gekomen door een in 1938 bewijs gepubliceerd van Samuel S. Wilks, nu bekend als de Stelling van Wilks.[3] De stelling laat zien dat de fout in de logaritme van de aannemelijkheidswaarden voor schattingen uit meerdere onafhankelijke steekproeven chi-kwadraatverdeeld is, waardoor het mogelijk is een betrouwbaarheidsgebied te bepalen rond de schattingen. Ironisch genoeg hangt het enige moeilijke deel van het bewijs af van de verwachtingswaarde van de Fisher informatiematrix, die wordt gegeven door een stelling van Fisher.[4] Wilks bleef gedurende zijn leven voortdurend de algemeenheid van de stelling verbeteren, en zijn meest algemene bewijs is gepubliceerd in 1962.[5]

Referenties[bewerken | brontekst bewerken]

  1. Pfanzagl, Johann, with the assistance of R. Hamböker (1994), Parametric statistical theory. Walter de Gruyter, Berlin, DE, 207–208. ISBN 3-11-013863-8.
  2. Edgeworth (september 1908) en Edgeworth (december 1908)
  3. Wilks, S. S. (1938). The Large-Sample Distribution of the Likelihood Ratio for Testing Composite Hypotheses. Annals of Mathematical Statistics, 9: 60–62. doi:10.1214/aoms/1177732360.
  4. Owen, Art B. (2001). Empirical Likelihood. London: Chapman & Hall/Boca Raton, FL: CRC Press. ISBN 978-1584880714.
  5. Wilks, Samuel S. (1962) Mathematical Statistics. New York: John Wiley & Sons. ISBN 978-0471946502.