Computationele leertheorie

Uit Wikipedia, de vrije encyclopedie

De computationele leertheorie is een onderdeel van de theoretische informatica waarin algoritmes die gebruikt worden in het machinaal leren worden geanalyseerd.

Overzicht[bewerken | brontekst bewerken]

Binnen de computationele leertheorie wordt voornamelijk onderzoek gedaan naar een manier van inductief leren die supervised learning wordt genoemd. Bij supervised learning krijgt een algoritme voorbeelden (samples), die door de supervisor op een bepaalde bruikbare manier worden gelabeld. De samples kunnen bijvoorbeeld beschrijvingen van paddenstoelen zijn, en de labels kunnen aangeven of de paddenstoelen eetbaar zijn of niet. Het algoritme leidt een classificatiefunctie af uit de eerder gelabelde samples. Deze classificatiefunctie kent etiketten toe aan samples, inclusief samples die het algoritme nog nooit eerder is tegengekomen. Het doel van een algoritme voor supervised leren is om de prestatie op een bepaald gebied te optimaliseren, bijvoorbeeld het minimaliseren van het aantal fouten dat gemaakt wordt bij nieuwe samples.

Computationele leertheoretici bestuderen, naast de grenzen van algoritmes voor machinaal leren, ook de tijdscomplexiteit en de haalbaarheid van het leren. In de computationele leertheorie wordt een berekening als haalbaar beschouwd als het in de polynomiale tijd uitgevoerd kan worden. Er zijn twee soorten resultaten bij tijdscomplexiteit:

  • positieve resultaten laten zien dat een klasse van functies in polynomiale tijd kan worden geleerd;
  • negatieve resultaten laten zien dat een klasse van functies niet in in polynomiale tijd kan worden geleerd.

Negatieve resultaten hangen meestal af van veronderstellingen. Veel voorkomende veronderstellingen bij negatieve resultaten zijn:

  • Computationele complexiteit: P ≠ NP
  • Cryptografie - eenrichtingsfuncties bestaan.

Er bestaan verschillende methodes in de computationele leertheorie. Ze verschillen in de veronderstellingen over de principes van gevolgtrekking die worden gebruikt om algemene conclusies te trekken op basis van een beperkt aantal gegevens. Hiertoe behoren de gebruikte vorm van kansrekening (bijvoorbeeld frequentistische kansrekening en Bayesiaanse kansrekening) en de verschillende veronderstellingen over de productie van samples. Voorbeelden van de verschillende benaderingen zijn:

  • probably approximately correct learning (PAC-leren), ontwikkeld door Leslie Valiant;
  • VC-theorie, ontwikkeld door Vladimir Vapnik;
  • Bayesiaanse statistiek, ontstaan uit onderzoek dat werd begonnen door Thomas Bayes.
  • algoritmische leertheorie, ontwikkeld door E.M. Gold;
  • Online machinaal leren, ontwikkeld door Nick Littlestone.

De computationele leertheorie heeft een aantal praktische algoritmes opgeleverd. Op basis van de PAC-theorie ontstond bijvoorbeeld boosting, de VC-theorie leverde support vector machines op en met behulp van de Bayesiaanse statistiek ontwikkelde Judea Pearl probabilistische netwerken.

Zie ook[bewerken | brontekst bewerken]

Bibliografie[bewerken | brontekst bewerken]

Onderzoeken[bewerken | brontekst bewerken]

  • Angluin, D. 1992. ‘Computational learning theory: Survey and selected bibliography.’ In: Proceedings of the Twenty-Fourth Annual ACM Symposium on Theory of Computing (May 1992), blz. 351-369. http://portal.acm.org/citation.cfm?id=129712.129746
  • Haussler, D. 1990. ‘Probably approximately correct learning.’ In: AAAI-90 Proceedings of the Eight National Conference on Artificial Intelligence, Boston, MA. blz. 1101-1108. American Association for Artificial Intelligence. https://citeseer.ist.psu.edu/haussler90probably.html

VC theorie[bewerken | brontekst bewerken]

  • Vapnik, V. and A. Chervonenkis. 1971. On the uniform convergence of relative frequencies of events to their probabilities. Theory of Probability and its Applications, 16(2). blz. 264-280.

Feature selection[bewerken | brontekst bewerken]

Inductieve gevolgtrekking[bewerken | brontekst bewerken]

  • Gold, E.M., Language identification in the limit. Information and Control. 10. blz. 447-474.

Leren van Optimale O notatie[bewerken | brontekst bewerken]

Negatieve resultaten[bewerken | brontekst bewerken]

Boosting[bewerken | brontekst bewerken]

Ockhams scheermes[bewerken | brontekst bewerken]

  • Blumer, A., A. Ehrenfeucht, D. Haussler en M.K. Warmuth. 1987. ‘Occam’s razor’. In: Inf.Proc.Lett. 24. Blz. 377-380.
  • Blumer, A., A. Ehrenfeucht, D. Haussler en M. K. Warmuth. 1989. ‘Learnability and the Vapnik-Chervonenkis dimension.’ In: Journal of the ACM 36(4). blz. 929-865.

Probably approximately correct learning[bewerken | brontekst bewerken]

  • Valiant, L., ‘A Theory of the Learnable.’ In: Communications of the ACM 27(11). blz. 1134-1142.

Foutentolerantie[bewerken | brontekst bewerken]

Equivalentie[bewerken | brontekst bewerken]

  • Haussler, D., M. Kearns, N. Littlestone en M. Warmuth. 1988. ‘Equivalence of models for polynomial learnability.’ In: Proc. 1st ACM Workshop on Computational Learning Theory blz. 42-55.
  • Pitt, L. en M. K. Warmuth. 1990. ‘Prediction preserving reduction’ In: Journal of Computer System and Science 41 blz 430-467.

Externe links[bewerken | brontekst bewerken]