Overleg:Perceptron

Pagina-inhoud wordt niet ondersteund in andere talen.
Uit Wikipedia, de vrije encyclopedie

Perceptron convergence theorema[brontekst bewerken]

Volgens mij gaat dit stukje niet over het Perceptron convergentietheorema, maar beschrijft het alleen de werking van de training van het Rosenblattperceptron. Ik heb de naam derhalve gewijzigd in "Trainingsalgoritme".

Predictie niet-lineaire tijdreeksen[brontekst bewerken]

Ik zou zeggen dat een perceptron hier niet geschikt voor is. Een perceptron is immers slechts geschikt voor lineaire classificatie. Regressie naar continue functies is wel mogelijk, en een mapping van 'waarde vorige tijdstap' naar 'waarde volgende tijdstap' moet ook mogelijk zijn, maar dan toch volgens mij alleen onder assumptie van lineariteit van de tijdreeks.

Dat hangt ervan af of het een enkellaags of meerlaagsperceptron betreft. Van het meerlaagsperceptron (MLP) is bewezen dat het een universele niet-lineaire functieapproximator is (Hornik, K. (1989) Multilayer Feedforward Networks are Universal Approximators, Neural Networks 2, 359–366). Dat wil onder andere zeggen dat iedere (niet-)lineaire functie tot op willekeurige precisie kan worden benaderd door een MLP, mits het netwerk groot genoeg is, er voldoende trainingsdata beschikbaar is en het netwerk voldoende tijd wordt gegeven om te trainen.--Bkaalbokaal (overleg) 26 mrt 2013 11:42 (CET)[reageer]