Eigenwaarde (wiskunde)

Uit Wikipedia, de vrije encyclopedie
Ga naar: navigatie, zoeken

In de lineaire algebra en toepassingen daarvan spelen lineaire afbeeldingen (ook lineaire operatoren genoemd) een belangrijke rol. Een speciaal geval vormen de lineaire transformaties. Dit zijn de lineaire afbeeldingen van een vectorruimte op zichzelf. Er kunnen dan rechte lijnen door de oorsprong zijn die op zichzelf afgebeeld worden. De afbeelding komt, voor punten op deze speciale lijnen, neer op een eenvoudige vermenigvuldiging met een karakteristiek getal; de eigenwaarde. Het is praktisch zo'n punt te beschrijven met een vector, een zogenaamde eigenvector van de afbeelding. In toepassingen in de natuurwetenschappen heet de eigenvector, die bij een eigenwaarde hoort, ook wel eigentoestand daar het een bijzondere toestand van het beschreven systeem betreft.

De term "eigen" komt uit het Duits, waar het dezelfde betekenis heeft als in het Nederlands. Hilbert gebruikte in 1904 deze terminologie voor het eerst (er was een eerder verwant gebruik door Helmholtz). In oudere verwijzingen wordt wel de term "karakteristiek" gebruikt, wat we nog terugvinden in de benaming "karakteristieke polynoom".

Definitie[bewerken]

Zij

T: V \rightarrow V

een lineaire transformatie van de lineaire ruimte V . Een scalair λ (lambda of labda) heet eigenwaarde van T als er een vector x\ne 0 is waarvoor geldt:

T(x) = \lambda x.

Alle vectoren x waarvoor deze relatie geldt, worden (samen met de nulvector) eigenvectoren genoemd. De verzameling van alle eigenvectoren corresponderend met een vaste eigenwaarde λ, vormt zelf een vectorruimte, de eigenruimte behorend bij λ.

Eigenvectoren in eindigdimensionale vectorruimten[bewerken]

Indien de vectorruimte V, waarop de lineaire transformatie T werkt, eindig-dimensionaal is, kan de afbeelding door een matrix M voorgesteld worden. Men kan aantonen dat λ dan en slechts dan een eigenwaarde van T is als:

\det(M - \lambda I) = 0 \!.

Hier staat I voor de eenheidsmatrix van orde gelijk aan de dimensie n van V en "det" voor determinant. Dit betekent dat de afbeelding voor de eigenvectoren neerkomt op een vermenigvuldiging met de factor λ. Omdat de determinant een polynoom is in van orde ten hoogste n, zijn er dus als alle λ's reële getallen zijn ten hoogste n eigenwaarden, en als de λ's complexe getallen zijn precies n eigenwaarden, waarvan er overigens sommige kunnen samenvallen. In dat geval kunnen bij één eigenwaarde meerdere lineair onafhankelijke eigenvectoren horen. We tellen dit dan als meer dan één eigenwaarde. Let wel op: de multipliciteit van een eigenwaarde is niet noodzakelijk gelijk aan de dimensie van zijn eigenruimte. De determinant, die een veelterm is in λ, wordt de karakteristieke polynoom genoemd.

Een eigenvector is dan een vector die aan de vergelijking

(M - \lambda I) x = 0

voldoet met \lambda een eigenwaarde. Omdat de determinant van M - \lambda I nul is wil dat zeggen dat de vergelijking strijdig is of oneindig veel oplossingen heeft. Aangezien x = 0 al zeker één oplossing is hebben we dus zeker oneindig veel oplossingen. We kunnen bewijzen dat alle vectoren x die aan die vergelijking voldoen een vectorruimte vormen. Deze vectorruimte wordt de eigenruimte van de eigenwaarde \lambda genoemd.

Multipliciteit[bewerken]

De multipliciteit van een eigenwaarde als wortel van de karakteritieke polynoom wordt de algebraïsche multipliciteit van de eigenwaarde genoemd.

Bij een bepaalde eigenwaarde \lambda van de matrix M behoren soms meerdere eigenvectoren. Het aantal onderling onafhankelijke eigenvectoren bij \lambda wordt de geometrische multipliciteit van \lambda genoemd. Deze multipliciteit is de dimensie van de nulruimte van M-\lambda I.

Eenvoudig voorbeeld[bewerken]

In 2 dimensies kan een spiegeling om de x-as geschreven worden als

\begin{bmatrix}
1 & 0\\
0 & -1\end{bmatrix}

Deze matrix heeft twee verschillende eigenwaarden, namelijk 1 en −1. De eigenvectoren die corresponderen met deze eigenwaarden zijn alle punten op de x-as en de y-as, deze worden immers op een veelvoud van zichzelf afgebeeld.

\begin{bmatrix}
1 & 0\\
0 & -1\end{bmatrix}\cdot
\begin{bmatrix}
1\\
0\end{bmatrix}=
\begin{bmatrix}
1\\
0\end{bmatrix}= (+1)\cdot \begin{bmatrix}
1\\
0\end{bmatrix} en
\begin{bmatrix}
1 & 0\\
0 & -1\end{bmatrix}\cdot
\begin{bmatrix}
0\\
1\end{bmatrix}=
\begin{bmatrix}
0\\
-1\end{bmatrix}= (-1)\cdot \begin{bmatrix}
0\\
1\end{bmatrix}

De eerste eigenvector \!e_1 (een punt op de x-as) wordt op zichzelf afgebeeld, dus vermenigvuldigd met een factor (eigenwaarde) +1, de tweede eigenvector e_2\! (een punt op de y-as) wordt gespiegeld, dus vermenigvuldigd met een factor −1. In de gebruikelijke notatie wordt dit:

\lambda_1 = +1, e_1 = \begin{bmatrix}
1\\
0\end{bmatrix}
\lambda_2 = -1, e_2 = \begin{bmatrix}
0\\
1\end{bmatrix}

Eigenwaarden in oneindig-dimensionale vectorruimten[bewerken]

In het algemeen geldt dat \!\lambda een eigenwaarde is van \!T dan en slechts dan als

\!T - \lambda I

geen inverse heeft, dus dat

\!(T - \lambda I)^{-1}

niet bestaat. Want als allerlei punten in de ruimte op de nulvector \!0 worden afgebeeld, is er geen unieke omgekeerde afbeelding om nul terug af te beelden.

In toepassingen op oneindigdimensionale reële of complexe ruimten zal men evenwel vaak een geschikte topologische structuur kiezen op de onderliggende vectorruimte, en zal men onderzoeken of \!T - \lambda I een inverse lineaire transformatie heeft die continu is in de gegeven topologie. Vaak is de topologische structuur afkomstig van een volledige norm: het spectrum van lineaire operatoren in Banachruimten is uitvoerig bestudeerd in de functionaalanalyse.

Het spectrum van een lineaire transformatie \!T van een topologische vectorruimte is de verzameling complexe getallen \!\lambda met de eigenschap dat \!(T - \lambda I)^{-1} niet bestaat als continue lineaire transformatie.

Eigenwaarden behoren tot het spectrum, maar niet elke spectraalwaarde is een eigenwaarde. Voor compacte operatoren in een Banachruimte bestaat het spectrum evenwel geheel uit geïsoleerde eigenwaarden van eindige multipliciteit.

Toepassingen[bewerken]

Spectrale decompositie[bewerken]

Soms kan men aantonen dat de vectorruimte een basis heeft die volledig uit eigenvectoren van de gegeven lineaire transformatie bestaat. In zulke gevallen kan de afbeelding voorgesteld worden door een diagonaalmatrix, door de eigenvectoren te gebruiken als nieuw coördinatenstelsel. Een dergelijke basis bestaat als de multipliciteit van elke eigenwaarde 1 is, of, in het algemeen, wanneer de dimensie van elke eigenruimte gelijk is aan de multipliciteit van de corresponderende eigenwaarde. Dit noemt men de spectrale decompositie van de matrix.

Diagonalisatie niet altijd mogelijk, zelfs niet als men over de complexe getallen werkt. Wel kan men de lineaire afbeelding herleiden tot een matrix die voornamelijk gevuld is met nullen, behalve op de hoofddiagonaal en de bovenste nevendiagonaal, waar de elementen verschillend van nul kunnen zijn.

In het bovenstaande voorbeeld heeft de matrix al deze eenvoudige gedaante, maar wanneer we te maken hebben met een grote hoeveelheid, gedeeltelijk gecorreleerde informatie in meerdere dimensies is het erg nuttig de matrix in deze eenvoudige vorm te schrijven. Een dergelijke methode wordt in de statistiek toegepast op correlatiematrices van statistische gegevens; deze methode heet hoofdcomponentenanalyse.

Als een complexe vectorruimte voorzien is van een inproduct (zie Hilbertruimte), dan bestaan de begrippen loodrechte stand en isometrische lineaire transformatie of. Er bestaat dan een orthonormale basis van eigenvectoren als en slechts als de gegeven lineaire transformatie normaal is, dat wil zeggen commuteert met haar Hermitisch toegevoegde ten opzichte van het inproduct.

Toepassingen in de natuurkunde[bewerken]

De eigenwaarden en eigenvectoren vinden hun toepassing in de trillingstechniek. Als de bewegingsvergelijkingen van een meerdimensioneel massa-veer systeem in matrixnotatie worden opgeschreven, komen de eigenvectoren overeen met de eigentrillingen, en daarmee met de resonantiebeweging van het systeem. De eigenwaarden zijn dan gelijk aan het kwadraat van de resonantiefrequenties in radialen per seconde.

Deze matrices worden al gauw zeer groot, zodat er software nodig is om de eigenwaarden te bepalen. Dit kan bijvoorbeeld gebeuren met de eindige-elementenmethode.

Eigenwaarden en spectraalwaarden nemen een belangrijke plaats in in de kwantummechanica, waar elke meetbare grootheid gerepresenteerd wordt als een lineaire operator en de spectraalwaarden van deze operator corresponderen met de mogelijke gemeten waarden van die grootheid.

Zie ook[bewerken]