Matrix (wiskunde)

Uit Wikipedia, de vrije encyclopedie
Ga naar: navigatie, zoeken

In de lineaire algebra, een deelgebied van de wiskunde, is een matrix (meervoud: matrices) een rechthoekig getallenschema. De gebruikelijke voorstelling van zo'n rechthoekig schema is met een zijde in de schrijfrichting en de andere loodrecht daarop, zodat de getallen geordend zijn in rijen en kolommen. De matrix is een middel om samenhangende gegevens en hun bewerkingen op een systematische en overzichtelijke wijze weer te geven. De term matrix werd in 1848 ingevoerd door de Britse wiskundige J. J. Sylvester.

Indien er m rijen en n kolommen zijn, spreekt men van een m×n-matrix. Het gebruik is dus (voor sommigen anders dan verwacht) dat het eerste cijfer de hoogte aangeeft en het tweede de breedte. Als n=m is het een vierkante matrix. De getallen heten de elementen van de matrix. Een m×n-matrix A heeft dus m\times n elementen. Het element op het kruispunt van de r-de rij en de k-de kolom wordt aangeduid als het rk-de element en genoteerd als Ark. Voor de matrix zelf noteert men wel: (Ark). Ook andere notaties worden gebruikt, onder andere, waarin het rk-de element van een matrix A geschreven wordt als ark. Het volgende voorbeeld toont een 2×3-matrix A met gehele getallen:

A=\begin{bmatrix}4&-1&0\\2&1&5\end{bmatrix}

We zien bijvoorbeeld dat A12 = −1 en A23 = 5.

Matrices zijn belangrijke instrumenten in de lineaire algebra. Men gebruikt ze onder andere voor de weergave van lineaire afbeeldingen. Matrixvermenigvuldiging komt overeen met samenstelling van lineaire afbeeldingen. Matrices kunnen ook worden gebruikt om een overzicht te bieden van de coëfficiënten in een stelsel van lineaire vergelijkingen. Voor een vierkante matrix reguleren de determinant en inverse matrix (als deze bestaat) het gedrag van oplossingen voor het corresponderende stelsel van lineaire vergelijkingen, en eigenwaarden en eigenvectoren geven inzicht in de meetkunde van de geassocieerde lineaire transformatie

Matrices kennen vele toepassingen. In de natuurkunde maakt men op verscheiden gebieden gebruik van matrices, zoals bij de meetkundige optica en de matrixmechanica. De laatste toepassing heeft geleid tot een meer gedetailleerde studie van matrices met een oneindig aantal rijen en kolommen. De grafentheorie maakt gebruik van matrices om afstanden tussen paren knopen (vertices) in een graaf bij te houden. Computergraphics gebruikt matrices om de driedimensionale ruimte op een tweedimensionaal vlak te projecteren. De matrixcalculus veralgemeent de klassieke analytische begrippen zoals afgeleiden van functies en exponentiële functies naar matrices, wat toepassing vindt bij het oplossen van gewone differentiaalvergelijkingen. Het serialisme en de dodecafonie zijn 20e-eeuwse muzikale stromingen, die gebruikmaken van een vierkante matrix om het patroon van de intervallen te bepalen.

Een belangrijke tak van de numerieke analyse is gewijd aan de ontwikkeling van efficiënte algoritmen voor matrixberekeningen, een onderwerp dat hoewel al eeuwen oud, nog steeds een actief gebied van wiskundig onderzoek is. Matrix-decompositiemethoden vereenvoudigen zowel theoretisch als praktisch berekeningen. Voor ijle matrices, dat wil zeggen matrices die naar verhouding veel nullen bevatten, kunnen specifiek ontworpen algoritmen tot versnelde berekeningen leiden; dergelijke matrices spelen bijvoorbeeld een rol in de eindige-elementenmethode.

Formele definitie[bewerken]

Een m\times n-matrix A is een element van (\R^n)^m of (\mathbb{C}^n)^m, dus een rij van m rijen van n reële of complexe getallen:

A = (A_1,\ldots,A_m) = ((a_{11},\ldots ,a_{1n}),\ldots ,(a_{m1},\ldots ,a_{mn})).

De getallen (a_{rk}=(A_r)_k) heten de elementen van de matrix A.

Het is gebruikelijk de m componenten van de matrix als een kolom van m rijen te schrijven:

 A =
 \begin{bmatrix}
 a_{11} & a_{12} & \cdots & a_{1n} \\
 a_{21} & a_{22} & \cdots & a_{2n} \\
 \vdots & \vdots & \ddots & \vdots \\
 a_{m1} & a_{m2} & \cdots & a_{mn}
 \end{bmatrix}

Alternatief[bewerken]

Een alternatieve definitie beschouwt een matrix als een dubbelgeïndiceerde verzameling. Laat m,n\in \N twee natuurlijke getallen zijn. Een reële m\times n-matrix is een afbeelding

A: \{1,\ldots,m\}\times\{1,\dots,n\} \to \R,\quad (i,j) \mapsto a_{ij},

die aan elk paar indices (i,j) het element a_{ij} toevoegt. Het getal m heet het aantal rijen en het getal n het aantal klolmmen van de matrix A.

De elementen van een matrix kunnen ook uit een ander lichaam (Ned) / veld (Be) dan de reële getallen komen.

Som[bewerken]

Nuvola single chevron right.svg Zie Matrixoptelling voor het hoofdartikel over dit onderwerp.

Twee matrices van dezelfde afmetingen kunnen bij elkaar opgeteld worden. Dat gebeurt elementsgewijs. De som C van twee m×n-matrices A en B heeft elementen

c_{ij}=a_{ij}+b_{ij},

zodat:

 A + B =
\begin{bmatrix}
 a_{11}+b_{11} & a_{12}+b_{12} & \cdots & a_{1n}+b_{1n} \\
 a_{21}+b_{21} & a_{22}+b_{22} & \cdots & a_{2n}+b_{2n} \\
 \vdots & \vdots & \ddots & \vdots \\
 a_{m1}+b_{m1} & a_{m2}+b_{m2} & \cdots & a_{mn}+b_{mn}
\end{bmatrix}
.

Product[bewerken]

Nuvola single chevron right.svg Zie Matrixvermenigvuldiging voor het hoofdartikel over dit onderwerp.
Schematische afbeelding van de matrixvermenigvuldiging AB van twee matrices A en B.

Een m×p-matrix A en een p×n-matrix B kunnen met elkaar vermenigvuldigd worden. Hun product is een m×n-matrix C=AB, met elementen:

c_{rk}=\sum_{i=1}^p a_{ri}b_{ik}.

Voorbeeld[bewerken]


 \begin{bmatrix}
 1 & 0 & 2 \\
 -1 & 3 & 1
 \end{bmatrix}
\cdot
 \begin{bmatrix}
 3 & 1 \\
 2 & 1 \\
 1 & 0
 \end{bmatrix}
=
\begin{bmatrix}
 1 \times 3 + 0 \times 2 + 2 \times 1 & 1 \times 1 + 0 \times 1 + 2 \times 0 \\
 -1 \times 3 + 3 \times 2 + 1 \times 1 & -1 \times 1 + 3 \times 1 + 1 \times 0
\end{bmatrix}
=
\begin{bmatrix}
 5 & 1 \\
 4 & 2
\end{bmatrix}

Matrixvermenigvuldiging is alleen gedefinieerd voor twee matrices waarvan het aantal kolommen van de eerste gelijk is aan het aantal rijen van de tweede.

Ook van een m×n-matrix A en een n-vector x kan het product gevormd worden. Het is de m-vector Ax met componenten:

(Ax)_r=\sum_{k=1}^n a_{rk}x_k.

Rijvector[bewerken]

Nuvola single chevron right.svg Zie rijvector voor het hoofdartikel over dit onderwerp.

Een 1×n-matrix A is formeel gedefinieerd als:

A=((a_{11},...,a_{1n})),

dus met als enige component de vector

A_1=(a_{11},...,a_{1n}).

Zo'n matrix, die als een rij getallen genoteerd wordt, lijkt erg veel op een vector en verschilt daar alleen in formele zin van. Men noemt een 1×n-matrix daarom wel een rijvector.

Kolomvector[bewerken]

Nuvola single chevron right.svg Zie kolomvector voor het hoofdartikel over dit onderwerp.

Een m×1-matrix A is formeel gedefinieerd als:

A=((a_{11}),...,(a_{m1})),

dus met als r-de component

A_r=(a_{r1}).

Zo'n matrix, die als een kolom getallen genoteerd wordt, lijkt erg veel op een vector en verschilt daar alleen in formele zin van. Men noemt een m×1-matrix daarom wel een kolomvector.

Vatten we de n-vector x op als de kolomvector X, met elementen:

X_{r1} = x_r,

dan is het product Ax, opgevat als kolomvector, hetzelfde als het product AX.

Basisoperaties[bewerken]

Nuvola single chevron right.svg Zie Matrixoptelling, Scalaire vermenigvuldiging, Getransponeerde matrix en Rij-operaties voor de hoofdartikelen over dit onderwerp.

Er zijn enkele operaties die op matrices kunnen worden toegepast en die de basistechnieken vormen voor het rekenen met matrices. Het gaat om matrixoptelling, scalaire vermenigvuldiging en transpositie. Voor het (evt. handmatig) oplossen van lineaire vergelijkingen en het vinden van inversen komen daar nog zogeheten rij-operaties bij.

Operatie Definitie Voorbeeld
Matrixoptelling De som A+B van twee m-bij-n matrices A en B wordt per element berekend:
(A + B)i,j = Ai,j + Bi,j, waar 1 ≤ im en 1 ≤ jn.



\begin{bmatrix}
1 & 3 & 1 \\
1 & 0 & 0
\end{bmatrix}
+
\begin{bmatrix}
0 & 0 & 5 \\
7 & 5 & 0
\end{bmatrix}
=
\begin{bmatrix}
1+0 & 3+0 & 1+5 \\
1+7 & 0+5 & 0+0
\end{bmatrix}
=
\begin{bmatrix}
1 & 3 & 6 \\
8 & 5 & 0
\end{bmatrix}

Scalaire vermenigvuldiging De scalaire vermenigvuldiging cA van een matrix A en een getal c (in het spraakgebruik van de abstracte algebra) ook wel een scalair genoemd) wordt gegeven door elk element van A met c te vermenigvuldigen:
(cA)i,j = c · Ai,j.
2 \cdot

\begin{bmatrix}
1 & 8 & -3 \\
4 & -2 & 5
\end{bmatrix}
=
\begin{bmatrix}
2 \cdot 1 & 2\cdot 8 & 2\cdot -3 \\
2\cdot 4 & 2\cdot -2 & 2\cdot 5
\end{bmatrix}
=
\begin{bmatrix}
2 & 16 & -6 \\
8 & -4 & 10
\end{bmatrix}
Getransponeerde matrix De getransponeerde van een m-bij-n matrix A is de n-bij-m matrix AT (ook aangeduid met Atr of tA). Men verkrijgt de getransponeerde matrix door rijen in kolommen en kolommen in rijen te veranderen:
(AT)i,j = Aj,i.

\begin{bmatrix}
1 & 2 & 3 \\
0 & -6 & 0
\end{bmatrix}^T =

\begin{bmatrix}
1 & 0 \\
2 & -6 \\
3 & 0
\end{bmatrix}
Rij-operaties Het verwisselen van twee rijen 

\begin{bmatrix}
 1 & 2 & 3\\
 0 & -6 & 0
\end{bmatrix} \quad\textrm{wordt}\quad

\begin{bmatrix}
 0 & -6 & 0\\
1 & 2 & 3
\end{bmatrix}

rij 1 en rij 2 omgewisseld

Het vermenigvuldigen van een rij met een getal dat niet nul is 
\begin{bmatrix}
1 & 2 & 3\\
0 & -6 & 0
\end{bmatrix} \quad\textrm{wordt}\quad

\begin{bmatrix}
3 & 6 & 9 \\
0 & -6 & 0
\end{bmatrix}

rij 1 vermenigvuldigd met 3

Het optellen van een veelvoud van een rij bij een andere rij 
\begin{bmatrix}
1 & 2 & 3 \\
0 & -6 & 0
\end{bmatrix} \quad\textrm{wordt}\quad

\begin{bmatrix}
1 & 2  & 3 \\
3 & 0 & 9
\end{bmatrix}

rij 1 vermenigvuldigd met 3, opgeteld bij rij 2

Vertrouwde eigenschappen van getallen breiden zich uit tot deze operaties op matrices: optelling is bijvoorbeeld commutatief, dat wil zeggen dat matrixoptelling niet afhankelijk is van de volgorde van de matrices: A + B = B + A.[1] De getransponeerde matrix is compatibel met optelling en scalaire vermenigvuldiging, zoals uitgedrukt door (cA)T = c(AT) en (A + B)T = AT + BT. Ten slotte, (AT)T = A.

Voorbeeld matrixoperaties[bewerken]

Een bedrijf levert cement, kalk, gips in zakken van resp. 25, 10 en 5 kg. Het bedrijf heeft 4 klanten: Bik, Mets, Timp en Voeg. De door deze klanten in een bepaald jaar afgenomen aantallen zakken laten zich overzichtelijk in een 4×3-matrix A ordenen:

A=\begin{bmatrix}14&9&3\\2&11&15\\0&12&17\\5&2&3\end{bmatrix}

We zien bijvoorbeeld dat A32 = 12, dus Timp heeft dat jaar 12 zakken kalk van 10 kg afgenomen.

De afgenomen aantallen van het volgende jaar staan in de matrix B.

B=\begin{bmatrix}17&10&4\\3&7&8\\0&14&15\\4&3&3\end{bmatrix}

In dit jaar heeft Timp 14 zakken kalk van 10 kg gekocht. Om te bepalen wat voor elke klant de totale afname van elk product is in deze twee jaren, moeten we de matrices elementsgewijs optellen. De zo ontstane matrix heet de som A+B van de beide matrices:

A+B=\begin{bmatrix}31&19&7\\5&18&23\\0&26&32\\9&5&6\end{bmatrix}

De prijs van een zak cement is €12, van een zak kalk €9 en van een zak gips €8. In de 3×2-matrix W staan de prijzen en gewichten van de drie producten:

W=\begin{bmatrix}12&25\\9&10\\8&5\end{bmatrix}

Om na te gaan wat het totale bedrag is dat Bik in het eerste jaar heeft besteed, moeten we uitrekenen:

14\times 12 + 9\times 9 + 3\times 8 \!,

waarin we de getallen van de eerste rij van A (Bik) en de eerste kolom van W (prijzen) herkennen.

Het totale gewicht van de door Bik gekochte producten berekenen we op soortgelijke manier:

14\times 25 + 9\times 10 + 3\times 5 \!,

waarin nu de getallen van de eerste rij van A (Bik) en de tweede kolom van W (gewichten) staan. Ook voor de andere klanten kunnen we zulke berekeningen maken. Samen heten ze matrixvermenigvuldiging en geven ze een matrix die we het product AW van A en W noemen:

AW=\begin{bmatrix}14&9&3\\2&11&15\\0&12&17\\5&2&3\end{bmatrix}
\begin{bmatrix}12&25\\9&10\\8&5\end{bmatrix}=
\begin{bmatrix}273&455\\243&235\\244&205\\102&160\end{bmatrix}

Lineaire vergelijkingen en transformaties[bewerken]

Lineaire vergelijkingen[bewerken]

Nuvola single chevron right.svg Zie Lineaire vergelijking en Stelsel van lineaire vergelijkingen voor de hoofdartikelen over dit onderwerp.

Een bijzonder geval van matrixvermenigvuldiging is nauw verbonden aan lineaire vergelijkingen: als x een kolomvector (dat wil zeggen een n×1-matrix) van n variabelen x_1,x_2,\ldots, x_n voorstelt en A een m\times n-matrix is, dan is de matrixvergelijking

Ax=b

waarin b een willekeurige m×1-kolomvector is, equivalent aan het stelsel van lineaire vergelijkingen

a_{11}x_1+a_{12}x_2+\ldots+a_{1n}=b_1
a_{21}x_1+a_{22}x_2+\ldots+a_{2n}=b_2
\ldots
a_{m1}x_1+a_{m2}x_2+\ldots+a_{mn}=b_m.[2]

Op deze manier kunnen matrices worden gebruikt om meervoudige lineaire vergelijkingen, dat wil zeggen stelsels van lineaire vergelijkingen, op een compacte wijze te noteren en te manipuleren.

Lineaire afbeeldingen[bewerken]

Nuvola single chevron right.svg Zie Lineaire afbeelding voor het hoofdartikel over dit onderwerp.

Matrices en matrixvermenigvuldiging zijn direct gerelateerd aan lineaire afbeeldingen en samenstellingen daarvan. Een reële m×n-matrix A representeert een lineaire afbeelding

f:\R^n\to \R^m; x \mapsto Ax

die elke vector x \in \R^n afbeeldt op het (matrix)product Ax, een vector in \R^m.

Omgekeerd bepaalt de lineaire afbeelding f: \R^n\to R^m de m×n-matrix A met als i-de kolom, opgevat als vector, het beeld f(e_i) van de i-de eenheidsvector e_i.

Van de matrix A zegt men dat hij de lineaire afbeelding f representeert. A noemt men de matrix van f.

De onderstaande tabel toont een aantal reële 2×2-matrices met de bijbehorende lineaire transformaties van \R^2. Het blauwe origineel wordt afgebeeld op het groene rooster en de groene vormen, de oorsprong (0,0) wordt gemarkeerd met een zwart punt.

Horizontale afschuiving met m=1.25. Horizontale spiegeling Samendrukking met r=3/2 opschalen met een factor 3/2 Draaiing over π/6 = 30°
\begin{bmatrix}
1 & 1.25 \\
0 & 1 \end{bmatrix} \begin{bmatrix}
-1 & 0 \\
0 & 1 \end{bmatrix} \begin{bmatrix}
3/2 & 0 \\
0 & 2/3 \end{bmatrix} \begin{bmatrix}
3/2 & 0 \\
0 & 3/2 \end{bmatrix} \begin{bmatrix}\cos(\pi / 6) & -\sin(\pi / 6)\\ \sin(\pi / 6) & \cos(\pi / 6)\end{bmatrix}
VerticalShear m=1.25.svg Flip map.svg Squeeze r=1.5.svg Scaling by 1.5.svg Rotation by pi over 6.svg

In de relatie tussen matrices en lineaire afbeeldingen correspondeert matrixvermenigvuldiging met samenstelling van afbeeldingen[3]. Als de m\times n-matrix A behoort bij de lineaire afbeelding f:\R^n \to \R^m en de k\times m-matrix B bij de lineaire afbeelding g:\R^m \to \R^k, dan behoort bij de samenstelling g\circ f het product BA van de matrices A en B. Immers:

(g\circ f)(x)=g(f(x))=g(Ax)=B(Ax)=(BA)x

De laatste gelijkheid volgt uit de hierboven genoemde associativiteit van de matrixvermenigvuldiging.

Vierkante matrices[bewerken]

Nuvola single chevron right.svg Zie vierkante matrix voor het hoofdartikel over dit onderwerp.

Een speciaal type matrix is de vierkante matrix, een matrix met evenveel rijen als kolommen. Als het aantal rijen en kolommen n is wordt de n×n-matrix een vierkante matrix van de orde n genoemd. Een vierkante matrix van de orde n representeert een transformatie van een n-dimensionale ruimte, reden waarom vierkante matrices een belangrijke rol spelen in de lineaire algebra.

Voor vierkante matrices zijn de begrippen hoofddiagonaal, spoor en determinant gedefinieerd.

Hoofddiagonaal[bewerken]

Nuvola single chevron right.svg Zie hoofddiagonaal voor het hoofdartikel over dit onderwerp.

De elementen a_{ii} van de vierkante matrix A=(a_{ij}) vormen de hoofddiagonaal van A.

In relatie met de hoofddiagonaal worden speciale type vierkante matrices onderscheiden.

Diagonaalmatrix, driehoeksmatrices[bewerken]

Als alle elementen buiten de hoofddiagonaal van de vierkante matrix A gelijk aan nul zijn, wordt A een diagonaalmatrix genoemd. Als alleen alle elementen boven (onder) de hoofddiagonaal nul zijn, wordt A een beneden- respectievelijk een bovendriehoeksmatrix genoemd.

Als n bijvoorbeeld gelijk is aan 3, dan zien deze matrices er als volgt uit


 \begin{bmatrix}
 d_{11} & 0 & 0 \\
 0 & d_{22} & 0 \\
 0 & 0 & d_{33} \\
 \end{bmatrix}
(diagonaal), 
 \begin{bmatrix}
 l_{11} & 0 & 0 \\
 l_{21} & l_{22} & 0 \\
 l_{31} & l_{32} & l_{33} \\
 \end{bmatrix}
(beneden-) en 
 \begin{bmatrix}
 u_{11} & u_{12} & u_{13} \\
 0 & u_{22} & u_{23} \\
 0 & 0 & u_{33} \\
 \end{bmatrix} (bovendriehoeksmatrix).

Spoor[bewerken]

Nuvola single chevron right.svg Zie spoor (wiskunde) voor het hoofdartikel over dit onderwerp.

Het spoor van een vierkante matrix A, genoteerd als \mathrm{sp}(A), is de som van haar diagonaalelementen. Terwijl, zoals boven vermeld, matrixvermenigvuldiging niet commutatief is, is het spoor van het product van twee matrices onafhankelijk van de volgorde van de factoren: \mathrm{sp}(AB)=\mathrm{sp}(BA).[4]

Determinant[bewerken]

Nuvola single chevron right.svg Zie Determinant voor het hoofdartikel over dit onderwerp.

De determinant \det(A), of |A|, van een vierkante matrix A is een functie van de elementen van die matrix. Bepaalde eigenschappen van de matrix kunnen afgelezen worden aan de determinant. Zo is een matrix dan en slechts dan inverteerbaar als haar determinant ongelijk is aan nul en is de absolute waarde van de determinant gelijk aan de oppervlakte (in de \R^2) of het volume (in de \R^3) van de beeld van de eenheidsvierkant (of de eenheidskubus), terwijl het teken correspondeert met de oriëntatie van de corresponderende lineaire afbeelding: de determinant is dan en slechts dan positief als de oriëntatie behouden blijft.

Eigenwaarden en eigenvectoren[bewerken]

Nuvola single chevron right.svg Zie eigenwaarde (wiskunde) en eigenvector voor de hoofdartikelen over dit onderwerp.

Een vierkante matrix correspondeert met een lineaire transformatie van een lineaire ruimte. Soms wordt door deze transformatie een lijn door de oorsprong afgebeeld op zichzelf. Wel is het beeld van een punt op de lijn meestal niet het punt zelf, maar een of ander veelvoud van dat punt. De vectoren op de lijn heten eigenvectoren van de matrix (en van de transformatie) en het getal dat het veelvoud bepaalt heet eigenwaarde van de matrix (en de transformatie. Om precies te zijn: een getal λ en een vector v\neq 0worden respectievelijk eigenwaarde en eigenvector van de vierkante matrix A genoemd[nb 1][5] als geldt:

Av=\lambda v

Deze relatie kan ook geschreven worden als:

(A-\lambda\mathrm{I}) v=0,

wat betekent dat voor een eigenwaarde λ geldt:

\det(A-\lambda\mathrm{I})=0.

De eigenwaarden zijn dus de wortels van de polynoom

P_A(\lambda)=\det(A-\lambda\mathrm{I}),

die de karakteristieke polynoom van A wordt genoemd.

Symmetrie[bewerken]

Nuvola single chevron right.svg Zie Symmetrische matrix voor het hoofdartikel over dit onderwerp.

Een vierkante matrix A die gelijk is aan haar getransponeerde matrix, wat wil zeggen dat

A=A^\top,

is een symmetrische matrix.

Als zij gelijk is aan het negatieve van haar getransponeerde, wat wil zeggen dat

A=-A^\top,

dan is het een scheefsymmetrische matrix.

Bij complexe matrices wordt het begrip symmetrie vaak vervangen door het begrip Hermitische matrices, die voldoen aan

A=A^*',

waarin de ster de complex geadjugeerde van de matrix aangeeft, dat wil zeggen de getransponeerde van de complex geconjugeerde van A.

Door de spectraalstelling hebben reële symmetrische matrices en complexe Hermitische matrices een basis van eigenvectoren. In beide gevallen zijn alle eigenwaarden reëel[6] Deze stelling kan voor matrices met oneindig veel rijen en kolommen worden veralgemeend naar oneindig dimensionale situaties. zie hieronder.

Definietheid[bewerken]

Nuvola single chevron right.svg Zie definietheid voor het hoofdartikel over dit onderwerp.

Een reële symmetrische n×n-matrix A wordt definiet genoemd, als de reële kwadratische vorm

Q_A(x)=x^\top A x

die door de matrix wordt voortgebracht, voor elke vector x\neq 0 hetzelfde teken heeft. Is dat teken positief, dan heet de vorm positief-definiet, is het negatief, dan negatief-definiet.[7]

Orthogonale matrix[bewerken]

Nuvola single chevron right.svg Zie orthogonale matrix voor het hoofdartikel over dit onderwerp.

Een reële vierkante matrix A heet orthogonaal, als de rijen en ook de kolommen een orthonormaal stelsel vormen. Dit houdt in dat:

AA^\mathrm{T}=\mathrm{I},

waarin I de eenheidsmatrix is. Hieraan is te zien dat A inverteerbaar is met inverse matrix

A^{-1}=A^\mathrm{T},

De determinant van een orthogonale matrix is +1 of −1. De waarde +1 hoort bij een matrix die een draaiing voorstelt en de waarde −1 bij een matrix die een draaispiegeling representeert.

Berekenbaarheidsaspecten[bewerken]

Naast de theoretische kennis van de eigenschappen van matrices en hun relaties tot andere deelgebieden van de wiskunde, is het om praktische doeleinden belangrijk om matrixberekeningen doeltreffend en nauwkeurig uit te voeren. Het domein binnen de wiskunde dat deze zaken bestudeert wordt de numerieke lineaire algebra[8] genoemd. Zoals ook in andere numerieke onderzoeksgebieden zijn de twee belangrijkste aspecten de complexiteit van algoritmen en de numerieke stabiliteit. Veel problemen kunnen worden opgelost door zowel directe algoritmen als iteratieve benaderingen. Zo kunnen eigenvectoren bijvoorbeeld worden gevonden door het vinden van een rij van vectoren xn die convergeert naar een eigenvector, wanneer n naar oneindig neigt.[9]

Matrixdecompositiemethoden[bewerken]

Nuvola single chevron right.svg Zie Matrixdecompositie, Diagonaliseerbare matrix en Gauss-eliminatie voor de hoofdartikelen over dit onderwerp.

Er zijn verschillende methoden om matrices in een voor berekeningen meer toegankelijke vorm om te zetten. Aan deze methoden wordt in het algemeen refereert als matrixtransformatie of matrixdecompositie technieken. Het belang van al deze decompositietechnieken is dat zij bepaalde eigenschappen van de matrices in kwestie bewaren, zoals de determinant, de rang of de inverse, zodat deze grootheden na toepassing van de transformatie kunnen worden berekend, of dat bepaalde matrixoperaties voor sommige typen van matrices algoritmisch gemakkelijker kunnen worden uitgevoerd.

Abstracte algebraïsche aspecten en veralgemeningen[bewerken]

Matrices kunnen op verschillende manieren worden veralgemeend. De abstracte algebra gebruikt matrices met elementen die niet uit getallen, maar uit de meer algemene velden of zelfs ringen bestaan, terwijl de lineaire algebra eigenschappen van matrices in de notie van lineaire afbeeldingen codificeert. Het is ook mogelijk om matrices met oneindig veel kolommen en rijen in beschouwing te nemen. Een andere uitbreiding zijn de zogenaamde tensoren, die als hoger-dimensionale arrays van getallen gezien kunnen worden, dit in tegenstelling tot vectoren, die vaak als rijen van getallen (één-dimensionale vectoren) kunnen worden gerealiseerd, terwijl matrices rechthoekige of twee-dimensionale arrays van getallen zijn.[10] Matrices hebben onder bepaalde voorwaarden de neiging om groepen te vormen. Deze staan bekend als matrixgroepen.

Relaties met lineaire afbeeldingen[bewerken]

Lineaire afbeeldingen \R^n\to \R^m zijn equivalent aan m×n-matrices, zoals hierboven beschreven. Meer in het algemeen kan elke lineaire afbeelding f:V\to W tussen eindigdimensionale vectorruimten, na de keuze van de bases \{v_1,\ldots ,v_n\} van V, en \{w_1,\ldots ,w_m\} van W, worden beschreven door de matrix A=(a_{ij}), die zodanig is dat

f(v_j) = \sum_{i=1}^m a_{ij}w_i\qquad\mbox{voor }j=1,\ldots,n.

Met andere woorden de j-de kolom van A drukt het beeld van de j-de basisvector v_j uit in termen van de basisvectoren (w_i) van W. Deze relatie bepaalt dus op unieke wijze de elementen (a_{ij}) van de matrix A. Merk op dat de matrix afhankelijk is van de keuze van de bases: verschillende keuzes van de bases geven aanleiding tot verschillende, maar wel equivalente matrices.[11] Veel van de bovengenoemde begrippen kunnen in dit licht worden geherinterpreteerd; de getransponeerde matrix A^T beschrijft bijvoorbeeld de getransponeerde van een lineaire afbeelding gegeven door A, met betrekking tot de duale basissen.[12]

Matrices met algemenere elementen[bewerken]

Dit artikel richt zich op matrices waarvan de elementen reële- of complexe getallen zijn.Matrices kunnen echter worden beschouwd met meer algemene typen elementen dan reële of complexe getallen. Als een eerste stap van veralgemening kan elk veld, dat wil zeggen een verzameling, waar optellings-, aftrekkings-, vermenigvuldigings- en delingsoperaties zijn gedefinieerd en zich goed gedragen, worden gebruikt in plaats van R of C. Voorbeelden zijn de rationale getallen of de eindige velden. De coderingstheorie maakt bijvoorbeeld gebruik van matrices over eindige velden. Waar eigenwaarden worden beschouwd, is de keuze van het veld meestal van belang, in zoverre dat een karakteristieke veeltermen, ondanks het feit dat reële coëfficiënten complexe oplossingen kunnen hebben. Daarom vereist men vaak dat het veld in C of enig ander algebraïsch gesloten veld moet zijn, wanneer dergelijke problemen zich voordoen.

Meer in het algemeen maakt de abstracte algebra veel gebruik van matrices met elementen in een ring R.[13] Ringen zijn een meer algemene begrip dan velden in de zin dat er voor ringen geen delinsgoperatie is gedefinieerd. Dezelfde optelling- en vermenigvuldigsoperaties voor matrices zijn uitbreidbaar voor deze setting. De verzameling M(n, R) van alle vierkante n-bij-n matrices over R is een ring, die de matrixring wordt genoemd. Een matrixring is isomorf met de endomorfisme ring van de linker R-moduul, Rn.[14] Als de ring R commutatief is, dat wil zeggen dat vermenigvuldiging commutatief is, dan is M(n,R) een unitaire niet-commutatieve (behalve als n = 1) associatieve algebra over R. De determinant van vierkante matrices ken nog steeds gedefinieerd door gebruik te maken van de Leibniz-formule; een matrix is dan en slechts dan inverteerbaar als haar determinant inverteerbaar in R is, wat de situatie over een veld F veralgemeend, waar ieder niet-nulzijnd element inverteerbaar is.[15] Matrices over superringen worden supermatrices genoemd.[16]

Matrixgroepen[bewerken]

Nuvola single chevron right.svg Zie Matrixgroep voor het hoofdartikel over dit onderwerp.

Een groep is een wiskundige structuur, die uit een verzameling van objecten bestaat samen met een binaire operatie, dat wil zeggen een operatie die elke twee objecten onder bepaalde eisen tot een derde combineert.[17] Een groep, waarin de objecten matrices zijn en de groepsoperatie matrixvermenigvuldiging noemt men een matrixgroep.[nb 2][18] Aangezien in een groep elk element inverteerbaar moet zijn, zijn de meest algemene matrixgroepen de groepen van alle inverteerbare matrices van een bepaalde grootte, de zogenaamde algemene lineaire groepen.

Elke eigenschap van matrices, die onder matrixproducten en inverses wordt bewaard, kunnen worden gebruikt om verdere matrixgroepen te definiëren. Matrices met een bepaalde omvang en met een determinant van 1 vormen bijvoorbeeld een deelgroep van (dat wil zeggen een kleinere groep die besloten is in) hun algemene lineaire groep. Deze kleinere deelgroep van een algemene lineaire groep wordt een speciale lineaire groep[19] genoemd. Orthogonale matrices, bepaald door de conditie

MTM = I,

vormen de orthogonale groep.[20] Men noemt zijn orthogonaal, aangezien de geassocieerde lineaire transformaties van Rn hoeken bewaren in de zin dat het scalair product van twee vectoren onveranderd blijft onder toepassing van M op hen:

(Mv) · (Mw) = v · w.[21]

Elke eindige groep is isomorf met een matrixgroep, zoals men kan zien door de regelmatige voorstelling van de symmetrische groep[22] te beschouwen. Algemene groepen kunnen worden bestudeerd door gebruik te maken van matrixgroepen, die relatief goed worden begrepen door middel van de representatietheorie.[23]

Oneindige matrices[bewerken]

Het is ook mogelijk om matrices met oneindig veel rijen en/of kolommen te beschouwen[24] ook al kan men een oneindig aantal objecten, uit de aard van de zaak, niet expliciet als een matrix opschrijven. Het enige dat telt is dat voor elk element uit de verzameling die de rijen indexeert, en elk element uit de verzameling die de kolommen indexeert, er een goed gedefinieerd element bestaat (deze indexverzamelingen hoeven geen deelverzamelingen van de natuurlijke getallen te zijn). De belangrijkste operaties van optellen, aftrekken, scalaire vermenigvuldiging en transpositie kunnen probleemloos gedefinieerd worden, maar matrixvermenigvuldiging kan echter oneindige sommaties vereisen om de resulterende elementen te definiëren, en deze zijn in het algemeen niet gedefinieerd.

Als oneindige matrices worden gebruikt om lineaire afbeeldingen te beschrijven, dan kunnen alleen die matrices worden gebruikt, waarvan alle kolommen een eindig aantal niet-nulzijnde elementen hebben. Wil een matrix A een lineaire afbeelding f: VW beschrijven, dan moeten er voor beide ruimten basissen worden gekozen; herinner dat dit per definitie betekent dat elke vector in de ruimte uniek geschreven kan worden als een (eindige) lineaire combinatie van basisvectoren, zodat geschreven als een (kolom)vector v van coëfficiënten, slechts een eindig aantal elementen vi niet-nul zijn. Nu beschrijven de kolommen van A de afbeeldingen door f van individuele basisvectoren van V in de basis van W, wat alleen zinvol is als deze kolommen slechts een eindig aantal niet-nulzijnde elementen hebben. Er bestaat echter geen beperking op de rijen van A: in het product A v zijn er slechts een eindig aantal niet-nulzijnde coëfficiënten van v betrokken, zodat elk van zijn elementen, zelfs als deze worden gegeven als een oneindige som van de producten, slechts eindig veel niet-nulzijnde termen betreffen en daarom goed zijn gedefinieerd. Bovendien komt dit neer op de vorming van een lineaire combinatie van de kolommen van A, die effectief slechts een eindig aantal van hen betreft, vandaar dat het resultaat slechts een eindig aantal niet-nulzijnde elementen heeft, dit omdat elk van deze kolommen slechts een eindig aantal niet-nulzijnde elementen heeft. Men ziet ook dat producten van twee goed-gedefinieerde matrices van het gegeven type weer van hetzelfde type zijn (op voorwaarde dat zoals gewoonlijk de kolom- en rij-indexverzamelingen overeenkomen) en overeenkomen met de samenstelling van lineaire afbeeldingen.

Oneindige matrices kunnen ook worden gebruikt om operatoren op Hilbert-ruimten te beschrijven. Hier komen convergentie- en continuïteitsvragen naar voren, die opnieuw resulteren in een aantal beperkingen, die moeten worden opgelegd. Het expliciete oogpunt van matrices heeft echter de neiging om deze zaak te verduisteren[nb 3] en in plaats daarvan worden de abstracte en meer krachtige instrumenten uit de functionaalanalyse gebruikt.

Lege matrices[bewerken]

Een lege matrix is een matrix, waarin het aantal rijen of kolommen (of beide) nul zijn.[25][26] Een lege matrix heeft geen elementen, maar heeft wel een duidelijk omschreven aantal rijen en kolommen, die nodig zijn voor bijvoorbeeld de definitie van het matrixproduct. Dus als A de 3-bij-0 matrix A is en B de 0-bij-3 matrix B, dan is AB de 3-bij-3 matrix (die overeenkomt met de nulafbeelding van een 3-dimensionale ruimte V op zichzelf, die wordt verkregen als de samenstelling g \circ f van de unieke afbeelding f van V op een 0-dimensionale ruimte Z, gevolgd door de nulafbeelding g van Z terug op V), terwijl BA de 0-bij-0 matrix is (overeenkomend met de unieke afbeelding van Z op zichzelf, die wordt verkregen als de samenstelling f \circ g). Er is geen gemeenschappelijke notatie voor lege matrices, maar in de meeste computeralgebrasystemen kan men lege matrices definiëren en kan men er mee rekenen. Merk op dat de determinant van de 0-bij-0 matrix 1 is (en niet 0, wat op het eerste gezicht meer voor de hand zou liggen): de Leibniz-formule geeft deze waarde als een som over de unieke permutatie van de lege verzameling, met een leeg product als de term; de Laplace-expansie voor een 1-bij-1 matrix maakt duidelijk dat de waarde van de 0-bij-0 minor als 1 moet worden genomen. Deze waarde is ook consistent met het feit dat de identiteitsafbeelding van enige eindig-dimensionale ruimte op zichzelf determinant 1 heeft, een feit dat vaak gebruikt wordt als onderdeel van de karakterisering van determinanten.

Transformaties[bewerken]

Nuvola single chevron right.svg Zie Lineaire transformatie voor het hoofdartikel over dit onderwerp.

Matrices worden veel gebruikt bij berekeningen voor bijvoorbeeld het draaien, schalen en transleren van vormen in 2 of 3 dimensies. Draaien en schalen zijn lineaire operaties en kunnen dus direct door een matrix voorgesteld worden. Aangezien een translatie een affiene afbeelding is en dus niet lineair, maakt men voor een translatie gebruik van een extra dimensie door de betrokken vectoren voor te stellen met homogene coördinaten. De vormen, die bestaan uit een verzameling punten, vectoren, worden getransformeerd.

Toepassingen[bewerken]

Er zijn talrijke toepassingen van matrices, zowel in de wiskunde als andere wetenschappen. Sommigen daarvan maken alleen maar gebruik van de compacte weergave van een verzameling getallen in een matrix. In de speltheorie en de economie codeert de payoffmatrix voor de uitbetaling voor twee spelers, afhankelijk van welke alternatieven deze spelers uit een gegeven (eindige) verzameling van alternatieven hebben gekozen.[27] Text mining en geautomatiseerde thesauruscompilatie maakt gebruik van documenttermenmatrices, zoals TF-IDF om de frequentie van bepaalde woorden in verschillende documenten bij te houden.[28]

Complexe getallen kunnen als volgt gerepresenteerd door een specifieke reële 2-bij-2 matrix

a + ib \leftrightarrow \begin{bmatrix}
a & -b \\
b & a \end{bmatrix},

onder welke optelling en vermenigvuldig van complexe getallen en matrices met elkaar corresponderen. 2-bij-2 rotatie matrices bijvoorbeeld representeren de vermenigvuldiging met een complex getal van absolute waarde 1, zoals hierboven beschreven. Een soortgelijke interpretatie is mogelijk voor quaternionen.[29]

Symmetrieën en transformaties in de natuurkunde[bewerken]

Nuvola single chevron right.svg Zie Symmetrie (natuurkunde) voor het hoofdartikel over dit onderwerp.

Lineaire transformaties en de bijbehorende symmetrieën spelen een belangrijke rol in de moderne natuurkunde. Elementaire deeltjes in de kwantumveldentheorie worden bijvoorbeeld geclassificeerd als representaties van de Lorentz-groep van de speciale relativiteitstheorie, en meer specifiek door hun gedrag onder de spingroep. Concrete representaties, waarbij de Pauli-matrices en meer in het algemene gamma-matrices een integraal onderdeel van de natuurkundige beschrijving vormen van fermionen, die zich als spinoren.[30] gedragen. Voor de drie lichtste quarks bestaat er een groepstheoretische representatie, waarbij de speciale unitaire groep SU(3); voor hun berekeningen, gebruiken natuurkundigen een handige matrixrepresentatie, die bekend als Gell-Mann-matrices, die ook voor de SU(3) ijkgroep wordt gebruikt en die de basis vormen van de moderne beschrijving van de sterke nucleaire interacties, kwantumchromodynamica. De Cabibbo-Kobayashi-Maskawa-matrix drukt op zijn beurt het feit uit dat de fundamentele quarktoestanden, die belangrijk zijn voor zwakke interacties, niet hetzelfde zijn als, maar wel lineair gerelateerd zijn aan de fundamentele quarktoestanden, die deeltjes met specifieke en verschillende massa's[31] definiëren.

Lineaire combinaties van kwantumtoestanden[bewerken]

Het eerste model van de kwantummechanica ( Heisenberg, 1925) representeerde de operatoren van de theorie door oneindig-dimensionale matrices die inwerkten op kwantumtoestanden.[32] Dit eerste model staat ook bekend als de matrixmechanica. Een bijzonder voorbeeld is de dichtheidsmatrix, die de "gemengde" toestand van een kwantumsysteem als een lineaire combinatie van elementaire, "zuivere" eigentoestanden karakteriseert.[33]

Een andere matrix dient als een belangrijk instrument voor het beschrijven van de verstrooiingsexperimenten, die de hoeksteen vormen van de experimentele deeltjesfysica: botsingreacties, zoals deze plaatsvinden in deeltjesversnellers, waar niet-interagerende deeltjes op elkaar af stormen en vervolgens in een kleine interactiezone op elkaar botsen, met als resultaat een verzameling van niet-interagerende deeltjes, kunnen worden omschreven als het scalair product van uitgaande deeltjestoestanden en een lineaire combinatie van inkomende deeltjestoestanden. De lineaire combinatie wordt gegeven door een matrix, die bekendstaat als de S-matrix. Deze S-matrix codeert voor alle informatie over de mogelijke interacties tussen deeltjes.[34]

Meetkundige optica[bewerken]

De meetkundige optica kent ook matrixtoepassingen. In deze benaderingswijze wordt het golfkarakter van het licht buiten beschouwing gelaten. Het resultaat is een model waarin lichtstralen inderdaad meetkundige stralen zijn. Als de lichtstralen kleine hoeken maken met de optische as (de zgn. paraxiale benadering), kan men voor dunne lenzen volstaan met de eenvoudige lenzenformule. Is de lens dikker, of heeft men een lenzenstelsel, dan kan de werking van een brekend of reflecterend oppervlak op een gegeven lichtstraal worden beschreven met een vermenigvuldiging van een tweedimensionale vector met een twee-bij-twee matrix: de componenten van de vector zijn de hellingshoek van de lichtstraal en de afstand tot de optische as, terwijl de matrix de breking of reflectie beschrijft. Deze matrix wordt de brekingsmatrix genoemd (reflectie is een bijzonder geval van breking, met brekingsindex = -1). Daarnaast gebruikt men een translatiematrix voor de verplaatsing van het referentievlak naar een volgend brekend of refecterend oppervlak, dat weer zijn eigen brekingsmatrix heeft. Het optische systeem, dat uit een combinatie van lenzen en/of reflecterende elementen bestaat, wordt nu simpelweg gekarakteriseerd door de productmatrix van de achtereenvolgende brekings- en translatiematrices.[35][36]

Elektronica: vierpoolmodel[bewerken]

In de analyse van lineaire elektrische en elektronische netwerken wordt het gedrag van veel elektronische componenten beschreven met het zgn. vierpoolmodel (ook wel tweepoortmodel genoemd). Daarin worden de ingangsspanning en -stroom als een kolomvector I = (v1, i1) beschouwd, en de uitgangsspanning en -stroom als een kolomvector U = (v2, i2). Dit levert een matrixvergelijking U = H · I, waarin H een 2 × 2-matrix is met één impedantie-element (h12), één admittantie-element (h21) en twee dimensieloze elementen (h11 en h22). Het doorrekenen van schakelingen komt dan neer op het vermenigvuldigen van matrices.[37]

Berekenen van het aantal n-stapswegen[bewerken]

Schematische weergave van een willekeurige wegenstructuur. Een pijlje betekent dat de weg maar in een richting kan worden bereisd: er bestaan dus 2 rechtstreekse routes van A naar C, maar slechts 1 terug van C naar A

Een veelvoorkomend wiskundig vraagstuk is het berekenen op hoeveel manieren men van punt A naar punt D kan gaan, waarbij n opeenvolgende verbindingen worden gebruikt. Hierbij wordt vertrokken van een vierkante matrix waarin per rij, per kolom het aantal directe verbindingen opgegeven is.

Bij de figuur hoort W=\begin{bmatrix}0&2&2&0&0&0\\2&0&0&0&0&0\\1&0&0&1&1&0\\0&1&1&0&0&1\\0&0&1&1&0&1\\0&0&0&1&1&0\end{bmatrix}

Door de matrix hierna tot de macht n te verheffen, komen we op een nieuwe matrix uit. Deze matrix bevat het aantal manieren waarop men via n opvolgende verbindingen van punt A naar punt D kan gaan. Ook n-stapswegen tussen andere punten kunnen hieruit afgelezen worden.

Voorbeeld: op hoeveel manieren kan men van A naar D gaan in 5 stappen?

Z = W^5 = \begin{bmatrix}6&108&128&24&4&40\\88&4&4&40&40&4\\84&14&16&46&44&10\\6&66&80&18&4&28\\32&40&50&28&18&22\\40&12&14&26&24&8\end{bmatrix}

Conclusie: om in 5 stappen van A naar D te gaan, zijn er 24 mogelijkheden (zie element z14).

Om in 5 stappen van B naar C te gaan, zijn er 4 mogelijkheden (zie element z23).

Geschiedenis[bewerken]

Men maakt bij het oplossen van lineaire vergelijkingen al heel lang gebruik van matrices. De Chinese tekst, De negen hoofdstukken van de wiskundige kunst (Jiu Zhang Suan Shu), die van tussen 300 v.Chr en 200 n.Chr dateert, is het eerste voorbeeld van de gebruik van matrixmethoden om een simultane vergelijkingen op te lossen.[38] Hieronder valt ook het begrip van het concept van de determinant in de Chinese wiskunde, bijna 100 jaar vóór de publicatie van dit begrip door de Japanse wiskundige Seki in 1683 en de Duitse wiskundige Leibniz in 1693. Cramer presenteerde zijn regel van Cramer in 1750.

De vroege matrixtheorie benadrukte determinanten sterker dan matrices. Een onafhankelijk matrixbegrip, dat verwant is aan de moderne notie van een matrix, ontstond pas in 1858, met het werk van Cayley's Memoir on the theory of matrices[39][40] De term "matrix" werd bedacht door Sylvester, die een matrix opvatte als een wiskundig object, dat aanleiding geeft tot een aantal determinanten, die vandaag de dag minoren worden genoemd, dat wil zeggen determinanten van kleinere matrices die voortvloeien uit de origineel of ook door het verwijderen van kolommen en rijen. Etymologisch is het woord "matrix" afkomstig uit het Latijn.[41]

De studie van de determinanten kwam voort uit verschillende bronnen.[42] Getaltheorieproblemen leidden Gauss er toe om coëfficiënten van kwadratische vormen, dat wil zeggen, uitdrukkingen zoals x2 + xy - 2y2, en lineaire afbeeldingen in drie dimensies met matrices in verband te brengen. Eisenstein heeft deze noties verder uitgewerkt, waaronder de opmerking dat, in modern spraakgebruik, matrixproducten niet-commutatief zijn. Cauchy was de eerste om algemene uitspraken over determinanten te bewijzen. Hij maakte daarbij gebruik van de volgende definitie van de determinant van een matrix A = [ai,j]: vervang de machten ajK door ajk in de veelterm

a_1 a_2 \cdots a_n \prod_{i < j} (a_j - a_i)\;.

waar \prod staat voor de product van de aangegeven termen. Hij toonde in 1829 ook aan dat de eigenwaarden van symmetrische matrices reëel zijn.[43] Jacobi bestudeerde "functionele determinanten" - later door Sylvester Jacobi-determinanten genoemd - die kunnen worden gebruikt om meetkundige transformaties op een lokaal (of infinitesimaal) niveau te beschrijven, zie Jacobi-matrix; Kroneckers Vorlesungen über die Theorie der Determinanten[44] en Weierstrass zijn Zur Determinantentheorie ,[45] beide gepubliceerd in 1903, waren de eersten die determinanten axiomatisch behandelden, dit in tegenstelling tot eerdere meer concrete benaderingen, zoals de genoemde stelling van Cauchy. Op dat moment werden determinanten van een stevig fundament voorzien.

Veel stellingen werden aanvankelijk alleen voor kleine matrices vastgesteld, de stelling van Cayley-Hamilton werd bijvoorbeeld voor 2×2 matrices door Cayley in zijn hierboven genoemde werk bewezen, terwijl Hamilton deze stelling voor 4×4 matrices bewees. Frobenius veralgemeende deze stelling voor alle dimensies (1898), toen hij aan bilineaire vormen werkte. Op dezelfde manier werd de Gauss-Jordan-eliminatie (die een speciaal geval veralgemeent van wat nu bekendstaat als de Gauss-eliminatie) aan het eind van de 19e eeuw opgesteld door Wilhelm Jordan. In het begin van de 20e eeuw verkregen matrices een centrale rol binnen de lineaire algebra.[46]

Het begin van de matrixmechanica door Heisenberg, Born en Jordan heeft geleid tot het bestuderen van matrices met oneindig veel rijen en kolommen.[47] Later heeft von Neumann de wiskundige formulering van de kwantummechanica opgesteld door het verder ontwikkelen van functionaalanalytische begrippen, zoals lineaire operatoren op Hilbertruimten, die ruwweg gesproken corresponderen met de Euclidische ruimte, maar met een oneindigheid van onafhankelijke richtingen.

Historisch gebruik van het woord "matrix" in de wiskunde[bewerken]

Het woord matrix is door ten minste twee historisch belangrijke schrijvers op een ongewone manier gebruikt.

Bertrand Russell en Alfred North Whitehead gebruikten het woord matrix in hun Principia Mathematica (1910-1913) in de context van hun axioma van reduceerbaarheid. Zij stelden dit axioma voor als een middel om een functie successievelijk tot één van een lager type te reduceren, zodat de functie aan de "onderkant" (0e orde) identiek zal zijn aan haar uitbreiding:

"Laten we de naam van matrix'' aan enige functie van een willekeurig aantal variabelen geven, waarbij geen sprake is van enige klaarblijkelijke variabelen. Dan wordt enige mogelijke functie anders dan een matrix door middel van veralgemening afgeleid van een matrix, dat wil zeggen door de propositie te beschouwen die beweert dat de functie in kwestie waar is voor alle mogelijke waarden of met sommige waarden van een van de argumenten, waarbij het andere argument of argumenten onbepaald blijven".[48]

Bijvoorbeeld een functie Φ(x, y) van twee variabelen x en y kan bijvoorbeeld worden teruggebracht tot een collectie van functies van een enkele variabele, bijvoorbeeld y, door de functie voor alle mogelijke waarden van "individuen" te "beschouwen", waar ai in de plaats van variabele x wordt gesubstitueerd. Dan kan de resulterende collectie van functies van de enkele variabele y, dat wil zeggen ∀ai: Φ(ai, y) worden gereduceerd tot een "matrix" van waarden door de functie te "beschouwen" voor alle mogelijke waarden van "individuen" b i gesubstitueerd in plaats van variabele y:

∀bj∀ai: Φ(ai, bj)

Alfred Tarski gebruikte het woord "matrix' in 1946 in zijn Introduction to Logic als een synoniem voor zijn notie van een waarheidstabel, zoals deze wordt gebruikt in de wiskundige logica[49]

Typen matrices[bewerken]

Men onderscheidt de volgende typen matrices:

Op basis van de vorm[bewerken]

  • vierkante matrix: een matrix met evenveel rijen als kolommen;
  • diagonaalmatrix: een vierkante matrix waarvan de elementen buiten de hoofddiagonaal 0 zijn
  • eenheidsmatrix: een diagonaalmatrix met alle elementen op de hoofdiagonaal gelijk aan 1
  • benedendriehoeksmatrix: een vierkante matrix waarvan alle elementen boven de hoofddiagonaal 0 zijn
  • bovendriehoeksmatrix: een vierkante matrix waarvan alle elementen onder de hoofddiagonaal 0 zijn
  • Hessenbergmatrix: een vierkante matrix waarvan alle elementen onder de eerste benedendiagonaal of alle elementen boven de eerste bovendiagonaal 0 zijn
  • tridiagonale matrix: een vierkante matrix waarvan alle elementen onder de eerste benedendiagonaal en alle elementen boven de eerste bovendiagonaal 0 zijn

Op basis van de opvulling van de elementen[bewerken]

Op basis van eigenschappen[bewerken]

Speciale matrices[bewerken]

Zie ook[bewerken]

Noten[bewerken]

  1. Eigen betekent "eigen" in het Duits zowel als in het Nederlands.
  2. Daarnaast vereist men dat de groep gesloten is in de algemene lineaire groep.
  3. "Niet veel van de matrixtheorie is overdraagbaar naar oneindig dimensionale ruimten, en dat deel, waar dit wel voor geldt, is niet zo nuttig, maar helpt soms een beetje." Halmos, 1982 pag. 23, hoofdstuk 5

Referenties[bewerken]

Bronnen, noten en/of referenties
  1. Brown, 1991, Stelling I.2.6.
  2. Brown, 1991, I.2.21 en 22
  3. Greub, 1975, deel III.2
  4. Dit volgt onmiddellijk uit de definitie van matrixvermenigvuldiging.
    \mathrm{sp}(AB) = \sum_{i=1}^m \sum_{j=1}^n A_{ij} B_{ji} = \mathrm{sp}(BA).
  5. Brown, 1991, Definitie III.4.1.
  6. Horn, Johnson, 1985, Stelling 2.5.6.
  7. Horn, Johnson, 1985, Hoofdstuk 7.
  8. Bau III, Trefethen, 1997.
  9. Householder, 1975, Ch. 7.
  10. Coburn, 1955, Ch. V.
  11. Greub, 1975, deel III.3.
  12. Greub, 1975, Sectie III.3.13.
  13. Lang, 2002, hoofdstuk XIII.
  14. Lang, 2002, XVII.1, blz. 643
  15. Lang, 2002, Propositie XIII.4.16
  16. Reichl, 2004, Sectie L.2
  17. Zie elke standaard referentie uit de groepentheorie.
  18. Baker, 2003, Def. 1,30
  19. Baker, 2003, Stelling 1.2
  20. Artin, 1991, hoofdstuk 4.5.
  21. Artin, 1991, Stelling 4.5.13.
  22. Rowen, 2008, Voorbeeld 19.2, pag. 198.
  23. Zie elke verwijzing in de representatietheorie of groepsrepresentatie.
  24. Zie het item "Matrix" in Itõ, 1987.
  25. "Lege matrix: een matrix is leeg, indien haar rij- of haar kolomdimensie nul is", Glossarium, O-Matrix v6 User Guide
  26. "Een matrix met ten minste een dimensie gelijk aan nul wordt een lege matrix genoemd", MATLAB Data Structures
  27. Fudenberg, Tirole, 1983, punt 1.1.1
  28. Manning, 1999, Sectie 15.3.4.
  29. Ward, 1997, Ch.2.8.
  30. Zuber, 1980, Ch. 2
  31. Burgess, Moore, 2007, sectie 1.6.3. (SU (3)), paragraaf 2.4.3.2. (Kobayashi-Maskawa-matrix.
  32. Schiff, 1968, Ch 6
  33. Bohm, 2001, secties II.4 en II.8.
  34. Weinberg, 1995, Ch 3
  35. Guenther, 1990, Ch. 5.
  36. Van Heel, A.C.S.: Inleiding in de optica, Den Haag, 1964, pag. 192 e.v.
  37. Davidse, J.: Grondslagen van de eletronica, Utrecht, 1974; deel 1, pag. 207 e.v.
  38. Shen, Crossley, Lun, 1999 geciteerd door Bretscher, 2005 pag.
  39. Cayley, 1889, vol. II, blz. 475-496))
  40. Dieudonne,1978, Vol. 1, Ch. III, blz. 96
  41. Merriam-Webster woordenboek
  42. Knobloch, 1994
  43. Hawkins, 1975
  44. Kronecker, Hensel, 1897
  45. Weierstrass, 1915, vol 3, blz. 271-286
  46. Bocher
  47. Mehra, Rechenberg, 1987
  48. Alfred North Whitehead en Bertrand Russell (1913) Principia Mathematica to * 56, Cambridge at the University Press, Cambridge UK (heruitgegeven 1962) zie pagina 162ff.
  49. Tarski, Alfred, 1946 Introduction to Logic and the Methodology of Deductive Sciences (Inleiding in de logica en de methodologie van de deductieve wetenschappen, Dover Publications, Inc, New York NY, ISBN 0-486-28462-X.