14. Orthogonale matrices#

In fysische toepassingen zijn orthogonale matrices een belangrijk type matrices. Deze stellen lineaire afbeeldingen voor die afstanden en inproducten tussen vectoren behouden, zoals rotaties en spiegelingen.

14.1. Orthogonale matrices en lineaire afbeeldingen#

Definitie 14.1 (Orthogonale matrix)

Een vierkante matrix \(A\) is orthogonaal als de kolommen van \(A\) een orthonormaal stel vectoren vormen. Equivalent: \(A\) is orthogonaal wanneer \(A\) voldoet aan

\[ A^\top A=I. \]

Opmerking 14.1

“Orthonormale matrix” zou een logischere naam zijn geweest, maar de term “orthogonale matrix” is ingeburgerd.

We merken op dat de gelijkheid \(A^\top A=I\) betekent dat \(A\) inverteerbaar is met inverse \(A^\top\). Aangezien de inverse van een matrix een tweezijdige inverse is, is dit equivalent met \(AA^\top=I\). We concluderen dat \(A\) orthogonaal is precies wanneer de rijen van \(A\) een orthonormaal stel vectoren vormen.

Voorbeeld 14.1

De matrix

\[\begin{split} A = \frac{1}{5}\begin{pmatrix}3& 4\\ -4& 3\end{pmatrix} \end{split}\]

is orthogonaal, met inverse

\[\begin{split} A=A^\top=\frac{1}{5}\begin{pmatrix}3& -4\\ 4& 3\end{pmatrix}. \end{split}\]

Het blijkt dat orthogonale matrices corresponderen met lineaire afbeeldingen die inproducten behouden.

Definitie 14.2

Een lineaire afbeelding \(f\colon\RR^n\to\RR^n\) heet orthogonaal als voor alle \(\vx,\vy\in\RR^n\) geldt

\[ f(\vx)\cdot f(\vy) = \vx\cdot\vy. \]

Stelling 14.1

Een lineaire afbeelding \(f\colon\RR^n\to\RR^n\) is orthogonaal precies wanneer de standaardmatrix \(A\) van \(f\) een orthogonale matrix is.

Bewijs. Stel dat \(f\) orthogonaal is. Dan geldt in het bijzonder

\[\begin{split} f(\ve_i)\cdot f(\ve_j) = \ve_i\cdot\ve_j = \begin{cases} 1& \text{als }i=j,\\ 0& \text{als }i\ne j. \end{cases} \end{split}\]

Dit betekent dat \((f(\ve_1),\ldots,f(\ve_n))\) een orthonormaal stel vectoren in \(\RR^n\) is (en zelfs een orthonormale basis van \(\RR^n\)). Anderzijds zijn \(f(\ve_1),\ldots,f(\ve_n)\) precies de kolommen van de standaardmatrix \(A\) van \(f\). De kolommen van \(A\) zijn dus orthonormaal, dus \(A\) is een orthogonale matrix.

Stel omgekeerd dat \(A\) een orthogonale matrix is. Voor alle \(\vx,\vy\in\RR^n\) berekenen we

\[ f(\vx)\cdot f(\vy) = A\vx\cdot A\vy = \vx\cdot A^\top A\vy = \vx\cdot I\vy=\vx\cdot\vy, \]

waarbij we de eerder bewezen eigenschap \(A\vv\cdot\vw=\vv\cdot A^\top\vw\) gebruikt hebben. Dit laat zien dat \(f\) een orthogonale lineaire afbeelding is.

Eigenvectoren van symmetrische matrices

Definitie 14.3 (Symmetrische matrix)

Een matrix \(A\) heet symmetrisch wanneer de getransponeerde \(A^\top\) van \(A\) gelijk is aan \(A\).

Merk op dat een symmetrische matrix altijd vierkant is.

Stelling 14.2

Bekijk een symmetrische \(n\times n\)-matrix \(A\).

  1. Als \(\vv\) en \(\vw\) eigenvectoren van \(A\) zijn bij verschillende eigenwaarden, dan geldt \(\vv\cdot\vw=0\).

  2. Alle eigenwaarden van \(A\) zijn reëel.

  3. Er zijn een orthogonale \(n\times n\)-matrix \(C\) en een diagonale \(n\times n\)-matrix \(D\) die voldoen aan

    \[ A=CDC^{-1}\quad(=CDC^\top). \]

Bewijs. 1. Bekijk eigenvectoren \(\vv\) en \(\vw\) bij eigenwaarden \(\lambda\) en \(\mu\), dus

\[ A\vv=\lambda\vv,\quad A\vw=\mu\vw \]

met \(\lambda\ne\mu\). Omdat \(A\) symmetrisch is, geldt

\[ A\vv\cdot\vw=\vv\cdot A^\top\vw=\vv\cdot A\vw. \]

De linkerkant is gelijk aan \(\lambda\vv\cdot\vw=\lambda(\vv\cdot\vw)\), de rechterkant aan \(\vv\cdot\mu\vw=\mu(\vv\cdot\vw)\). Dit geeft

\[ (\lambda-\mu)(\vv\cdot\vw)=0. \]

Aangezien \(\lambda-\mu\ne0\), volgt \(\vv\cdot\vw=0\).

  1. Gegeven een eigenwaarde \(\lambda\in\CC\) van \(A\) en een bijbehorende eigenvector \(\vv\in\CC^n\) moeten we bewijzen dat \(\lambda\) reëel is. Voor twee vectoren \(\vx,\vy\in\CC^n\) schrijven we

\[ \langle\vx,\vy\rangle=\sum_{j=1}^n x_j\bar y_j\in\CC. \]

We bekijken het complexe getal

\[ \langle A\vv,\vv\rangle = \sum_{j=1}^n\sum_{k=1}^n A_{j,k} v_k \bar v_j. \]

Door te gebruiken dat \(\bar A_{j,k}=A_{j,k}=A_{k,j}\), zien we dat de complex geconjugeerde van \(\langle A\vv,\vv\rangle\) gelijk is aan

\[ \sum_{j=1}^n\sum_{k=1}^n \bar A_{j,k} \bar v_k v_j = \sum_{k=1}^n\sum_{j=1}^n A_{k,j} v_j \bar v_k = \langle A\vv,\vv\rangle, \]

dus \(\langle A\vv,\vv\rangle\) is reëel. Anderzijds geldt

\[ \langle A\vv,\vv\rangle = \langle \lambda\vv,\vv\rangle = \lambda\langle \vv,\vv\rangle. \]

We merken op dat \(\langle \vv,\vv\rangle=\sum_{j=1}^n|v_j|^2\) reëel en strikt positief is, omdat \(\vv\ne\mathbf{0}\). Hieruit volgt dat

\[ \lambda = \frac{\langle A\vv,\vv\rangle}{\langle\vv,\vv\rangle} \]

een reëel getal is.

Het bewijs van (3) geven we hier niet.

Een nuttige interpretatie van deel (3) van de stelling is: gegeven een symmetrische \(n\times n\)-matrix \(A\) bestaat er een orthonormale basis van \(\RR^n\) bestaande uit eigenvectoren van \(A\). We zeggen ook wel dat \(A\) orthogonaal diagonaliseerbaar is. Omgekeerd geldt ook: als \(A=CDC^{-1}\) met \(C\) orthogonaal en \(D\) diagonaal, dan geldt

\[ A^\top = (CDC^\top)^\top = (C^\top)^\top D^\top C^\top = CDC^\top = A, \]

dus \(A\) is symmetrisch.

Voorbeeld 14.2

Bekijk de symmetrische matrix

\[\begin{split} A=\begin{pmatrix}5& 1& -2\\ 1& 5& 2\\ -2& 2& 2\end{pmatrix}. \end{split}\]

Een berekening geeft het karakteristiek polynoom

\[ \det(A-\lambda I)=-\lambda^3+12\lambda^2-36\lambda=-\lambda(\lambda-6)^2. \]

De eigenwaarden van \(A\) zijn dus \(\lambda_1=0\) (met algebraïsche multipliciteit 1) en \(\lambda_2=6\) (met algebraïsche multipliciteit 2). We bepalen de eigenruimten

\[ E_0=\ker(A-0I)\quad\text{en}\quad E_6=\ker(A-6I) \]

door matrixvegen. We vegen eerst \(A-0I\):

\[\begin{split} \begin{aligned} A-0I&=\begin{pmatrix}5& 1& -2\\ 1& 5& 2\\ -2& 2& 2\end{pmatrix}\\ &\sim \begin{pmatrix}1& 5& 2\\ 5& 1& -2\\ -2& 2& 2\end{pmatrix}\\ &\sim \begin{pmatrix}1& 5& 2\\ 0& -24& -12\\ 0& 12& 6\end{pmatrix}\\ &\sim \begin{pmatrix}1& 5& 2\\ 0& 2& 1\\ 0& 0& 0\end{pmatrix}. \end{aligned} \end{split}\]

Deze matrix staat in rijtrapvorm en op de gebruikelijke manier vinden we

\[\begin{split} E_0=\ker(A-0I)=\opsp\left(\begin{pmatrix}1\\ -1\\ 2\end{pmatrix}\right). \end{split}\]

We vegen nu \(A-6I\):

\[\begin{split} \begin{aligned} A-6I&=\begin{pmatrix}-1& 1& -2\\ 1& -1& 2\\ -2& 2& -4\end{pmatrix}\\ &\sim \begin{pmatrix}-1& 1& -2\\ 0& 0& 0\\ 0& 0& 0\end{pmatrix}. \end{aligned} \end{split}\]

Deze matrix staat in rijtrapvorm en op de gebruikelijke manier vinden we

\[\begin{split} E_6=\ker(A-6I)=\opsp\left(\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}, \begin{pmatrix}2\\ 0\\ 1\end{pmatrix}\right). \end{split}\]

Merk op dat de eigenvector \(\vv_1=\begin{pmatrix}1\\ -1\\ 2\end{pmatrix}\) bij de eigenwaarde \(\lambda_1=0\) inderdaad loodrecht staat op de eigenvectoren \(\vv_2=\begin{pmatrix}1\\ 1\\ 0\end{pmatrix}\) en \(\vv_3=\begin{pmatrix}2\\ 0\\ 1\end{pmatrix}\) bij de eigenwaarde \(\lambda_2=6\). De vectoren \(\vv_2\) en \(\vv_3\) staan echter nog niet loodrecht op elkaar. We berekenen een orthogonale basis door Gram–Schmidt-orthogonalisatie toe te passen op het paar vectoren \((\vv_2,\vv_3)\). Dit geeft de volgende orthogonale basis van eigenvectoren:

\[\begin{split} \vb_1=\vv_1=\begin{pmatrix}1\\ -1\\ 2\end{pmatrix},\quad \vb_2=\vv_2=\begin{pmatrix}1\\ 1\\ 0\end{pmatrix},\quad \vb_3=\vv_3-\frac{\vv_3\cdot\vv_2}{\vv_2\cdot\vv_2}\vv_2 = \begin{pmatrix}-1\\ 1\\ 1\end{pmatrix}. \end{split}\]

Tot slot vinden we een orthonormale basis door te normaliseren:

\[\begin{split} \vq_1 = \frac{1}{\sqrt6}\begin{pmatrix}1\\ -1\\ 2\end{pmatrix},\quad \vq_2 = \frac{1}{\sqrt2}\begin{pmatrix}1\\ 1\\ 0\end{pmatrix},\quad \vq_3 = \frac{1}{\sqrt3}\begin{pmatrix}-1\\ 1\\ 1\end{pmatrix}. \end{split}\]

We concluderen dat \(A=CDC^{-1}\) met

\[\begin{split} D=\begin{pmatrix}0& 0& 0\\ 0& 6& 0\\ 0& 0& 6\end{pmatrix} \end{split}\]

en

\[\begin{split} C=(\vq_1\enspace \vq_2\enspace\vq_3)= \begin{pmatrix} 1/\sqrt{6}& 1/\sqrt{2}& -1/\sqrt{3}\\ -1/\sqrt{6}& 1/\sqrt{2}& 1/\sqrt{3}\\ 2/\sqrt{6}& 0& 1/\sqrt{3}\\ \end{pmatrix}. \end{split}\]