Matrizen

Bei einer Matrix handelt es sich um eine rechteckige Anordnungen mehrerer Zahlen. Hat eine Matrix m Zeilen und n Spalten, so sagt man, die Matrix sei vom Typ (m;n). Eine solche Matrix hat allgemein folgende Gestalt:

\underline{A}_{\;(m;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} &
a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} &
\cdots & a_{mn}\\ \end{pmatrix}

In der Literatur werden Matrizen häufig auch durch fettgedruckte Großbuchstaben bezeichnet, in der Praxis werden die Großbuchstaben hingegen üblicherweise unterstrichen. Die in einer Matrix \underline{A} stehenden Zahlen werden allgemein Elemente oder Komponenten a_{\mathrm{ij}} der Matrix genannt, wobei i den Zeilenindex (eine Zahl zwischen 1 und n) und j den Spaltenindex (eine Zahl zwischen 1 und n) bezeichnet. Schreibt man (a_{\mathrm{ij}}) in runden Klammern, so ist damit die Gesamtheit aller Komponenten, also wiederum die ganze Matrix gemeint.

Spezielle Matrizen

Matrizen können sowohl hinsichtlich der Zahlenwerte ihrer Komponenten als auch hinsichtlich ihrer Form Besonderheiten aufweisen: Beispielsweise werden Matrizen, die ausschließlich Nullen als Werte enthalten, Nullmatrizen genannt. Andererseits können auch gewöhnliche Vektoren als spezielle Matrizen mit einer Spaltenzahl von n=1 aufgefasst werden:

\vec{a} := \underline{A}_{\;(m;\,1)} = \begin{pmatrix}
    a_1 \\ a_2 \\ \vdots \\ a_{\mathrm{m}}
\end{pmatrix}

Matrizen, die hingegen nur eine Zeilenzahl von m=1 haben, werden entsprechend Zeilenvektoren genannt:

{\color{white}\vec{a}:=\quad}\underline{A}_{\;(1;\,n)} = \begin{pmatrix} a_1 \;
\ldots \; a_{\mathrm{n}} \end{pmatrix}

Ein Zeilenvektor, der die gleichen Elemente hat wie ein Spaltenvektor \vec{a}, wird häufig auch mit \vec{a}^{\;\mathrm{T}} bezeichnet. Das hochgestellte \mathrm{T} bedeutet dabei “transponiert”. Allgemein kann zu jeder Matrix \underline{A} eine transponierte Matrix \underline{A}^{\mathrm{T}} gebildet werden, indem man die Zeilen und Spalten der Matrix vertauscht:

\underline{A}_{\;(m;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots\; \cdots\; \cdots & a_{1n}\\ a_{21} &
a_{22} & \cdots\; \cdots \; \cdots & a_{2n}\\ \vdots  & \vdots & & \vdots \\ a_{m1} & a_{m2} &
\cdots\; \cdots \; \cdots & a_{mn}\\ \end{pmatrix}
\quad \Longleftrightarrow \quad
\underline{A}^{\mathrm{T}}_{\;(n;\,m)} = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1m}\\ a_{21} &
a_{22} & \cdots & a_{2m}\\ \vdots & \vdots & & \vdots \\ \vdots & \vdots \\ \vdots & \vdots & &
\vdots \\ a_{n1} & a_{n2} & \cdots & a_{nm}\\
\end{pmatrix}

Beim Transponieren einer Matrix bleiben also nur diejenigen Komponenten unverändert, die auf der von links oben nach rechts unten verlaufenden “Hauptdiagonalen” liegen; alle anderen Einträge werden an dieser Diagonalen gespiegelt. Bleibt eine Matrix beim Transponieren unverändert, so nennt man sie symmetrisch.

Eine weitere Sonderstellung haben quadratische Matrizen, für deren Zeilen- wie auch Spaltenanzahl m=n gilt. Für jede derartige Matrix \underline{A}_{\;(n;\,n)} lässt sich eine so genannte Diagonalmatrix \underline{D}_{\;(n;\,n)} angeben, bei der alle Komponenten, die nicht auf der Hauptdiagonalen liegen, gleich Null sind:

\underline{A}_{\;(n;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots &
a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\
a_{n1} & a_{n2} & \cdots & a_{nn}\\ \end{pmatrix}
\quad \Longleftrightarrow \quad
\underline{D}_{\;(n;\,n)} = \begin{pmatrix} a_{11} & 0 & \cdots & 0\\ 0 &
a_{22} & \cdots & 0\\ \vdots & \vdots & & \vdots\\ 0 & 0 &
\cdots & a_{nn}\\ \end{pmatrix}

Eine Sonderform einer Diagonalmatrix ist eine so genannte Einheitsmatrix, bei der alle Elemente auf der Hauptdiagonalen den Wert 1 haben.

\underline{E}_{\;(n;\,n)} = \begin{pmatrix} 1 & 0 & \cdots & 0\\ 0 &
    1 & \cdots & 0\\ \vdots & \vdots & & \vdots\\ 0 & 0 &
    \cdots & 1 \\ \end{pmatrix}

Eine Gleichheit zweier Matrizen liegt nur dann vor, wenn beide die gleiche Form haben und die Werte aller ihrer Komponenten identisch sind. Es muss also gelten:

\underline{A}_{\;(m;\,n)} = \underline{B}_{\;(m;\,n)} \quad \Longleftrightarrow
\quad a_{ij} = b_{ij} \; \text{für alle $i,\,j$}

Die Wirkungsweise von Matrizen auf geometrische Objekte wird im übernächsten Abschnitt beschrieben; im nächsten Abschnitt werden zunächst einige grundlegende Rechenregeln für den Umgang mit Matrizen vorgestellt.

Rechenregeln für Matrizen

Die wichtigsten Rechenoperationen für Matrizen sind die Addition zweier Matrizen sowie die Multiplikation einer Matrix mit einer Zahl, einem Vektor oder einer anderen Matrix. Die Rechenregeln für Matrizen basieren auf den üblichen Grundrechenregeln der Arithmetik; man muss diese lediglich in geordneter Weise auf “mehr” Zahlen angewenden.

Addition zweier Matrizen

Haben zwei Matrizen die gleiche Form, so können sie addiert beziehungsweise subtrahiert werden, indem die jeweils an gleicher Stelle stehenden Komponenten addiert beziehungsweise subtrahiert werden:

\underline{A}_{\;(m;\,n)} + \underline{B}_{\;(m;\,n)} = (a_{ij} +
b_{ij})_{\;(m;\,n)} \; \text{für alle $i,\,j$}

Das Resultat einer Addition beziehungsweise Subtraktion ist wiederum eine Matrix, welche die gleiche Form hat wie jede der beiden ursprünglichen Matrizen.

Beispiel:

  • Welches Ergebnis liefert die Addition der folgenden beiden Matrizen?

    \underline{A} =
\begin{pmatrix}
    \phantom{+}4 & -3 & \phantom{+}7 \\
    \phantom{+}2 & \phantom{+}9 & \phantom{+}1 \\
\end{pmatrix} \qquad
\underline{B} = \begin{pmatrix}
    -4 & \phantom{+}1 & -9 \\
    -1 & -7 & \phantom{+}2 \\
\end{pmatrix}

    Bei der Matrizen-Addition werden die einzelnen Komponenten beider Matrizen addiert:

    \underline{A} + \underline{B} &= \begin{pmatrix}
    \phantom{+}4 & -3 & \phantom{+}7 \\
    \phantom{+}2 & \phantom{+}9 & \phantom{+}1 \\
\end{pmatrix} +
\begin{pmatrix}
    -4 & \phantom{+}1 & -9 \\
    -1 & -7 & \phantom{+}2 \\
\end{pmatrix} \\[4pt] &=
\begin{pmatrix}
    \big(4+(-4)\big) & \big( (-3) + \phantom{+}1\big) & \big( 7 + (-9)\big) \\
    \big(2 + (-1)\big) & \big(\phantom{+}9 + (-7)\big) & \big( 1 + \phantom{+}2 \phantom{+}\big) \\
\end{pmatrix} =
\begin{pmatrix}
    0 & -2 & -2 \\
    1 & \phantom{+}2 & \phantom{+}3
\end{pmatrix}

Da die Addition beziehungsweise Subtraktion komponentenweise nach den gleichen Rechenregeln wie mit gewöhnlichen Zahlen erfolgt, gilt auch für die Addition beziehungsweise Subtraktion das Kommutativ- und Assoziativgesetz :

(1)\underline{A} + \underline{B} = \underline{B} + \underline{A}

(2)(\underline{A} + \underline{B}) + \underline{C} = \underline{A} +
(\underline{B} + \underline{C}) = \underline{A} + \underline{B} +
\underline{C}

Multiplikation einer Matrix mit einer Zahl

Die Multiplikation einer Matrix mit einer reellen Zahl (einem so genannten “Skalar”) erfolgt ebenfalls komponentenweise: Jedes Element der Matrix \underline{A} wird mit dem Wert des Skalars c multipliziert. Man kann also schreiben:

c \cdot \underline{A}_{\;(m;\,n)} = (c \cdot a_{ij} )_{\;(m;\,n)} \;
\text{für alle $i,\,j$}

Das Resultat einer ist wiederum eine Matrix, welche die gleiche Form hat wie die ursprüngliche Matrix.

Beispiel:

  • Welches Ergebnis erhält man, wenn man folgende Matrix mit c=4 multipliziert?

    \underline{A} = \begin{pmatrix}
    7 & -2 \\
    0 & \phantom{+}3 \\
\end{pmatrix}

    Bei der Multiplikation einer Matrix mit einer Zahl werden alle Komponenten der Matrizen mit dieser Zahl multipliziert:

    c \cdot \underline{A} = 4 \cdot \begin{pmatrix}
    7 & -2 \\
    0 & \phantom{+}3 \\
\end{pmatrix} = \begin{pmatrix}
    4 \cdot 7 & 4 \cdot (-2) \\
    4 \cdot 0 & 4 \cdot \;\;\;\;3 \;\;\\
\end{pmatrix}
\begin{pmatrix}
    28 & -8 \\
    0 & 12
\end{pmatrix}

Auch für die Multiplikation einer Matrix mit einer Zahl gelten das Kommutativ- und Assoziativgesetz:

(3)c \cdot \underline{A} = \underline{A} \cdot c

(4)c_1 \cdot (c_2 \cdot \underline{A}) = (c_1 \cdot c_2) \cdot \underline{A} =
c_1 \cdot c_2 \cdot \underline{A}

Zudem gilt das Distributivgesetz in gewohnter Form:

(5)(c_1 + c_2) \cdot \underline{A} &= c_1 \cdot \underline{A} + c_2 \cdot
\underline{A} \\
c \cdot (\underline{A} + \underline{B}) &= c \cdot \underline{A} + c \cdot
\underline{B} \\

Multiplikation eines Zeilen- mit einem Spaltenvektor

Zur Herleitung einer Rechenregel für die Multiplikation zweier Matrizen wird zunächst von der skalaren Multiplikation eines Zeilenvektors mit einem Spaltenvektor ausgegangen. Wie bei einem gewöhnlichen Skalarprodukt zweier Vektoren werden dabei die einzelnen Komponenten des Zeilen- und des Spaltenvektors miteinander multipliziert, und die sich dabei ergebenden Teilergebnisse schließlich summiert.

(6)\vec{a}^{\;\mathrm{T}}_{(1;\,n)} \cdot \vec{b}_{(n,1)} = (a_1,\, a_2,\,
\ldots,\, a_{\mathrm{n}}) \cdot \begin{pmatrix}
b_1 \\ b_2 \\ \vdots \\ b_{\mathrm{n}} \end{pmatrix} = a_1 \cdot b_1 + a_2
\cdot b_2 + \ldots + a_{\mathrm{n}} \cdot b_{\mathrm{n}} = \sum_{i=1}^{n}
a_{\mathrm{i}} \cdot b_{\mathrm{i}}

Damit eines solches Produkt möglich ist, muss der Zeilenvektor ebenso viele Komponenten haben wie der Spaltenvektor. Das Ergebnis des Produkts ist dann eine gewöhnliche Zahl (ein Skalar).

Beispiel:

  • Welches Ergebnis erhält man, wenn man den Zeilenvektor \vec{a}^{\;\mathrm{T}} = (3,\, -5,\, 4) mit dem Spaltenvektor \vec{b} = ( -1 \,\, +2,\, {+}1) multipliziert?

    \vec{a}^{\;\mathrm{T}}\cdot \vec{b} = (3,\, -5,\, 4) \cdot
\begin{pmatrix} -1 \\ \phantom{+}2 \\ \phantom{+}1 \end{pmatrix} = 3 \cdot
(-1) + (-5) \cdot 2 + 4 \cdot 1 = -9

    Das Produkt liefert somit den Wert \vec{a} ^{\;\mathrm{T}}\cdot \vec{b} = -9

Multiplikation einer Matrix mit einem Vektor

Multipliziert man nun nicht nur einen Zeilenvektor mit n Komponenten, sondern eine n-spaltige Matrix mit einem Spaltenvektor der Länge n, so wird nach der obigen Regel (6) für jede Zeile der Matrix ein Skalarprodukt mit dem Spaltenvektor gebildet. Hat die Matrix m Zeilen, so erhält man folglich m einzelne Ergebnisse. Diese werden als Komponenten in einen neuen Spaltenvektor der Länge m geschrieben.

\begin{array}{c|c}
\underline{A} \cdot \vec{b}  &
\begin{pmatrix}
    \; b_1 \; \\
    b_2 \\
    \vdots \\
    b_{n} \\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{m1} & a_{m2} & \ldots & a_{mn} \\
\end{pmatrix} &
\begin{pmatrix}
    \sum_{i=1}^{n} a_{\mathrm{1i}} \cdot b_{\mathrm{i}} \\[4pt]
    \sum_{i=1}^{n} a_{\mathrm{2i}} \cdot b_{\mathrm{i}} \\[4pt]
    \vdots \\
    \sum_{i=1}^{n} a_{\mathrm{mi}} \cdot b_{\mathrm{i}} \\
\end{pmatrix}
\end{array}

Beispiel:

  • Welches Ergebnis erhält man, wenn man die folgende Matrix \underline{A} mit dem folgenden Vektor \vec{b} multipliziert?

    \underline{A} = \begin{pmatrix}
    \phantom{+}3 & \phantom{+}1 & \phantom{+}2 \\
    \phantom{+}1 & \phantom{+}2 & \phantom{+}1 \\
    -1 & \phantom{+}1 & -3 \\
\end{pmatrix} \qquad \vec{b} = \begin{pmatrix}
    \phantom{+}3 \\ -2 \\ \phantom{+}1
\end{pmatrix}

    Für die Multiplikation der Matrix \underline{A} mit dem Vektor \vec{b} gilt nach obigem Schema:

    \underline{A} \cdot \vec{b} =  \quad \begin{array}{r|c}
& \begin{pmatrix}
    \phantom{+}3 \\ -2 \\ \phantom{+}1
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    \phantom{+}3 & \phantom{+}1 & \phantom{+}2 \\
    \phantom{+}1 & \phantom{+}2 & \phantom{+}1 \\
    -1 & \phantom{+}1 & -3 \\
\end{pmatrix} & \begin{pmatrix}
    \phantom{+}3 \cdot 3 + \phantom{+}1 \cdot (-2) + \phantom{(+}2\phantom{)} \cdot 1 \\
    \phantom{+}1 \cdot 3 + \phantom{+}2 \cdot (-2) + \phantom{(+}1\phantom{)} \cdot 1 \\
    -1 \cdot 3 + \phantom{+}1 \cdot (-2) + (-3) \cdot 1
\end{pmatrix}
\end{array}  = \begin{pmatrix}
    \phantom{+}9 \\ \phantom{+}0 \\ -8
\end{pmatrix}

Ein Produkt einer Matrix mit einem Vektor kann nur dann gebildet werden, wenn die Anzahl an Spalten der Matrix mit der Anzahl an Zeilen des Vektors übereinstimmt; andernfalls ist die Multiplikation nicht definiert.

Multiplikation zweier Matrizen

Beim so genannten “Falk-Schema”, wie es in der obigen Abbildung dargestellt ist, werden die zu multiplizierenden Matrizen beziehungsweise Vektoren tabellenartig aufgelistet.[1] Die Auswertung erfolgt allgemein nach folgender Regel: Multipliziert man die i-te Zeile der linken Matrix mit der j-ten Spalter der rechten Matrix, so erhält man die Komponente der Ergebnis-Matrix, die dort in der i-ten Zeile und j-ten Spalte steht.

Das Falk-Schema kann also einfach auf die Multiplikation zweier Matrizen ausgeweitet werden: Hierbei wird jeweils an der Stelle, wo sich eine Zeile der linken Matrix mit einer Spalte der rechten Matrix überkreuzt, das entsprechende Skalarprodukt eingetragen.

\begin{array}{c|c}
\underline{A} \cdot \underline{B}  &
\begin{pmatrix}
    \phantom{.}\quad b_{11} \;\qquad        & \qquad\qquad b_{12}           & \;\qquad \cdots \qquad & \qquad b_{\mathrm{1p}} \quad\phantom{.}\\[6pt]
    \phantom{.}\quad b_{21} \;\qquad        & \qquad\qquad b_{22}           & \;\qquad \cdots \qquad & \qquad b_{\mathrm{2p}} \quad\phantom{.}\\[6pt]
    \phantom{.}\quad \vdots \;\qquad        & \qquad\qquad \vdots           & \;\qquad \ddots \qquad & \qquad \vdots          \quad\phantom{.}\\[6pt]
    \phantom{.}\quad b_{\mathrm{n1}} \qquad & \qquad\qquad b_{\mathrm{n2}}  & \;\qquad \cdots \qquad & \qquad b_{\mathrm{np}} \quad\phantom{.}\\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{\mathrm{1n}} \\[6pt]
    a_{21} & a_{22} & \ldots & a_{\mathrm{2n}} \\[6pt]
    \vdots & \vdots & \ddots & \vdots \\[6pt]
    a_{\mathrm{m1}} & a_{\mathrm{m2}} & \ldots & a_{\mathrm{mn}} \\
\end{pmatrix} &
\begin{pmatrix}
    \sum_{i=1}^{n} a_{\mathrm{1i}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{1i}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n}
    a_{\mathrm{1i}} \cdot b_{\mathrm{pi}} \\[6pt]
    \sum_{i=1}^{n} a_{\mathrm{2i}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{2i}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n} a_{\mathrm{2i}}
    \cdot b_{\mathrm{pi}} \\[6pt]
    \vdots & \vdots & \ddots & \vdots \\[6pt]
    \sum_{i=1}^{n} a_{\mathrm{mi}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{mi}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n}
    a_{\mathrm{mi}} \cdot b_{\mathrm{pi}} \\
\end{pmatrix}
\end{array}

Auch in diesem Fall ist das Produkt nur dann definiert, wenn die die Anzahl an Spalten der linken Matrix mit der Anzahl an Zeilen des Vektors übereinstimmt. Hat die linke Matrix die Form (m;\,n) und die rechte Matrix die Form (n;\,p), so erhält man als Ergebnis eine neue Matrix der Form (m;\,p). Multipliziert man zwei quadratische Matrizen mit gleicher Zeilen- beziehungsweise Spaltenanzahl, so ist die Form der resultierenden Matrix mit der Form der beiden ursprünglichen Matrizen identisch.

Beispiel:

  • Welches Ergebnis erhält man, wenn man die beiden folgenden Matrizen miteinander multipliziert?

    \underline{A} = \begin{pmatrix}
    \phantom{+}2 & \phantom{+}4 & \phantom{+}1 \\
    \phantom{+}0 & -1 & \phantom{+}3 \\
\end{pmatrix} \qquad \underline{B} = \begin{pmatrix}
    \phantom{+}1 & -3 \\
    -4 & \phantom{+}2 \\
    \phantom{+}2 & \phantom{+}0 \\
\end{pmatrix}

    Für die Multiplikation der beiden Matrizen \underline{A} und \underline{B} gilt nach dem obigen Schema:

    \begin{array}{r|c}
\underline{A} \cdot \underline{B} \qquad \phantom{.}& \begin{pmatrix}
    \quad \phantom{+}1 \hspace{5.5cm} & \hspace{5.5cm} -3 \quad \phantom{.}\\
    \quad -4           \hspace{5.5cm} & \hspace{5.5cm} \phantom{+}2 \quad \phantom{.}\\
    \quad \phantom{+}2 \hspace{5.5cm} & \hspace{5.5cm} \phantom{+}0 \quad \phantom{.}\\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    \phantom{+}2 & \phantom{+}4 & \phantom{+}1 \\
    \phantom{+}0 & -1 & \phantom{+}3 \\
\end{pmatrix} & \begin{pmatrix}
    \big(\;2 \cdot 1 + \phantom{(+}4 \phantom{)} \cdot (-4) + \phantom{+}1 \cdot 2 \;\big) &
    \big(\;2 \cdot (-3) + \phantom{(+}4 \phantom{)}\cdot 2 + \phantom{+}1 \cdot 0 \;\big) \\
    \big(\;0 \cdot 1 + (-1) \cdot (-4) + \phantom{+}3 \cdot 2 \;\big) &
    \big(\;0 \cdot (-3) + (-1) \cdot 2 + \phantom{+}3 \cdot 0 \;\big) \\
\end{pmatrix}
\end{array}  = \begin{pmatrix}
    -12 & \phantom{+}2 \\
    \phantom{+}10 & -2 \\
\end{pmatrix}

Die Bedingung, dass bei der Multiplikation zweier Matrizen auf zueinander passende Spalten- und Zeilenanzahlen geachtet werden muss, zeigt bereits, dass bei diesem Rechenvorgang die Reihenfolge der Faktoren von Bedeutung ist:

  • Multipliziert man eine Matrix der Form (2;\,3) mit einer Matrix der Form (3;\,2), so ergibt sich eine Matrix der Form (2;\,2).
  • Multipliziert man eine Matrix der Form (3;\,2) mit einer Matrix der Form (2;\,3), so ergibt sich eine Matrix der Form (3;\,3).

Für die Multiplikation zweier Matrizen gilt folglich im Allgemeinen Kommutativgesetz der Multiplikation nicht :

(7)\underline{A} \cdot \underline{B} \ne \underline{B} \cdot \underline{A}

Für die Multiplikation zweier Matrizen gilt allerdings das Assoziativgesetz:

(8)(\underline{A} \cdot \underline{B}) \cdot \underline{C} = \underline{A}
\cdot (\underline{B} \cdot \underline{C}) = \underline{A} \cdot
\underline{B} \cdot \underline{C}

Auch das Distributivgesetz gilt für die Multiplikation zweier Matrizen in folgender Form:

(9)\underline{A} \cdot (\underline{B} + \underline{C}) = \underline{A} \cdot
\underline{B} + \underline{A} \cdot \underline{C}

Zusätzlich gilt, dass bei jedem Produkt einer Matrix \underline{A} mit einer entsprechenden Nullmatrix \underline{0} wiederum eine Nullmatrix entsteht (da jedes einzelnen Skalarprodukt den Wert Null hat). Multipliziert man hingegen eine beliebige Matrix \underline{A} mit einer Einheitsmatrix \underline{E}, so erhält man die ursprüngliche Matrix \underline{A} als Ergebnis. Es gilt also (in diesem Fall sogar unabhängig von der Reihenfolge der Faktoren):

(10)\underline{A} \cdot \underline{0} = \underline{0} \cdot \underline{A} &=
\underline{0} \\[4pt]
\underline{A} \cdot \underline{E} = \underline{E} \cdot \underline{A} &=
\underline{E} \\[4pt]

Eine Division zweier Matrizen ist nicht definiert.

Wirkungsweise von Matrizen

Die Wirkungsweise von Matrizen lässt sich gut veranschaulichen, wenn man einzelne Vektoren in einem ebenen Koordinatensystem betrachtet und verschiedene Arten von Matrizen auf diese anwendet.

Da es in einem ebenen Koordinatensystem nur zweidimensionale Objekte gibt, benötigen die jeweiligen (Orts-)Vektoren nur zwei Komponenten (x und y); die für ein solches System relevanten Matrizen haben entsprechend ebenfalls nur (2 \times 2) Komponenten.

Skalierungsmatrizen

Eine Skalierungsmatrix hat für ein zweidimensionales Koordinatensystem folgende Form:

(11)\underline{A}_{\mathrm{\,Ska}} = \begin{pmatrix}
    \lambda & 0 \\
    0 & \lambda
\end{pmatrix}

Hierbei ist \lambda \in \mathbb{R} ein beliebiger Zahlenwert.

Multipliziert man eine derartige Matrix mit dem Ortsvektor eines Punktes, so erhält man als Resultat wiederum einen Ortsvektor mit gleicher Richtung; dessen Länge beträgt allerdings das \lambda-fache des ursprünglichen Ortsvektors.

Beispiele:

  • Wird eine Skalierungsmatrix \underline{A}_{\mathrm{\,Ska}} mit \lambda = 1 mit einem Vektor multipliziert, so bleibt dieser unverändert. Dies soll am Beispiel des Punktes \mathrm{P} = (3;\, 2) beziehungsweise des zugehörigen Ortsvektors \vec{p} =
\overrightarrow{\mathrm{0P}} gezeigt werden:

    \underline{A}_{\mathrm{\,Ska}} \cdot \vec{p} = \begin{pmatrix}
    1 & 0 \\ 0 & 1
\end{pmatrix} \cdot \begin{pmatrix}
    3 \\ 2
\end{pmatrix} = \begin{pmatrix}
    1 \cdot 3 + 0 \cdot 2 \\
    0 \cdot 3 + 1 \cdot 2
\end{pmatrix} = \begin{pmatrix}
    3 \\ 2
\end{pmatrix} = \vec{p}{\color{white}\cdot 3 \cdot 3}

    Der Vektor \vec{p} wird somit durch die Einheits-Matrix nicht verändert.

  • Wird eine Skalierungsmatrix \underline{A}_{\mathrm{\,Ska}} mit \lambda = 2,5 mit einem Vektor multipliziert, so wird dieser um den Faktor 2,5 gestreckt. Dies soll am Beispiel eines Rechtecks gezeigt werden, dessen Eckpunkte folgende Koordinaten haben:

    \mathrm{A} = \begin{pmatrix}
    -2;\, -1
\end{pmatrix} \quad \mathrm{B} = \begin{pmatrix}
    \phantom{+}2;\, -1
\end{pmatrix} \quad \mathrm{C} = \begin{pmatrix}
    \phantom{+}2;\, +1
\end{pmatrix} \quad \mathrm{D} = \begin{pmatrix}
    -2;\, +1
\end{pmatrix}

    Man kann sich die Wirkungsweise der Matrix beispielhaft anhand des Ortsvektors \vec{c} = (2;\, 1) des Punktes \mathrm{C} veranschaulichen:

    \underline{A}_{\mathrm{\,Ska}} \cdot \vec{c} = \begin{pmatrix}
    2,5 & 0 \\ 0 & 2,5
\end{pmatrix} \cdot \begin{pmatrix}
    2 \\ 1
\end{pmatrix} = \begin{pmatrix}
    2,5 \cdot 2 + \phantom{2,}0 \cdot 1 \\
    \phantom{2\,\,.}0 \cdot 2 + 2,5 \cdot 1
\end{pmatrix} = \begin{pmatrix}
    2,5 \cdot 2 \\ 2,5 \cdot 1
\end{pmatrix} = 2,5 \cdot \vec{c}

    Die Koordinaten-Berechnung der übrigen neuen Punkte erfolgt nach dem gleichen Schema: Man erhält für jeden der Punkte einen Ortsvektor, der um einen Faktor 2,5 gestreckt ist.

fig-skalierungsmatrix

Wirkungsweise einer Skalierungsmatrix.

Gilt für die Skalierungsgröße 0 \lambda < 1, so wird der Vektor beziehungsweise ein aus vielerlei Vektoren bestehendes geometrisches Objekt durch die Matrix originalgetreu verkleinert (gestaucht). Beispielsweise würde im obigen Beispiel ein Skalierungsfaktor von \lambda = \frac{1}{3} eine Umkehrung der Skalierung mit dem Faktor 3 zur Folge haben.

Gilt für die Skalierungsgröße \lambda < 0, so wird jeder Ortsvektor, auf den die Matrix angewendet wird, nicht nur um den Faktor |\lambda| skaliert, sondern es wird zusätzlich sein Vorzeichen vertauscht. Hierdurch wird die Richtung des Ortsvektors umgedreht: Beispielsweise zeigt ein Vektor, der ursprünglich nach rechts oben gezeigt hat, nach einer Skalierung mit einem negativen Skalierungsfaktor nach links unten. der Ortsvektor beziehungsweise das geometrische Objekt erfährt dadurch eine zentrische Streckung am Koordinaten-Ursprung.

Beispiel:

  • Wird eine Skalierungsmatrix \underline{A}_{\mathrm{\,Ska}} mit \lambda = -1,5 mit einem Ortsvektor multipliziert, so wird dieser um den Faktor 1,5 gestreckt und um \unit[180]{\degree} um den Koordinatenursprung gedreht. Dies soll am Beispiel eines Rechtecks gezeigt werden, dessen Eckpunkte folgende Koordinaten haben:

    \mathrm{A} = \begin{pmatrix}
    \; 0;\, 0 \,\phantom{.}
\end{pmatrix} \quad \mathrm{B} = \begin{pmatrix}
    \; 3;\, \phantom{+}0 \,\phantom{.}
\end{pmatrix} \quad \mathrm{C} = \begin{pmatrix}
    \; 3;\, +2 \,\phantom{.}
\end{pmatrix} \quad \mathrm{D} = \begin{pmatrix}
    \; 0;\, +2 \,\phantom{.}
\end{pmatrix}

    Man kann sich die Wirkungsweise der Matrix wiederum beispielhaft anhand des Ortsvektors \vec{c} = (3;\, 2) des Punktes \mathrm{C} veranschaulichen:

    \underline{A}_{\mathrm{\,Ska}} \cdot \vec{c} = \begin{pmatrix}
    -1,5 & 0 \\ 0 & -1,5
\end{pmatrix} \cdot \begin{pmatrix}
    3 \\ 2
\end{pmatrix} = \begin{pmatrix}
    -1,5 \cdot 3           + \phantom{1,.}0 \cdot 2 \\
    \phantom{-2,}0 \cdot 3 - \phantom{.}1,5 \cdot 2
\end{pmatrix} = \begin{pmatrix}
    -1,5 \cdot 3 \\ -1,5 \cdot 2
\end{pmatrix} = -1,5 \cdot \vec{c}

    Die Koordinaten-Berechnung der übrigen neuen Punkte erfolgt wiederum nach dem gleichen Schema; man erhält somit ein um den Faktor 1,5 skaliertes Objekt im gegenüber liegenden Quadranten.

fig-skalierungsmatrix-negativ

Wirkungsweise einer Skalierungsmatrix mit negativem Skalierungsfaktor.

Spiegelungsmatrizen:

Soll ein (Orts-)Vektor an der x- oder an der y-Achse eines zweidimensionalen Koordinatensystems gespiegelt werden, so ist dies mittels der folgenden Matrizen möglich:

(12)\text{Spiegelung an der $x$-Achse:} \quad \underline{A}_{\mathrm{\,Spi}} =
\begin{pmatrix}
\phantom{+}1 & \phantom{+}0 \;\phantom{.}\\
\phantom{+}0 &          - 1 \;\phantom{.}
\end{pmatrix} \\[12pt]
\text{Spiegelung an der $y$-Achse:} \quad \underline{A}_{\mathrm{\,Spi}}  =
\begin{pmatrix}
-1 & \phantom{+}0 \; \phantom{.}\\
\phantom{+}0 & \phantom{+}1 \;\phantom{.}
\end{pmatrix} \\[8pt]

Diese beiden Spiegelungsmatrizen ähneln einer Skalierungsmatrix mit der Skalierungsgröße 1; auch sie lassen die Länge eines Vektors beziehungsweise die Größe eines durch mehrere (Orts-)Vektoren festgelegten Objekts unverändert. Der Unterschied zur reinen Skalierung liegt also in dem nun auftretenden Minus-Zeichen.

Beispiel:

  • Das Rechteck mit den folgenden Eckpunkten soll an der x-Achse gespiegelt werden:

    \mathrm{A} = \begin{pmatrix}
    \; 1;\, 1 \,\phantom{.}
\end{pmatrix} \quad \mathrm{B} = \begin{pmatrix}
    \; 3;\, \phantom{+}1 \,\phantom{.}
\end{pmatrix} \quad \mathrm{C} = \begin{pmatrix}
    \; 3;\, +2 \,\phantom{.}
\end{pmatrix} \quad \mathrm{D} = \begin{pmatrix}
    \; 1;\, +2 \,\phantom{.}
\end{pmatrix}

    Wendet man die obige Spiegelungsmatrix beispielsweise auf den Ortsvektor \vec{a} des Punktes \mathrm{A} an, so erhält man:

    \underline{A}_{\mathrm{\,Spi}} \cdot \vec{a} = \begin{pmatrix}
    \phantom{+}1 & \phantom{+}0 \; \phantom{.} \\
    \phantom{+}0 & -1 \; \phantom{.}
\end{pmatrix} \cdot \begin{pmatrix}
    \phantom{+}1 \;\phantom{.} \\ -1\;\phantom{.}
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}1 \cdot 1 + \phantom{(-}0 \phantom{)} \cdot 1 \\
    \phantom{-}0 \cdot 1 + (-1) \cdot 1
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}1\,\phantom{.} \\ -1\,\phantom{.}
\end{pmatrix}

    Die Matrix lässt also die x-Komponente des Vektors, mit dem sie multipliziert wird, unverändert; die y-Komponente des Vektors hingegen erhält ein umgekehrtes Vorzeichen.

fig-spiegelungsmatrix

Wirkungsweise einer Spiegelungsmatrix

Die Spiegelung an der y-Achse erfolgt nach dem gleichen Prinzip; die entsprechende Matrix lässt hierbei allerdings die y-Komponente des Vektors unverändert, während die x-Komponente ein umgekehrtes Vorzeichen erhält.

Wendet man die gleiche Spiegelungsmatrix zweimal hintereinander auf einen Vektor beziehungsweise ein geometrisches Objekt an, so stimmt das Resultat mit dem ursprünglichen Objekt überein. Nimmt man hingegen zuerst eine Spiegelung an der x- und anschließend eine Spiegelung an der y-Achse vor, so erhält man eine Punktspiegelung des ursprünglichen Objekts um den Koordinatenursprung.

fig-spiegelungsmatrix-doppelt

Zweifache Spiegelung eines Objekts an der x- und an der y-Achse.

Eine Punktspiegelung ist formal mit einer Skalierung des Objekts mit dem Faktor \lambda = -1 identisch. Dies lässt sich unter anderem mittels des Assoziativ-Gesetzes der Matrix-Multiplikation zeigen:

\underline{A}_{\mathrm{\,Spi,y}} \cdot
\left(\underline{A}_{\mathrm{\,Spi,x}} \cdot \vec{a}\right) &=
\left(\underline{A}_{\mathrm{\,Spi,y}} \cdot \underline{A}_{\mathrm{\,Spi,x}}\right) \cdot \vec{a}  \\[4pt]
&= \underbrace{\left[\begin{pmatrix}
    \phantom{-}1 & \phantom{+}0 \,\phantom{.} \\
    \phantom{+}0 & -1\,\phantom{.}
\end{pmatrix} \cdot \begin{pmatrix}
    -1 & \phantom{+}0 \,\phantom{.} \\
    \phantom{+}0 & \phantom{-}1\,\phantom{.}
\end{pmatrix} \right]}_{} \cdot \vec{a} \\[4pt]
&= \qquad \quad \;\, \begin{pmatrix}
    -1 & \phantom{+}0 \,\phantom{.} \\
    \phantom{+}0 & -1 \,\phantom{.} \\
\end{pmatrix} \qquad \quad \;\, \cdot \vec{a} \qquad \checkmark

Projektionsmatrizen

Mittels einer Projektionsmatrix lässt sich ein Vektor, wie der Name schon sagt, auf die x- beziehungsweise y-Achse “projezieren”. Anschaulich kann man sich eine solche Projektion als “Schatten” des Vektors vorstellen, der sich bei einer Beleuchtung des Vektors senkrecht zur jeweiligen Achse ergeben würde. Um einen (Orts-)Vektor auf die x- beziehungsweise y-Achse abzubilden, kann jeweils folgende Matrix genutzt werden:

(13)\text{Projektion auf die $x$-Achse:} \quad \underline{A}_{\mathrm{\,Pro}} = \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}0 \;\phantom{.} \\
    \phantom{+} 0 & \phantom{+}0 \;\phantom{.} \\
\end{pmatrix} \\[12pt]
\text{Projektion auf die $y$-Achse:} \quad \underline{A}_{\mathrm{\,Pro}} = \begin{pmatrix}
    \phantom{+} 0 & \phantom{+}0 \;\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \;\phantom{.} \\
\end{pmatrix}

Beispiel:

  • Der Vektor \vec{v}, der die Punkte \mathrm{A} = (1;\, 2) und \mathrm{B} = (4;\, 3) miteinander verbindet, soll auf die x-Achse projeziert werden.

    Für die senkrechten Projektionen der Punkte \mathrm{A} und \mathrm{B} ergibt sich durch Anwenden der entsprechenden Projektionsmatrix auf die zugehörigen Ortsvektoren:

    \mathrm{A_x} = \underline{A}_{\mathrm{\,Pro}} \cdot \overrightarrow{\mathrm{0A}} =
\begin{pmatrix}
    \,\phantom{.} 1 & 0 \,\phantom{.} \\
    \,\phantom{.} 0 & 0 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    \,\phantom{.}  1 \,\phantom{.} \\
    \,\phantom{.}  2 \,\phantom{.} \\
\end{pmatrix} = \begin{pmatrix}
    1 \\ 0
\end{pmatrix} \\[12pt]
\mathrm{B_x} = \underline{A}_{\mathrm{\,Pro}} \cdot \overrightarrow{\mathrm{0B}} =
\begin{pmatrix}
    \,\phantom{.} 1 & 0 \,\phantom{.} \\
    \,\phantom{.}  0 & 0 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    \,\phantom{.}  4 \,\phantom{.} \\
    \,\phantom{.}  3 \,\phantom{.} \\
\end{pmatrix} = \begin{pmatrix}
    4 \\ 0
\end{pmatrix}

    Den projezierten Vektor \vec{v}_{\mathrm{x}} zum Vektor \vec{v}
= \overline{\mathrm{0B}} - \overline{\mathrm{0A}} erhält man entweder, indem man die Differenz der Ortsvektoren von \mathrm{B_x} und \mathrm{A_x} bildet, oder auch indem man die entsprechende Projektionsmatrix auf den Vektor \vec{v} anwendet:

    \underline{A}_{\mathrm{\,Pro}} \cdot \vec{v} = \begin{pmatrix}
    \,\phantom{.} 1 & 0 \,\phantom{.} \\
    \,\phantom{.}  0 & 0 \,\phantom{.} \\
\end{pmatrix} \cdot \left[ \begin{pmatrix}
    \,\phantom{.}  4 \,\phantom{.} \\
    \,\phantom{.}  3 \,\phantom{.} \\
\end{pmatrix} - \begin{pmatrix}
    \,\phantom{.}  1 \,\phantom{.} \\
    \,\phantom{.}  2 \,\phantom{.} \\
\end{pmatrix} \right] = \begin{pmatrix}
    \,\phantom{.} 1 & 0 \,\phantom{.} \\
    \,\phantom{.}  0 & 0 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    \,\phantom{.}  3 \,\phantom{.} \\
    \,\phantom{.}  1 \,\phantom{.} \\
\end{pmatrix} = \begin{pmatrix}
    3 \\ 0
\end{pmatrix}

    Der “Schatten” des Vektor \vec{v} lässt sich somit rechnerisch mittels des Ausdrucks \overrightarrow{\mathrm{0A_x}} + \lambda \cdot
\vec{v}_{\mathrm{x}} mit 0 \le \lambda \le 1 beschreiben.[2]

fig-projektionsmatrix

Wirkungsweise einer Projektionsmatrix.

Drehmatrizen

Soll ein Vektor um einen Winkel \varphi in positiver Winkelrichtung (also gegen den Uhrzeigersinn) um den Koordinatenursprung gedreht werden, so ist dies mittels der folgenden Drehmatrix möglich:

(14)\underline{A}_{\mathrm{\,Dr}} = \begin{pmatrix}
    \phantom{+}\cos{\left(\varphi\right)} & - \sin{\left(\varphi\right)}
    \,\phantom{.}\\
    \phantom{+}\sin{\left(\varphi\right)} &
    \phantom{+}\cos{\left(\varphi\right)} \,\phantom{.}\\
\end{pmatrix}

Die Wirkungsweise dieser Matrix kann man sich gut anhand einiger Sonderfälle veranschaulichen:

  • Ist der Drehwinkel \varphi = \unit[0]{\degree}, so ist \cos{\left(\varphi\right)} = 1 und \sin{\left(\varphi\right)} =
0. Die Drehmatrix nimmt in diesem Fall folgende Form an:

    \underline{A}_{\mathrm{\,Dr,\varphi=\unit[0]{\!\degree}}} = \begin{pmatrix}
    \phantom{+}1 & \phantom{+}0 \,\phantom{.}
    \\ \phantom{+}0 & \phantom{+}1 \,\phantom{.}
\end{pmatrix}

    Diese Matrix entspricht der Einheits-Matrix, die jeden Vektor unverändert lässt; eine Drehung um \unit[0]{\degree} hat somit keine Auswirkung auf geometrische Objekte.

  • Ist der Drehwinkel \varphi = \unit[180]{\degree}, so ist \cos{\left(\varphi\right)} = -1 und \sin{\left(\varphi\right)}
= 0. Die Drehmatrix nimmt in diesem Fall folgende Form an:

    \underline{A}_{\mathrm{\,Dr,\varphi=\unit[0]{\!\degree}}} = \begin{pmatrix}
    -1 & \phantom{+}0 \,\phantom{.}\\ \phantom{+}0 & -1\,\phantom{.}
\end{pmatrix}

    Diese Matrix entspricht einer Skalierungsmatrix mit dem Faktor \lambda
= -1; diese bewirkt, wie bereits beschrieben, eine Punktspiegelung eines geometrischen Objekts um den Koordinaten-Ursprung und somit eine Drehung um \unit[180]{\degree}.

  • Ist der Drehwinkel \varphi = \unit[45]{\degree}, so ist \cos{\left(\varphi\right)} = \sin{\left(\varphi\right)} = \frac{1}{2}
\cdot \sqrt{2} \approx 0,707. Die Drehmatrix nimmt in diesem Fall folgende Form an:

    \underline{A}_{\mathrm{\,Dr,\varphi=\unit[45]{\!\degree}}} =
\frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    \phantom{-}1 & -1 \,\phantom{.} \\ \phantom{-}1 & \phantom{-}1 \,\phantom{.}
\end{pmatrix}

    Der Faktor \frac{\sqrt{2}}{2}, der in diesem Fall bei allen Komponenten der Matrix auftritt, bewirkt eine Skalierung des geometrischen Objekts; ansonsten besteht der Unterschied zu den bisherigen Matrizen darin, dass nun alle Elemente der Matrix von Null verschieden sind.

    Die Wirkungsweise der obigen Matrix soll anhand einer Drehung der beiden Punkte \mathrm{A} = (3;\, 0) und \mathrm{B} = (0;\, 3) beziehungsweise der zugehörigen Ortsvektoren \vec{a} und \vec{b} um \varphi = \unit[45]{\degree} veranschaulicht werden. Man erhält in diesem Fall für die Koordinaten des neuen Punktes \mathrm{A}_{\mathrm{neu}}:

    \underline{A}_{\mathrm{\,Dr,\varphi=\unit[45]{\!\degree}}} \cdot \vec{a} =
\frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    \phantom{+}1 & -1 \,\phantom{.} \\ \phantom{+}1 & \phantom{-}1 \,\phantom{.}
\end{pmatrix} \cdot \begin{pmatrix}
    3 \\ 0
\end{pmatrix} = \frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    \phantom{-}3 \\ \phantom{-}3
\end{pmatrix} \\[12pt]
\underline{A}_{\mathrm{\,Dr,\varphi=\unit[45]{\!\degree}}} \cdot \vec{b} =
\frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    \phantom{+}1 & -1 \,\phantom{.} \\ \phantom{+}1 & \phantom{-}1 \,\phantom{.}
\end{pmatrix} \cdot \begin{pmatrix}
    0 \\ 3
\end{pmatrix} = \frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    -3 \\ \phantom{-}3
\end{pmatrix} \\[12pt]

    fig-drehmatrix

    Wirkungsweise einer Drehmatrix.

    Die neuen Punkte haben somit gerundet die Koordinaten \mathrm{A}_{\mathrm{neu}} = (2,121;\, 2,121) und \mathrm{B}_{\mathrm{neu}} = (-2,121;\, 2,121).
    Berechnet man die Länge der neuen Ortsvektoren, so stellt man fest, dass sich diese durch die Anwendung der Drehmatrix nicht geändert haben:

    \left| \vec{a}_{\mathrm{neu}} \right| = \sqrt{\left( \frac{3\cdot \sqrt{2}}{2}
\right)^2 + \left(\phantom{-} \frac{3\cdot \sqrt{2}}{2} \right)^2 } = \sqrt{\frac{9\cdot 2}{4} +
\frac{9\cdot 2}{4}} = \sqrt{9} = 3 \quad \checkmark \\[4pt]
\left| \vec{b}_{\mathrm{neu}} \right| = \sqrt{\left( \frac{3\cdot \sqrt{2}}{2}
\right)^2 + \left(- \frac{3\cdot \sqrt{2}}{2} \right)^2 } = \sqrt{\frac{9 \cdot 2}{4} +
\frac{9\cdot 2}{4}} = \sqrt{9} = 3 \quad \checkmark \\[4pt]

    Drehmatrizen bilden geometrische Objekte also längentreu ab. zudem bleibt auch der Winkel zwischen den beiden Ortsvektoren identisch, wie man durch Bildung des Skalarprodukts der beiden neuen Vektoren zeigen kann:

    \vec{a}_{\mathrm{neu}} \cdot \vec{b}_{\mathrm{neu}} = \frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    3 \\ 3
\end{pmatrix} \cdot \frac{\sqrt{2}}{2} \cdot \begin{pmatrix}
    3 \\3
\end{pmatrix} =
\frac{\sqrt{2}}{4}
\cdot \big( 3 \cdot (-3)  + 3 \cdot 3\big) = 0

    Da die Ortsvektoren einen von Null verschiedenen Betrag haben und für das Skalarprodukt \vec{a}_{\mathrm{neu}} \cdot \vec{b}_{\mathrm{neu}} =
|\vec{a}_{\mathrm{neu}}| \cdot |\vec{b}_{\mathrm{neu}} | \cdot
\cos{\left(\varphi_{\mathrm{neu}}\right)} gilt, muss in diesem Fall \cos{\left(\varphi_{\mathrm{neu}}\right)} =0 sein, damit die rechte Seite der Gleichung ebenfalls den Wert Null liefert; folglich ist auch der Winkel \varphi_{\mathrm{neu}} zwischen den neuen Vektoren gleich \unit[90]{\degree}.

Bei Drehungen um beliebige Winkel erhält man für die neuen Ortsvektoren meist Werte, die sich nur auf einige Nachkomma-Stellen gerundet angeben lassen; allerdings lässt sich bereits bei vier Nachkomma-Stellen eine für die meisten Zwecke ausreichende Genauigkeit erzielen. In jedem Fall bleiben die gedrehten Objekte längen- und winkeltreu.[3]

Scherungsmatrizen

Eine Scherungsmatrix bewirkt eine Verformung eines geometrischen Objekts. Allgemein hat eine zweidimensionale Scherungsmatrix folgende Form:

(15)A_{\mathrm{\,Sche}} = \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}\lambda \,\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \,\phantom{.} \\
\end{pmatrix}

Die Wirkungsweise einer Scherungsmatrix soll im folgenden anhand des Beispiels \lambda = 1 verdeutlicht werden.

Beispiel:

  • Wie verändert eine Scherungsmatrix mit \lambda=1 ein Quadrat, das durch folgende Punkte begrenzt wird?

    \mathrm{A} = \begin{pmatrix}
    -2;\, -2 \,\phantom{.}
\end{pmatrix} \quad \mathrm{B} = \begin{pmatrix}
    \phantom{+}2;\, -2 \,\phantom{.}
\end{pmatrix} \quad \mathrm{C} = \begin{pmatrix}
    \phantom{+}2;\, \phantom{+}2 \,\phantom{.}
\end{pmatrix} \quad \mathrm{D} = \begin{pmatrix}
    -2;\, \phantom{+}2 \,\phantom{.}
\end{pmatrix}

    Um die Punkte des neuen Vierecks zu erhalten, kann man die Scherungsmatrix auf die Ortsvektoren der einzelnen Eckpunkte anwenden:

    A_{\mathrm{\,Sche}} \cdot \vec{a} &= \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}1 \,\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    -2 \,\phantom{.}\\ -2 \,\phantom{.}
\end{pmatrix} = \begin{pmatrix}
    -2 - 2 \\ \phantom{+}0-2
\end{pmatrix} = \begin{pmatrix}
    -4 \\ -2
\end{pmatrix} \\[4pt]
  A_{\mathrm{\,Sche}} \cdot \vec{b} &= \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}1 \,\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    \phantom{+}2 \,\phantom{.}\\ -2 \,\phantom{.}
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}2 - 2 \\ \phantom{+}0-2
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}0 \\ -2
\end{pmatrix} \\[4pt]
  A_{\mathrm{\,Sche}} \cdot \vec{c} &= \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}1 \,\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    \phantom{+}2 \,\phantom{.}\\ \phantom{+}2 \,\phantom{.}
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}2 + 2 \\ \phantom{+}0+2
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}4 \\ \phantom{+}2
\end{pmatrix} \\[4pt]
  A_{\mathrm{\,Sche}} \cdot \vec{d} &= \begin{pmatrix}
    \phantom{+} 1 & \phantom{+}1 \,\phantom{.} \\
    \phantom{+} 0 & \phantom{+}1 \,\phantom{.} \\
\end{pmatrix} \cdot \begin{pmatrix}
    -2 \,\phantom{.}\\ \phantom{+}2 \,\phantom{.}
\end{pmatrix} = \begin{pmatrix}
    -2 + 2 \\ \phantom{+}0+2
\end{pmatrix} = \begin{pmatrix}
    \phantom{+}0 \\ \phantom{+}2
\end{pmatrix} \\[4pt]

fig-scherungsmatrix

Wirkungsweise einer Scherungsmatrix.

Durch die Anwendung der Scherungsmatrix wird ein geometrisches Objekt also “verzerrt”. Der Flächeninhalt des Objekts, im obigen Beispiel eines Quadrats, bleibt bei der Scherung zwar gleich, jedoch ändern sich die Winkel zwischen den einzelnen Seiten.

Matrizengleichungen

Matrizen können auch zur Lösung von linearen Gleichungssystemen genutzt werden. Bei Verwendung von Matrizen können diese sehr kompakt dargestellt werden. Beispielsweise hat ein lineares Gleichungssystem mit drei Unbekannten folgende Form:

a_{\mathrm{11}} \cdot x_1 + a_{\mathrm{12}} \cdot x_2 + a_{\mathrm{13}}
\cdot x_3 &= b_1 \\
a_{\mathrm{21}} \cdot x_1 + a_{\mathrm{22}} \cdot x_2 + a_{\mathrm{23}}
\cdot x_3 &= b_2 \\
a_{\mathrm{31}} \cdot x_1 + a_{\mathrm{32}} \cdot x_2 + a_{\mathrm{33}}
\cdot x_3 &= b_3 \\

In Matrizenschreibweise kann dies folgendermaßen geschrieben werden:

(16)\underline{A}_{(3;3)} \cdot \vec{x} = \vec{b}

Gesucht sind bei dieser “Matrizengleichung” wiederum die Komponenten x_1, x_2 und x_3 des Vektors \vec{x}. Man kann allerdings, um die Gleichung zu lösen, nicht einfach durch \underline{A} dividieren, da die Division durch eine Matrix nicht definiert ist. Die Lösung besteht vielmehr darin, eine so genannte “inverse” Matrix \underline{A}
^{-1} zu finden, die bei Multiplikation mit der Matrix \underline{A} eine Einheitsmatrix ergibt.[4]

(17)\underline{A} \cdot \underline{A}^{-1} = \underline{A}^{-1} \cdot
\underline{A} = \underline{E}

Hat man eine solche inverse Matrix A ^{-1} zur Matrix \underline{A} gefunden, kann man beide Seiten der obigen Gleichung (16) damit multiplizieren:

\underline{A} ^{-1} \cdot \underline{A} \cdot \vec{x} = \underline{A}^{-1} \cdot \vec{b}

Mit \underline{A}^{-1} \cdot \underline{A} = \underline{E} folgt damit:

\underline{E} \cdot \vec{x} = \underline{A} ^{-1} \cdot \vec{b}

Da die Einheitsmatrix das neutrale Element bezüglich der Multiplikation ist, also \underline{E} \cdot \vec{x} = \vec{x} gilt, folgt somit als Lösung für \vec{x}:

(18)\vec{x} = \underline{A}^{-1} \cdot \vec{b}

Die eigentliche Aufgabe für die Lösung einer Matrizengleichung besteht nun also darin, zu einer Matrix \underline{A} die inverse Matrix \underline{A}^{-1} zu finden. Hierzu muss folgende Gleichung gelöst werden:

\begin{array}{c|c}
\underline{A} \cdot \underline{A}^{-1}  &
\begin{pmatrix}
    \hat{a}_{11} & \hat{a}_{12} & \ldots & \hat{a}_{1n} \\
    \hat{a}_{21} & \hat{a}_{22} & \ldots & \hat{a}_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    \hat{a}_{n1} & \hat{a}_{n2} & \ldots & \hat{a}_{nn} \\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{n1} & a_{n2} & \ldots & a_{nn} \\
\end{pmatrix} &
\begin{pmatrix}
    \;\; 1 \;\; & \;\;0\;\; & \ldots & \;0\;\; \\
    0 & 1 & \ldots & 0\\
    \vdots & \vdots & \ddots & \vdots \\
    0 & 0 & \ldots & 1\\
\end{pmatrix}
\end{array}

Alle \hat{a} _{\mathrm{ij}} mit i,j = 1,\ldots,n sind Unbekannte; es muss also ein Gleichungssystem mit n^2 Unbekannten und n^2 Gleichungen zur Bestimmung der inversen Matrix gelöst werden.

... to be continued ...


Anmerkungen:

[1]Bisweilen werden beim Falk-Schema, um eine einfachere Textsatzung zu ermöglichen, entweder die Klammern der Matrizen oder die beiden zueinander senkrechten Tabellenlinien weggelassen.
[2]

Ist der Zahlenwert der Projektionsmatrix ungleich Eins, so wird der Schatten skaliert und die Projektion entsprechend schräg.

Soll ein dreidimensionaler Vektor auf eine Ebene projeziert werden, so kann dies ebenfalls mittels einer Projektionsmatrix erfolgen. Um beispielsweise einen Vektor \vec{v} auf die xy-Ebene zu projezieren, kann folgende Matrix auf den Vektor angewendet werden:

\underline{A}_{\mathrm{\,Pro}} \cdot \vec{v} = \begin{pmatrix}
    1 & 0 & 0 \\
    0 & 1 & 0 \\
    0 & 0 & 0
\end{pmatrix} \cdot \begin{pmatrix}
    v_{\mathrm{x}} \\
    v_{\mathrm{y}} \\
    v_{\mathrm{z}}
\end{pmatrix} = v_{\mathrm{x}} + v_{\mathrm{y}}

[3]

Soll die Drehung in die entgegengesetzte Richtung, also mit dem Uhrzeigersinn erfolgen, so muss das Minus-Zeichen vor die andere Sinus-Komponente der Drehmatrix gesetzt werden:

\underline{A}_{\mathrm{\,Dr,\circlearrowleft}} = \begin{pmatrix}
\phantom{+}\cos{\left(\varphi\right)} & - \sin{\left(\varphi\right)}
\,\phantom{.}\\
\phantom{+}\sin{\left(\varphi\right)} &
\phantom{+}\cos{\left(\varphi\right)} \,\phantom{.}\\
\end{pmatrix} \qquad ; \qquad
\underline{A}_{\mathrm{\,Dr,\circlearrowright}} = \begin{pmatrix}
\phantom{+}\cos{\left(\varphi\right)} & \phantom{+}\sin{\left(\varphi\right)}
\,\phantom{.}\\
-\sin{\left(\varphi\right)} &
\phantom{+}\cos{\left(\varphi\right)} \,\phantom{.}\\
\end{pmatrix} \qquad \qquad

[4]Die Schreibweise \underline{A}^{-1} soll auf die Ähnlichkeit zur Schreibweise a^{-1} = \frac{1}{a} für reelle Zahlen hinweisen, für die ebenfalls a^{-1} \cdot a = 1 gilt. Es kann allerdings nicht \underline{A}^{-1} = \frac{1}{\underline{A}} sein, da eine Division durch eine Matrix nicht definiert ist.