Matrizen

Bei einer Matrix handelt es sich, ebenso wie bei einer Determinante, um eine rechteckige Anordnungen mehrerer Zahlen. Hat eine Matrix m Zeilen und n Spalten, so sagt man, die Matrix sei vom Typ (m;n). Eine solche Matrix hat allgemein folgende Gestalt:

\underline{A}_{\;(m;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1n}\\ a_{21} &
a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\ a_{m1} & a_{m2} &
\cdots & a_{mn}\\ \end{pmatrix}

In der Literatur werden Matrizen häufig auch durch fettgedruckte Großbuchstaben bezeichnet, in der Praxis werden die Großbuchstaben hingegen üblicherweise unterstrichen. Die in einer Matrix \underline{A} stehenden Zahlen werden allgemein Elemente oder Komponenten a_{\mathrm{ij}} der Matrix genannt, wobei i den Zeilenindex (eine Zahl zwischen 1 und n) und j den Spaltenindex (eine Zahl zwischen 1 und n) bezeichnet. Schreibt man (a_{\mathrm{ij}}) in runden Klammern, so ist damit die Gesamtheit aller Komponenten, also wiederum die ganze Matrix gemeint.

Spezielle Matrizen

Matrizen können sowohl hinsichtlich der Zahlenwerte ihrer Komponenten als auch hinsichtlich ihrer Form Besonderheiten aufweisen: Beispielsweise werden Matrizen, die ausschließlich Nullen als Werte enthalten, Nullmatrizen genannt. Andererseits können auch gewöhnliche Vektoren als spezielle Matrizen mit einer Spaltenzahl von n=1 aufgefasst werden:

\vec{a} := \underline{A}_{\;(m;\,1)} = \begin{pmatrix}
    a_1 \\ a_2 \\ \vdots \\ a_{\mathrm{m}}
\end{pmatrix}

Matrizen, die hingegen nur eine Zeilenzahl von m=1 haben, werden entsprechend Zeilenvektoren genannt:

{\color{white}\vec{a}:=\quad}\underline{A}_{\;(1;\,n)} = \begin{pmatrix} a_1 \;
\ldots \; a_{\mathrm{n}} \end{pmatrix}

Ein Zeilenvektor, der die gleichen Elemente hat wie ein Spaltenvektor \vec{a}, wird häufig auch mit \vec{a}^{\;\mathrm{T}} bezeichnet. Das hochgestellte \mathrm{T} bedeutet dabei “transponiert”. Allgemein kann zu jeder Matrix \underline{A} eine transponierte Matrix \underline{A}^{\mathrm{T}} gebildet werden, indem man die Zeilen und Spalten der Matrix vertauscht:

\underline{A}_{\;(m;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots\; \cdots\; \cdots & a_{1n}\\ a_{21} &
a_{22} & \cdots\; \cdots \; \cdots & a_{2n}\\ \vdots  & \vdots & & \vdots \\ a_{m1} & a_{m2} &
\cdots\; \cdots \; \cdots & a_{mn}\\ \end{pmatrix}
\quad \Longleftrightarrow \quad
\underline{A}^{\mathrm{T}}_{\;(n;\,m)} = \begin{pmatrix} a_{11} & a_{12} & \cdots & a_{1m}\\ a_{21} &
a_{22} & \cdots & a_{2m}\\ \vdots & \vdots & & \vdots \\ \vdots & \vdots \\ \vdots & \vdots & &
\vdots \\ a_{n1} & a_{n2} & \cdots & a_{nm}\\
\end{pmatrix}

Beim Transponieren einer Matrix bleiben also nur diejenigen Komponenten unverändert, die auf der von links oben nach rechts unten verlaufenden “Hauptdiagonalen” liegen; alle anderen Einträge werden an dieser Diagonalen gespiegelt. Bleibt eine Matriz beim Transponieren unverändert, so nennt man sie symmetrisch.

Eine weitere Sonderstellung haben quadratische Matrizen, für deren Zeilen- wie auch Spaltenanzahl m=n gilt. Für jede derartige Matrix \underline{A}_{\;(n;\,n)} lässt sich eine so genannte Diagonalmatrix \underline{D}_{\;(n;\,n)} angeben, bei der alle Komponenten, die nicht auf der Hauptdiagonalen liegen, gleich Null sind:

\underline{A}_{\;(n;\,n)} = \begin{pmatrix} a_{11} & a_{12} & \cdots &
a_{1n}\\ a_{21} & a_{22} & \cdots & a_{2n}\\ \vdots & \vdots & & \vdots\\
a_{n1} & a_{n2} & \cdots & a_{nn}\\ \end{pmatrix}
\quad \Longleftrightarrow \quad
\underline{D}_{\;(n;\,n)} = \begin{pmatrix} a_{11} & 0 & \cdots & 0\\ 0 &
a_{22} & \cdots & 0\\ \vdots & \vdots & & \vdots\\ 0 & 0 &
\cdots & a_{nn}\\ \end{pmatrix}

Eine Sonderform einer Diagonalmatrix ist eine so genannte Einheitsmatrix, bei der alle Elemente auf der Hauptdiagonalen den Wert 1 haben.

\underline{E}_{\;(n;\,n)} = \begin{pmatrix} 1 & 0 & \cdots & 0\\ 0 &
    1 & \cdots & 0\\ \vdots & \vdots & & \vdots\\ 0 & 0 &
    \cdots & 1 \\ \end{pmatrix}

Eine Gleichheit zweier Matrizen liegt nur dann vor, wenn beide die gleiche Form haben und die Werte aller ihrer Komponenten identisch sind. Es muss also gelten:

\underline{A}_{\;(m;\,n)} = \underline{B}_{\;(m;\,n)} \quad \Longleftrightarrow
\quad a_{ij} = b_{ij} \; \text{für alle $i,\,j$}

Rechenregeln für Matrizen

Für Matrizen lassen sich ebenso wie für Zahlen und Vektoren grundlegende Rechenregeln definieren.

Addition und Skalarmultiplikation

Haben zwei Matrizen die gleiche Form, so können sie addiert beziehungsweise subtrahiert werden, indem die jeweils an gleicher Stelle stehenden Komponenten addiert beziehungsweise subtrahiert werden:

\underline{A}_{\;(m;\,n)} + \underline{B}_{\;(m;\,n)} = (a_{ij} +
b_{ij})_{\;(m;\,n)} \; \text{für alle $i,\,j$}

Das Resultat einer Addition beziehungsweise Subtraktion ist wiederum eine Matrix, welche die gleiche Form hat wie die beiden ursprünglichen Matrizen. Da die Addition beziehungsweise Subtraktion komponentenweise nach den gleichen Rechenregeln wie mit gewöhnlichen Zahlen erfolgt, gilt auch für die Addition beziehungsweise Subtraktion das Kommutativ- und Assoziativgesetz :

(1)\underline{A} + \underline{B} = \underline{B} + \underline{A}

(2)(\underline{A} + \underline{B}) + \underline{C} = \underline{A} +
(\underline{B} + \underline{C}) = \underline{A} + \underline{B} +
\underline{C}

Ebenso komponentenweise erfolgt die Multiplikation einer Matrix mit einer reellen Zahl (einem so genannten “Skalar”). Bei einer solchen Skalarmultiplikation wird jedes Element der Matrix \underline{A} mit dem Wert des Skalars c multipliziert.

c \cdot \underline{A}_{\;(m;\,n)} = (c \cdot a_{ij} )_{\;(m;\,n)} \; \text{für alle $i,\,j$}

Das Resultat einer ist wiederum eine Matrix, welche die gleiche Form hat wie die ursprüngliche Matrix. Auch für die Multiplikation einer Matrix mit einem Skalar gelten das Kommutativ-, Assoziativgesetz:

(3)c \cdot \underline{A} = \underline{A} \cdot c

(4)c_1 \cdot (c_2 \cdot \underline{A}) = (c_1 \cdot c_2) \cdot \underline{A} = c_1 \cdot c_2 \cdot \underline{A}

Zudem gilt das Distributivgesetz in gewohnter Form:

(5)(c_1 + c_2) \cdot \underline{A}) = c_1 \cdot \underline{A} + c_2 \cdot \underline{A} \\
c \cdot (\underline{A}) + \underline{B}) = c \cdot \underline{A} + c \cdot \underline{B} \\

Multiplikation zweier Matrizen

Zur Herleitung einer Rechenregel für die Multiplikation zweier Matrizen wird zunächst von der skalaren Multiplikation eines Zeilenvektors mit einem Spaltenvektor ausgegangen. Wie bei einem gewöhnlichen Skalarprodukt zweier Vektoren werden dabei die einzelnen Komponenten des Zeilen- und des Spaltenvektors miteinander multipliziert, und die sich dabei ergebenden Teilergebnisse schließlich summiert.

(6)\vec{a}^{\;\mathrm{T}}_{(1;\,n)} \cdot \vec{b}_{(n,1)} = (a_1,\, a_2,\,
\ldots,\, a_{\mathrm{n}}) \cdot \begin{pmatrix}
b_1 \\ b_2 \\ \vdots \\ b_{\mathrm{n}} \end{pmatrix} = a_1 \cdot b_1 + a_2
\cdot b_2 + \ldots + a_{\mathrm{n}} \cdot b_{\mathrm{n}} = \sum_{i=1}^{n}
a_{\mathrm{i}} \cdot b_{\mathrm{i}}

Damit eines solches Produkt möglich ist, muss der Zeilenvektor ebenso viele Komponenten haben wie der Spaltenvektor. Das Ergebnis des Produkts ist dann eine gewöhnliche Zahl (ein Skalar).

Beispiel:

  • Welches Ergebnis erhält man, wenn man den Zeilenvektor \vec{a}
^{\;\mathrm{T}} = (3,\, -5,\, 4) skalar mit dem Spaltenvektor \vec{b} =
\begin{pmatrix} -1 \\ \phantom{+}2 \\ \phantom{+}1 \end{pmatrix} multipliziert?

    \vec{a}^{\;\mathrm{T}}\cdot \vec{b} = (3,\, -5,\, 4) \cdot
\begin{pmatrix} -1 \\ \phantom{+}2 \\ \phantom{+}1 \end{pmatrix} = 3 \cdot
(-1) + (-5) \cdot 2 + 4 \cdot 1 = -9

    Das Produkt liefert somit den Wert \vec{a} ^{\;\mathrm{T}}\cdot \vec{b} = -9

Multipliziert man nun nicht nur einen Zeilenvektor mit n Komponenten, sondern eine n-spaltige Matrix mit einem Spaltenvektor der Länge n, so wird nach der obigen Regel (6) für jede Zeile der Matrix ein Skalarprodukt mit dem Spaltenvektor gebildet. Hat die Matrix m Zeilen, so erhält man folglich m einzelne Ergebnisse. Diese werden als Komponenten in einen neuen Spaltenvektor der Länge m geschrieben.

\begin{array}{c|c}
\underline{A} \cdot \vec{b}  &
\begin{pmatrix}
    \; b_1 \; \\
    b_2 \\
    \vdots \\
    b_{n} \\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{m1} & a_{m2} & \ldots & a_{mn} \\
\end{pmatrix} &
\begin{pmatrix}
    \sum_{i=1}^{n} a_{\mathrm{1i}} \cdot b_{\mathrm{i}} \\
    \sum_{i=1}^{n} a_{\mathrm{2i}} \cdot b_{\mathrm{i}} \\
    \vdots \\
    \sum_{i=1}^{n} a_{\mathrm{mi}} \cdot b_{\mathrm{i}} \\
\end{pmatrix}
\end{array}

Ein solches Produkt kann nur dann gebildet werden, wenn die Anzahl an Spalten der Matrix mit der Anzahl an Zeilen des Vektors übereinstimmt; andernfalls ist die Multiplikation nicht definiert.

Beim so genannten “Falk-Schema”, wie es in der obigen Abbildung dargestellt ist, werden die zu multiplizierenden Matrizen beziehungsweise Vektoren tabellenartig aufgelistet.[1] Die Auswertung erfolgt allgemein nach folgender Regel: Multipliziert man die i-te Zeile der linken Matrix mit der j-ten Spalter der rechten Matrix, so erhält man die Komponente der Ergebnis-Matrix, die dort in der i-ten Zeile und j-ten Spalte steht.

Das Falk-Schema kann also eomfac auf die Multiplikation zweier Matrizen ausgeweitet werden: Hierbei wird jeweils an der Stelle, wo sich eine Zeile der linken Matrix mit einer Spalte der rechten Matrix überkreuzt, das entsprechende Skalarprodukt eingetragen.

\begin{array}{c|c}
\underline{A} \cdot \underline{B}  &
\begin{pmatrix}
    \qquad\;  b_{11} \;\qquad  & \qquad\; b_{12} \;\qquad & \cdots &
    \qquad\; b_{\mathrm{1p}} \;\qquad \\[6pt]
    b_{21} & b_{22} & \cdots & b_{\mathrm{2p}} \\[6pt]
    \vdots & \vdots & \ddots & \vdots \\[6pt]
    b_{\mathrm{n1}} & b_{\mathrm{n2}} & \cdots & b_{\mathrm{np}} \\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{\mathrm{1n}} \\[6pt]
    a_{21} & a_{22} & \ldots & a_{\mathrm{2n}} \\[6pt]
    \vdots & \vdots & \ddots & \vdots \\[6pt]
    a_{\mathrm{m1}} & a_{\mathrm{m2}} & \ldots & a_{\mathrm{mn}} \\
\end{pmatrix} &
\begin{pmatrix}
    \sum_{i=1}^{n} a_{\mathrm{1i}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{1i}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n}
    a_{\mathrm{1i}} \cdot b_{\mathrm{pi}} \\[6pt]
    \sum_{i=1}^{n} a_{\mathrm{2i}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{2i}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n} a_{\mathrm{2i}}
    \cdot b_{\mathrm{pi}} \\[6pt]
    \vdots & \vdots & \ddots & \vdots \\[6pt]
    \sum_{i=1}^{n} a_{\mathrm{mi}} \cdot b_{\mathrm{1i}} & \sum_{i=1}^{n}
    a_{\mathrm{mi}} \cdot b_{\mathrm{2i}} & \cdots & \sum_{i=1}^{n}
    a_{\mathrm{mi}} \cdot b_{\mathrm{pi}} \\
\end{pmatrix}
\end{array}

Auch in diesem Fall ist das Produkt nur dann definiert, wenn die die Anzahl an Spalten der linken Matrix mit der Anzahl an Zeilen des Vektors übereinstimmt. Hat die linke Matrix die Form (m;\,n) und die rechte Matrix die Form (n;\,p), so erhält man als Ergebnis eine neue Matrix der Form (m;\,p). Multipliziert man zwei quadratische Matrizen mit gleicher Zeilen- beziehungsweise Spaltenanzahl, so ist die Form der resultierenden Matrix mit der Form der beiden ursprünglichen Matrizen identisch.

Die Bedingung, dass bei der Multiplikation zweier Matrizen auf zueinander passende Spalten- und Zeilenanzahlen geachtet werden muss, zeigt bereits, dass bei diesem Rechenvorgang die Reihenfolge der Faktoren von Bedeutung ist:

  • Multipliziert man eine Matrix der Form (3;\,2) mit einer Matrix der Form (2;\,3), so ergibt sich eine Matrix der Form (3;\,3).
  • Multipliziert man eine Matrix der Form (2;\,3) mit einer Matrix der Form (3;\,2), so ergibt sich eine Matrix der Form (2;\,2).

Für die Multiplikation zweier Matrizen gilt folglich im Allgemeinen Kommutativgesetz der Multiplikation nicht :

(7)\underline{A} \cdot \underline{B} \ne \underline{B} \cdot \underline{A}

Für die Multiplikation zweier Matrizen gilt allerdings das Distributivgesetz in folgender Form:

(8)\underline{A} \cdot (\underline{B} + \underline{C}) = \underline{A} \cdot
\underline{B} + \underline{A} \cdot \underline{C}

Zusätzlich gilt, dass bei jedem Produkt einer Matrix \underline{A} mit einer entsprechenden Nullmatrix \underline{0} wiederum eine Nullmatrix entsteht (da jedes einzelnen Skalarprodukt den Wert Null hat). Multipliziert man hingegen eine beliebige Matrix \underline{A} mit einer Einheitsmatrix \underline{E}, so erhält man die ursprüngliche Matrix \underline{A} als Ergebnis. Es gilt also stets – unabhängig von der Reihenfolge der Faktoren:

(9)\underline{A} \cdot \underline{0} = \underline{0} \cdot \underline{A} &=
\underline{0} \\[4pt]
\underline{A} \cdot \underline{E} = \underline{E} \cdot \underline{A} &=
\underline{E} \\[4pt]

Eine Division zweier Matrizen ist hingegen nicht definiert.

Matrizengleichungen

Matrizen können, ebenso wie Determinanten, zur Lösung von linearen Gleichungssystemen genutzt werden. Bei Verwendung von Matrizen können diese sehr kompakt dargestellt werden. Beispielsweise hat ein lineares Gleichungssystem mit drei Unbekannten folgende Form:

a_{\mathrm{11}} \cdot x_1 + a_{\mathrm{12}} \cdot x_2 + a_{\mathrm{13}}
\cdot x_3 &= b_1 \\
a_{\mathrm{21}} \cdot x_1 + a_{\mathrm{22}} \cdot x_2 + a_{\mathrm{23}}
\cdot x_3 &= b_2 \\
a_{\mathrm{31}} \cdot x_1 + a_{\mathrm{32}} \cdot x_2 + a_{\mathrm{33}}
\cdot x_3 &= b_3 \\

In Matrizenschreibweise kann dies folgendermaßen geschrieben werden:

(10)\underline{A}_{(3;3)} \cdot \vec{x} = \vec{b}

Gesucht sind bei dieser “Matrizengleichung” wiederum die Komponenten x_1, x_2 und x_3 des Vektors \vec{x}. Man kann allerdings, um die Gleichung zu lösen, nicht einfach durch \underline{A} dividieren, da die Division durch eine Matrix nicht definiert ist. Die Lösung besteht vielmehr darin, eine so genannte “inverse” Matrix \underline{A}
^{-1} zu finden, die bei Multiplikation mit der Matrix \underline{A} eine Einheitsmatrix ergibt.[2]

(11)\underline{A} \cdot \underline{A}^{-1} = \underline{A}^{-1} \cdot
\underline{A} = \underline{E}

Hat man eine solche inverse Matrix A ^{-1} zur Matrix \underline{A} gefunden, kann man beide Seiten der obigen Gleichung (10) damit multiplizieren:

\underline{A} ^{-1} \cdot \underline{A} \cdot \vec{x} = \underline{A}^{-1} \cdot \vec{b}

Mit \underline{A}^{-1} \cdot \underline{A} = \underline{E} folgt damit:

\underline{E} \cdot \vec{x} = \underline{A} ^{-1} \cdot \vec{b}

Da die Einheitsmatrix das neutrale Element bezüglich der Multiplikation ist, also \underline{E} \cdot \vec{x} = \vec{x} gilt, folgt somit als Lösung für \vec{x}:

(12)\vec{x} = \underline{A}^{-1} \cdot \vec{b}

Die eigentliche Aufgabe für die Lösung einer Matrizengleichung besteht nun also darin, zu einer Matrix \underline{A} die inverse Matrix \underline{A}^{-1} zu finden. Hierzu muss folgende Gleichung gelöst werden:

\begin{array}{c|c}
\underline{A} \cdot \underline{A}^{-1}  &
\begin{pmatrix}
    \hat{a}_{11} & \hat{a}_{12} & \ldots & \hat{a}_{1n} \\
    \hat{a}_{21} & \hat{a}_{22} & \ldots & \hat{a}_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    \hat{a}_{n1} & \hat{a}_{n2} & \ldots & \hat{a}_{nn} \\
\end{pmatrix} \\ \midrule
\begin{pmatrix}
    a_{11} & a_{12} & \ldots & a_{1n} \\
    a_{21} & a_{22} & \ldots & a_{2n} \\
    \vdots & \vdots & \ddots & \vdots \\
    a_{n1} & a_{n2} & \ldots & a_{nn} \\
\end{pmatrix} &
\begin{pmatrix}
    \;\; 1 \;\; & \;\;0\;\; & \ldots & \;0\;\; \\
    0 & 1 & \ldots & 0\\
    \vdots & \vdots & \ddots & \vdots \\
    0 & 0 & \ldots & 1\\
\end{pmatrix}
\end{array}

Alle \hat{a} _{\mathrm{ij}} mit i,j = 1,\ldots,n sind Unbekannte; es muss also ein Gleichungssystem mit n^2 Unbekannten und n^2 Gleichungen zur Bestimmung der inversen Matrix gelöst werden.


Anmerkungen:

[1]Bisweilen werden beim Falk-Schema, um eine einfachere Textsatzung zu ermöglichen, entweder die Klammern der Matrizen oder die beiden zueinander senkrechten Tabellenlinien weggelassen.
[2]Die Schreibweise \underline{A}^{-1} soll auf die Ähnlichkeit zur Schreibweise a^{-1} = \frac{1}{a} für reelle Zahlen hinweisen, für die ebenfalls a^{-1} \cdot a = 1 gilt. Es kann allerdings nicht \underline{A}^{-1} = \frac{1}{\underline{A}} sein, da eine Division durch eine Matrix nicht definiert ist.