Lösung der Klausur Lineare Algebra WS 2000
Universität Osnabrück

Klausur (c) 2001 Prof. Dr. Bruns, Koch, Heitmann
Veröffentlichung der Aufgaben mit freundlicher Genehmigung von Herrn Koch
Klausurlösung und Anmerkungen (c) Fabian M. Suchanek (http://suchanek.name)

Disclaimer

Dieses ist keine offizielle Musterlösung! Es sind die Lösungen aus meiner Klausur. Ich kann mich sowohl beim Abtippen der Aufgaben als auch bei den Lösungen vertan haben (für entsprechende Hinweise bin ich dankbar). Die Anmerkungen sind ebenfalls meine eigenen Überlegungen, die formal gesprochen nicht ganz korrekt sind (siehe  Unrichtigkeiten).

Aufgabe 1

Bezüglich der kanonischen Basen von R2 und R3 sei die lineare Abbildung f:R2 → R3 gegeben durch die Matrix:
1 2
A = 0 1
1 –1

Bestimmen Sie jene Matrix B, die f bzgl. der Basis e1+e2, e2 von R2 und der Basis e1+e3, e2–e1, e3 von R3 beschreibt.

Eine Matrix über R definiert eine Funktion, die aus einem Definitionsmenge/Urbildmenge RSpaltenenzahl in eine  Wertemenge/Bildmenge RZeilenanzahl abbildet. Die Eselsbrücke: Der Eingabe-Vektor (z.B. (4,5)) fällt von oben rein, der Ausgabe-Vektor kommt rechts raus:
4 5
1*4+ 2*5  → 14
A = 0*4+ 1*5  → 5
1*4+ –1*5  → –1
Dabei zu beachten: So eine Matrix schluckt nicht einfach so einen Vektor! Zunächst muss der Vektor (der ja hier gelesen werden kann als Linearkombination der kanonischen Basen 4*e1+5*e2) konvertiert werden auf die "Inputbasen" der Matrix. Auch das Ergebnis liegt i.A. nicht als fertiger Vektor vor, sondern ist als Linearkombination der "Outputbasen" der Matrix zu lesen. Hier entfällt beides, denn diese Matrix ist gegeben bezüglich der "kanonischen Basen", d.h. die Inputbasis ist e1,e2 und die Outputbasis ist e1,e2,e3.

Nun soll für dieselbe Funktion eine Matrix mit anderen Input- und Output-Basen gefunden werden: Die neue Inputbasis soll e1+e2,e2 sein und die neue Outputbasis soll e1+e3,e2–e1,e3 sein. Wenn wir damit fertig sind, wird man Eingabe-Vektoren auf die neue Inputbasis e1+e2,e2 umrechnen müssen, bevor man sie oben reinwerfen kann. Das Ergebnis kommt dann nicht als "normaler" Vektor rechts heraus, sondern wird als Linearkombination der Outputbasis zu lesen sein.

Zunächst berechnet man, was unsere Funktion (=Matrix) als Ergebnis der neuen Inputbasenvektoren auswirft:
f(e1+e2) = (3,1,0)
f(e2) = (2,1,–1)
Nun versucht man, diese Ergebnissvektoren durch die neue Outputbasis auszudrücken. Das läuft auf ein lineares Gleichungssystem hinaus:
 
3*e1+1*e2+0*e3 = a*(e1+e3)+b*(e2-e1)+e3
<=> a=4, b=1, c=–4

2*e1+e2–e3 = x*(e1+e3)+y*(e2–e1)+z*e3
<=> x=3, y=1, z=–4

Diese Vektoren müssen nun nur noch in die Matrix eingetragen werden:
 
4 3
A' = 1 1
–4 –4
Kleiner (billiger) Test: Was passiert, wenn ich (1,1) einwerfe? Zunächst muss (1,1) auf die Inputbasis umgerechnet werden (1,1) = 1*e1+1*e2 = 1*(e1+e2)+0*(e2). Ich werfe also (1,0) oben rein. Kommt (nach obigem Schema) (4,1,–4) rechts raus. (4,1,–4) ist jetzt aber zu lesen als Linearkombination der Outputbasis, d.h. als 4*(e1+e3)+1*(e2–e1)+–4*e3. Und das ist  3*e1+1*e2+0*e3 = (3,1,0), dasselbe Ergebnis, was die Matrix vorher auch geliefert hat. Die Umwandlung hat geklappt.

Aufgabe 2

Sei
 
1 1 1
A = 1 2 2
1 2 4

und für x,y ∈ R³ sei <x,y>:=xt*A*y.
a) Zeigen Sie, dass <*,*> ein Skalarprodukt auf R³ ist
b) Es sei U der von den Vektoren u1=(0,0,1) und u2=(1,1,0) erzeugte Untervektorraum. Berechnen Sie (bzgl. dieses Skalarproduktes) eine Orthonormalbasis von U.
 

Ein Skalarprodukt ist eine besondere Funktion, die zwei Vektoren verwurstet und eine Zahl herausbekommt. Oft beschreibt man ein Skalarprodukt mit einer Matrix. Wie man eine einstellige Funktion mithilfe einer Matrix beschreiben kann, sieht man in Aufgabe 1. Nun zum zweistelligen Skalarprodukt: In der Schreibweise f(x,y)=<x,y>=xt*A*y bedeutet der Teil xt*A nichts anderes als das oben beschriebene Einwerfen eines Eingabe-Vektors x in die Matrix A. Das Ergebnis (ein Vektor) wird dann noch mit dem Vektor y multipliziert (1. Komponente * 1.Komponente + 2. Komponente * 2.Komponente + ... ) und heraus kommt eine Zahl. Was hat dieses Skalarprodukt mit dem aus der Schule gemein? Wenn A die Einheitsmatrix ist, verändert die Multiplikation von x mit A den Vektor x nicht. Übrig bleibt die Multiplikation von x und y: Das "Standardskalarprodukt" (= wie in der Schule).
Wie kommt nun die Matrix zustande? Wannimmer man eine lineare Funktion auf Vektoren beschreiben möchte, genügt es, die Funktionswerte der Basisvektoren anzugeben. So wird beispielsweise eine Funktion f:R²→R² vollständig beschrieben durch f(e1)=3*e2,f(e2)=e1+e2. Will man nun f( (4,5) ) ausrechnen, so ist
 
f( (4,5) ) = f(4*e1+5*e2) = f(4*e1) + f(5*e2) = 4*f(e1) + 5*f(e2)
= 4*3*e2 + 5*(e1+e2) = 13*e2 + 5*e1 = (5,13).


Hat nun eine Funktion zwei Eingabevektoren, so muss für jede Kombination von Basisvektor des ersten Eingabevektors und Basisvektor des zweiten Eingabevektors ein Funktionswert angegeben werden, also eigentlich: f(e1,e1)= ..., f(e1,e2)=..., f(e2,e1)=... usw. Man schreibt das f(...)= nicht jedesmal dazu, sondern ordet nur die Funktionswerte in einer Matrix an: Die Gramsche Matrix ist geboren (Vermutungen, diese Bezeichnung käme vom "Gram", den man mit Matritzen hat, blieben unbestätigt). Will man nun z.B. f( (4,5) , (6,7) ) ausrechnen, so zerpflückt man den Ausdruck zunächst:

f( (4,5), (6,7) ) = f(4*e1+5*e2,6*e1+7*e2) = f(4*e1,6*e1+7*e2) + f(5*e2,6*e1+7*e2)
= f(4*e1,6*e1) + f(4*e1,7*e2) + f(5*e2,6*e1) + f(5*e1,7*e2)
= 4*6*f(e1,e1) + 4*7*f(e1,e2) + 5*6*f(e2,e1) + 5*7*f(e1,e2).
Die blauen Einträge liest man aus seiner Gramschen Matrix und dann muss das Ergebnis noch zusammengefasst werden. Sieht also sehr langwierig aus. Aber erfreulicherweise geschieht genau diese Prozedur (Auseinanderpflücken, Funktionswerte aus Matrix lesen, Ergebnis vereinfachen) in der Matritzenmultiplikation xt*A*y. Der Aufwand ist natürlich derselbe, allein die Schreibweise ist etwas schöner.

Nun zur Aufgabe: Soll A ein Skalarprodukt beschreiben, so muss A eine zweistellige (anderthalb-) lineare Funktion beschreiben. Das tut nach obigem Schema jede Matrix.

a) z.Z.: <*,*> beschreibt ein Skalarprodukt, d.h.

1. A beschreibt eine Sesquilinearform. Das tut jede Matrix.

Nun darf sich aber nicht jede zweistellige Funktion Skalarprodukt nennen. Ein Skalarprodukt muss "hermitesch" sein, d.h. f(x,y) = f(y,x) komplex konjugiert. Nach obiger Schreibweise ausformuliert: xt*A*y = yt*A*x komplex konjugiert. Nun ist aber xt*A*y = yt*At*x (Funktionsargumente vertauschen → Matrix umdrehen). Also
        xt*A*y = yt*A*x komplex konjugiert
<=> yt*At*x = yt*A*x komplex konjugiert
<=>  At = A komplex konjugiert
Ob die umgedrehte Matrix gleich der komplex konjugierten ist, lässt sich unmittelbar ablesen.
2. A ist hermitesch, d.h. At = A komplex konjugiert
 
 
1 1 1
At = A k.k. = 1 2 1
1 1 4

Außerdem muss ein Skalarprodukt positiv definit sein, d.h. f(x,x)>0. Eigentlich müsste man allgemein f(x,x) ausrechnen und zeigen, dass es immer positiv ist. Diese Arbeit kann man sich abkürzen, indem man zeigt, dass für alle links oben anliegenden quadratischen Teilmatritzen det Aixi>0 ist. (Beweis habe ich noch nicht kapiert.)
 

3. A ist positiv definit, d.h. det Aixi>0 für i=1,2,3
 
 
 
1 1 1
A = 1 2 2
1 2 4


det A1x1 = 1 > 0
det A2x2 = 1 > 0
det A3x3 = 2 > 0

b) Berechnung einer Orthonormalbasis von U.
 

Eine Orthonormalbasis (ONB) ist ein Vektorentupel,
1. das eine Basis von U ist, also U aufspannt und linear unabhängig ist
2. in dem alle Vektoren senkrecht aufeinander stehen
3. in dem alle Vektoren die Länge 1 haben
Die Begriffe "Länge" und "senkrecht" werden hier unabhängig von der (ansonsten sehr hilfreichen) geometrischen Vorstellung allein abstrakt durch das Skalarprodukt beschrieben. Um nun eine ONB zu finden, nimmt man sich den ersten Vektor und "normiert" ihn, bringt ihn also auf die Länge 1. Das geschieht einfach, indem man jede seiner Komponenten durch die Länge des Vekors dividiert. Der Vektor wird also in allen Dimensionen gleichmäßig gezoomt, wobei er seine "Richtung" (d.h. das Verhältnis seiner Komponenten) beibehält. Das Resultat nennen wir w1:


w1 = u1 / Länge(u1) = u1 / Wurzel(<u1,u1>) = <u1,u1>–1/2 * u1
 
 

1 1 1 0
<u1,u1>= 0 0 1 * 1 2 2 * 0    = 4
1 2 4 1

Also w1=1/2.u1 = (0,0,1/2)
 

Jetzt verbiegt man den zweiten Vektor so, dass er zu w1 orthogonal ist. Dazu hat sich ein Herr Schmidt Gedanken gemacht. Um im Bildchen den schrägen schwarzen Vektor zum anderen senkrecht zu machen, muss man nur den roten subtrahieren. Der rote Vektor ist aber genau der erste mal das Skalarprodukt der beiden schwarzen:


Also rechnet man nach Schmidt:

w2' = u2 – <u2,w1>*w1
 
1 1 1 0
<u2,w1>= 1 1 0 * 1 2 2 * 0    = 1,5
1 2 4 1/2

w2'= (1,1,0) – 1,5*(0,0,1/2) = (1,1,–3/4)
 

Nun muss w2' nur noch normiert werden, indem man ihn durch seine Länge dividiert:
w2=<w2',w2'>–1/2*w2'

<w2',w2'> = 11/4,

also w2 = 1/Wurzel(11/4) * w2' = 2/Wurzel(11) * w2'
= (2/Wurzel(11),2/Wurzel(11),1,5/Wurzel(11))

w2, w1 ist die gesuchte Orthonormalbasis.
 
 

Aufgabe 3


Bestimmen Sie alle (2 x 2)-Matritzen über R, die mit der Matrix
 

0 2
A =
1 1

vertauschbar sind, d.h. alle Matritzen B mit AB =BA.
 

Hier handelt es sich eigentlich um eine klassische Textaufgabe: Man formalisiert das Problem und löst nach den Variablen auf:
Zu bestimmen ist eine Matrix B=( (a,b), (c,d) ) mit a,b,c,d ∈ R, sodass AB=BA.
 
0 2 a b 2c 2d
AB= * =
1 1 c d a+c b+d

 
a b 0 2 b 2a+b
BA= * =
c d 1 1 d 2c+d

Die Matritzen sollen gleich sein, d.h.

2c = b, 2d = 2a+b, a+c = d, b+d =2c+d
Lösung des Systems nach Gauß:
a b c d
0 –1 2 0 0
–2 –1 0 2 0
1 0 1 –1 0
0 1 –2 0 0
ein paar Umformungen später...
1 0 1 –1 0
0 1 –2 0 0
0 0 0 0 0
0 0 0 0 0

Also: 1a+1c–1d=0 und 1b–2c=0
<=>   a+c=d und b=2c

Wenn die Komponenten der Matrix B diese Bedingungen erfüllen, sind A und B vertauschbar:
 

a 2c
B =
c a+c

Aufgabe 4


Bestimmen Sie alle Zahlen a ∈ R, für die das lineare Gleichungssystem (A,b) mit
 
 

a 0 1 2
A = 0 1 0 b = 1
1 0 a 2

a) eindeutig lösbar     b) nicht lösbar     c) lösbar ist.

Ein Gleichungssystem ist genau dann eindeutig lösbar, wenn det A <>0. Zur bequemen Bestimmung der Determinante und nachher der Lösungen bringt man das Gleichungssystem zunächst auf Stufenform:
x y z
a 0 1 2
0 1 0 1
1 0 a 2
1 0 a 2
0 1 0 1
0 0 1–a² 2–2a

det A = 1*1*(1–a²)=1–a²
Wenn det A = 0 ist, so ist das Gleichungssystem nicht eindeutig lösbar. Dies ist der Fall bei a=1 oder a=–1:

In allen anderen Fällen ist A eindeutig lösbar. Dann ist: Die Menge der eindeutigen Lösungen ist also L={ (x,y,z) ∈ R³ : x=2a/(1+a), y=1, z=2/(1+a), a ∈ R\{1,–1} }.
Man kann diesem Gleichungssystem die Lösbarkeit auch direkt ansehen: Will man z bestimmen, so muss man z=(2–2a)/(1–a²) rechnen. Sind bei diesem Bruch Zähler und Nenner 0 (hier bei a=1), so ergeben sich unendlich viele Lösungen. Für a=–1 bleibt es bei der nicht definierten Division durch 0 und damit keiner Lösung.

Aufgabe 5

Seien v1,...vn E V Elemente eines K-Vektorraums V, sei W ein weiterer K-Vektorraum und f: V → W eine lineare Abbildung.
a) Beweisen Sie: Sind v1,...,vn E V linear abhängig, so auch f(v1),...,f(vn) E W.
b) Widerlegen Sie durch ein Gegenbeispiel: Sind v1,...,vn E V linear unabhängig, so auch f(v1),...,f(vn) E W.
Lineare Unabhängigkeit ist eine besondere Eigenschaft eines Vektorentupels. Sind Vektoren linear abhängig, so werden auch ihre Funktionswerte nicht linear unabhängig. Für den Beweis macht man sich eine Eigenschaft zunutze, die jede lineare Funktion hat:
Für jede lineare Abbildung gilt: f(0) = 0.
Nun kann man 0 durch eine Linearkombination von v1,...,v2 ersetzen
0 = a1v1+a2v2+...+anvn,
wobei die ai so gewählt werden können, dass mindestens ein ai<>0 (denn die vi sind ja linear abhängig).
Also gilt:
        f(a1v1+a2v2+...+anvn) = 0
<=> f(a1v1)+...+f(anvn) = 0
<=> a1f(v1)+...+anf(vn) = 0
Da ja nach Wahl der ai mindestens ein ai<>0 war, sind f(v1),...,f(vn) linear abhängig.

Gegenbeispiel zur linearen Unabhängigkeit von f(v1),...,f(fn) bei linearer Unabhängigkeit von v1,...,vn:

Ein sehr primitives Gegenbeispiel ist eine lineare Funktion, die einfach alle Eingabe-Vektoren (bildlich gesprochen) auf die x-Achse abbildet. Damit liegen alle Ergebnisvektoren auf der x-Achse, zeigen somit in dieselbe Richtung und sind linear abhängig:
f(a,b) = (a,0),   f:R²→R²
Setzt man hier z.B. die linear unabhängigen Vektoren (1,0) und (1,1) ein, so werden beide auf (1,0) abgebildet: Die Ergebnisse sind linear abhängig.

f(a,b) ist dabei linear, denn

Aufgabe 6

Beweisen Sie:
 
a1 –a1 0 ... 0
0 a2 –a2 ... 0
det A = det ... ... ... ... ... =(n+1)*a1*a2*...an
0 0 ... an –an
1 1 ... 1 1
Bei solchen Aufgaben ist Rumprobieren gefragt. Es gibt mehrere Möglichkeiten zur Bestimmung der Determinante: In der Aufgabe bietet es sich an, die Matrix auf Stufenform zu bringen: Wenn ein ai=0 ist, so hat die Matrix eine Nullzeile, det A ist 0 und die Formel stimmt. Im Folgenden daher der Beweis für den Fall, dass alle ai<>0.

Man formt die letzte Zeile wie folgt um:
1. Addition des –1/a1-Fachen der ersten Zeile
    ~~~~> (1–a1/a1,1+a1/a1,1,...1) = (0,2,1,....,1)
2. Addition des –2/a2-Fachen der zweiten Zeile
    ~~~~> (0,2–2a2/a2,1+2a2/a2,1,...,1) = (0,0,3,1,...,1)
usw. bis die letzte Zeile die Form (0,0,0,...,0,n+1) hat.

Da A dann eine Dreiecksform hat, ist die Determinante dann das Produkt aller Elemente in der Diagonalen:

det A =a1*a2*...*an*(n+1).
 

Unrichtigkeiten

In den Anmerkungen finden sich folgende Unrichtigkeiten:

Aufgabe 1:

Aufgabe 2: Aufgabe 4:


Zurück zu Fabians Homepage