Orthonormalisierungsverfahren, Orthonormalbasis von Matrix A


0

Guten Abend

Bei dieser Aufgabe komme ich leider nicht weiter. Meine Gedanken diesbezüglich wären die einzelnen Vektoren mit dem entsprechenden Verfahren mit dem Skalarprodukt so zu berechnen, sodass sie senkrecht aufeinander liegen.

 

 

 

Ich bin mir hier aber nicht sicher wie ich das genau machen soll, wäre sehr froh über Hilfe :-)

Den Eigenraum zum gegebenen Eigenwert habe ich hoffentlich richtig ausgerechnet.

Liebe Grüße

Wizz

 

gefragt vor 3 Monate, 2 Wochen
w
wizzlah,
Student, Punkte: 196
 
Kommentar schreiben Diese Frage melden
1 Antwort
1

Hallo,

ein Eigenraum, kann nicht nur der Nullvektor sein. Wenn du das herausbekommst, hast du dich irgendwo verrechnet.

Zweite Zeile letzte Spalte fehlt ein Minus vor der \( 3 \). 

Du wirst als Lösung zwei Eigenvektoren herausbekommen.

Aus diesen kannst du dann mit dem Gram-Schmidt Verfahren eine Orthonormalbasis basteln.

Grüße Christian

 

geantwortet vor 3 Monate, 2 Wochen
christian strack, verified
Sonstiger Berufsstatus, Punkte: 13383
 

Danke für deinen Hinweis. Diese Vorzeichen immer, welche bei mir verloren gehen echt grausam hehe :-)


Meine jetzige Lösung: (Hoffentlich passt das nun)



Ich weiss nun aber echt nicht wie ich das mit der Orthogonalbasis machen soll, da die Vorlesung diese Woche diesbezüglich leider ein wenig mager war. Könntest du mir vielleicht ein paar hilfreiche Links schicken? 


Natürlich habe ich bereits selbst geforscht und auch Daniels Videos geschaut aber ich komme nicht weiter.


Das wäre echt super, danke schonmal im Voraus :-)


LG 


Wizz

  -   wizzlah, kommentiert vor 3 Monate, 2 Wochen

Wieder ein kleiner Vorzeichenfehler. Es ist \( x_4 = s \) , also folgt aus der ersten Zeile


\( 2x_1 -3s +4t \underline{+s} = 0 \)


Damit ergibt der erste Eigenvektor 


\( \begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \)


Der zweite stimmt trotzdem.


Zu dem Verfahren würde ich dir tatsächlich Wikipedia empfehlen, da es nur ein Algorithmus ist. Schau mal https://de.wikipedia.org/wiki/Gram-Schmidtsches_Orthogonalisierungsverfahren#Algorithmus_des_Orthonormalisierungsverfahrens">hier. 
Nur damit es keine Verwechslung gibt orthogonal bedeutet senkrecht, orthonormal bedeutet senkrecht und normiert. 


Da du hier keine große Basis hast, rechne ich es dir einmal vor. Da nichts anderes geschrieben wurde und wir \( V \subset \mathbb{R}^4 \) haben, nehmen wir die Standardnorm und das Standardskalarprodukt, das wir auch aus der Schule kennen.


Du nimmst einen Basisvektor deiner alten Basis und startest mit ihm, nehmen wir


\( w_1 = \begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \)


Nun müssen wir diesen normieren, das bedeutet auf die Länge \( 1 \) bringen. Das machen wir in dem wir durch die Länge teilen (durch die Norm).


\( v_1=  \frac {w_1} {\Vert w_1 \Vert} = \frac {\begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix}} {\sqrt{1^2+(-1)^2+0^2+1^2}} = \frac 1 {\sqrt{3}} \begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \)


Nun wollen wir den zweiten Basisvektor unserer alten Basis \( w_2 \) so verändern, das er senkrecht auf unserem ersten neuen Basisvektor \( v_1 \) steht. 


Wir rechnen


\( v_2'= w_2 - <v_1,w_2> \cdot v_1 \\ = \begin{pmatrix} -2 \\ 0 \\ 1 \\ 0 \end{pmatrix} - \left( \frac 1 {\sqrt{3}} \begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} * \begin{pmatrix} -2 \\ 0 \\ 1 \\ 0 \end{pmatrix} \right) \cdot \frac 1 {\sqrt{3}} \begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \\ = \begin{pmatrix} -2 \\ 0 \\ 1 \\ 0 \end{pmatrix} -(- \frac 2 3 )\begin{pmatrix} 1 \\ -1 \\ 0 \\ 1 \end{pmatrix} \\ = \frac 1 3 \begin{pmatrix} -  4  \\ -  2  \\ 3 \\ 2  \end{pmatrix} \)


Nun müssen wir auch diesen Vektor noch normalisieren. 


\( v_2 = \frac 1 3 \frac {\begin{pmatrix} -  4  \\ -  2  \\ 3 \\ 2  \end{pmatrix}} {\sqrt{33}} = \frac 1 {\sqrt{297}} {\begin{pmatrix} -  4  \\ -  2  \\ 3 \\ 2  \end{pmatrix}} \)


Die Basis \( \{v_1,v_2 \} \) ist nun eine Orthonormalbasis. Wichtig, die Vorfaktoren gehören zum Basisvektor!


Soweit verständlich? Ansonsten ist https://www.youtube.com/watch?v=ml63IpL5O5Q">hier noch ein Video von Daniel.


Nun noch zur Projektion. Ideen?


Grüße Christian

  -   christian strack, verified kommentiert vor 3 Monate, 2 Wochen

Hallo


Vielen lieben Dank dafür, dass du dir extra die Mühe gemacht hast mir das so aufzuzeigen ich werde es gleich ausprobieren und entsprechend Rückmeldung geben.


LG Wizz

  -   wizzlah, kommentiert vor 3 Monate, 2 Wochen

Für die senkrechte Projektion muss ja nun gelten, dass der Vektor w logischerweise senkrecht auf der Ebene steht, welche von v1 und v2 aufgespalten wird. Ich kann ja hier von der alten Basis ausgehen oder?

  -   wizzlah, kommentiert vor 3 Monate, 2 Wochen

Ansonsten habe ich nun alles verstanden :)

  -   wizzlah, kommentiert vor 3 Monate, 2 Wochen

Sorry aber ich sehs hier nicht mit der senkrechten Projektion. Ich weiss ja was das bedeuten muss. Hier ist ja V zweidimensional und wird folglich eine Ebene aufspannen in R^4. Aber ich sehs irgenwie nicht.


Ich wollte von den Vektoren v1 = (1,-1,0,1)' und v2 = (-2,0,1,0)' ausgehen aber das darf ich nicht machen oder? Ich sollte die Orthonormalbasis wählen und dann wahrscheinlich mit meiner Vermutung, weil ich das beim dritten Gram-Schmidt-Verfahren Video von Daniel gesehen habe wieder eine Rechnung mit dem Skalarprodukt machen.


Muss bzw. kann ich das folglich mit dem Vektorprodukt bestimmen ? Dann müsste ja folglich für das Kreuzprodukt für die beiden Vektoren v1 und v2 ein Vektor rauskommen, welcher ein Vielfaches von dem Vektor w ist oder verstehe ich da etwas falsch?


LG


Wizz

  -   wizzlah, kommentiert vor 3 Monate, 2 Wochen

Deine Ideen sind richtig. Im Prinzip haben wir im Gram-Schmidt-Verfahren bereits dieses Prinzip genutzt. Wir haben mit dem Skalarprodukt geguckt wie groß die Projektion auf den anderen Vektor ist und diesen Part abgezogen um kien Projektion mehr zu haben (sie also senkrecht, orthogonal sind).


Da wir nun bereits eine Orthonormalbasis haben, lässt sich die Projektion sofort über


\( P_U(w) = \sum_i^2 < w, v_i> v_i = < w, v_1 > v_1 + <w, v_2> v_2 \)


Die Skalarprodukte stehen für die Projektionen. Wir müssten eigentlich immer noch durch die Länge der Basisvektoren \( v_i \) teilen, aber da wir eine Orthonormalbasis haben ist diese Länge eh \( 1 \). 
Wir addieren also einfach die Projektionen auf die einzelnen Basisvektoren und haben unsere Projektion in die Ebene.


Auch hier würde ich dir empfehlen einfach mal in die https://de.wikipedia.org/wiki/Orthogonalprojektion#Lineare_Algebra">Wikipedia Seite zu schauen. Es ist eigentlich sehr gut beschrieben. Aber vielleicht sage ich das auch nur weil ich mich damit schon so viel beschäftigt habe ;)


Wenn sich zur Seite Fragen auftun melde dich nochmal. 

  -   christian strack, verified kommentiert vor 3 Monate, 1 Woche

Vielen Dank !!


Jetzt habe ich verstanden und kann die Schritte auch grafisch besser nachvollziehen. Aber ich brauche da auf jeden Fall noch viel Übung ich werde sicher dranbleiben.


Nochmals danke ! :-))


LG Wizz

  -   wizzlah, kommentiert vor 3 Monate, 1 Woche

Meld dich jederzeit :)


Sehr gerne.


Grüße Christian

  -   christian strack, verified kommentiert vor 3 Monate, 1 Woche
Kommentar schreiben Diese Antwort melden

Deine Antwort
Hinweis: So gibst du Formeln ein.