Mathematik: Transformationsverhalten (und etwas mehr) für Physiker
Released by matroid on Sa. 21. Mai 2011 17:02:04 [Statistics]
Written by DanielW - 17137 x read [Outline] Printable version Printer-friendly version -  Choose language   
Lineare Algebra

\(\begingroup\) In diesem Artikel möchte ich über das Transformationsverhalten von Objekten aus der linearen Algebra am Beispiel von Vektoren, Dualvektoren, linearen Abbildungen und Bilinearformen sprechen und im Anschluss noch kurz an die in der physikalischen Literatur omnipräsenten Basisdarstellungen von Tensoren eingehen. Dieser Artikel richtet sich vornehmlich an junge Physikstudenten, denen dieses Thema häufig in einer für sie verwirrenden Weise nur in Form von oberen und unteren Indizes begegnet, sowie auch an interessierte Schüler. Ich ziele vorrangig auf das Verständnis der Zusammenhänge ab, sodass die mathematische Präzision an der einen oder anderen Stelle bewusst etwas leiden mag; dieser Punkt sollte jedoch nicht negativ ins Gewicht fallen, da genügend Darstellungen in der mathematischen Literatur verfügbar sind (vgl. etwa Fischer - Lineare Algebra).

Vorbereitungen

Wir arbeiten in diesem Artikel endlichdimensional. Der Begriff des K-Vektorraums wird als bekannt vorausgesetzt und wir sprechen von "Zahlen" statt von "Elementen des Grundkörpers". Vektorräume bezeichnen wir mit V, W, die zugehörigen Dualräume mit V^\*, W^\*. Wir erinnern an die grundlegenden Definitionen: (1) Eine Menge \calB=menge(v_1,...,v_n)\subset V heißt Basis von V, wenn \calB V erzeugt und linear unabhängig ist. n\in\IN heißt Dimension von V und ist eindeutig bestimmt. (2) Eine Abbildung f:V->W heißt linear, wenn für alle v,v'\in V und \lambda\in K gilt f(\l v+v')=\l f(v) + f(v'). (3) Der Dualraum V^\* zu einem Vektorraum V ist die Menge aller linearen Funktionale auf V, d.h. V^\*=menge(f:V->K|f ist linear).

Vektoren

Wir beginnen mit dem Transformationsverhalten der einfachsten Objekte, nämlich der Vektoren. Ein \(in der physikalischen Literatur manchmal abstrakt genannter) Vektor v ist ein Element des Vektorraums V. Man sollte sich hier unbedingt auf den Standpunkt stellen, dem Vektor v eine Existenz an sich zuzusprechen: in der aus der Schule bekannten Visualisierung beschreibt er einfach eine Äquivalenzklasse von Verschiebungspfeilen und eine solche existiert vollkommen unabhängig von einem fixierten "Koordinatensystem". Um jedoch mit Vektoren im Anwendungsfall rechnen zu können fixiert man eine Basis von \calB=menge(v_1,..,v_n). Aus der Definition der Basis folgt dann unmittelbar, dass es eindeutig bestimmte Zahlen \lambda_1,...,\lambda_n gibt, sodass v=\sum(\lambda_i v_i,i=1,n) gilt. Die bekannte Komponentendarstellung als Spaltenvektor ist dann einfach definiert als (\lambda_1;\vdots;\lambda_n)_(\calB):=\sum(\lambda_i v_i,i=1,n). \(Präzise gesprochen haben wir hier einen Isomorphismus von V nach \IR^n angegeben.) Ist nun \calB^'=menge(v_1^',...,v_n^') eine weitere Basis von V, so gibt es wieder Zahlen \lambda_1^',...,\lambda_n^' mit v=\sum(\lambda_i^' v_i^',i=1,n). Insbesondere müssen wir also (\lambda_1;\vdots;\lambda_n)_(\calB)=(\lambda_1^';\vdots;\lambda_n^')_(\calB^') beachten, d.h. zwei vollkommen verschiedene Spaltendarstellungen können denselben Vektor repräsentieren - der Index \calB ist also essentiell! Um nun untersuchen zu können, wie sich zwei Spaltendarstellungen ineinander transformieren, halten wir zunächst noch einmal fest, dass alle Basisvektoren v_i in V liegen und damit bzgl. der Basis \calB^' darstellbar sind, d.h. es gibt eindeutig bestimmte Zahlen t_ij sodass v_i = sum(t_ij v_j^',j=1,n), was wir auch als formale Matrixmultiplikation schreiben können: (v_1;\vdots;v_n)=(t_11,...,t_1n;\vdots,,\vdots;t_n1,...,t_nn)(v_1^';\vdots;v_n^') oder kurz V=TV'. Nun liegen die v_i^' aber auch allesamt in V und daher gibt es andererseits auch Zahlen (t^~)_ij mit (v_1^';\vdots;v_n^')=((t^~)_11,...,(t^~)_1n;\vdots,,\vdots;(t^~)_n1,...,(t^~)_nn)(v_1;\vdots;v_n), bzw. V'=T^~ V. Die i. Zeile der Matrix T ist aber nichts anderes als transponierte Spaltendarstellung von v_i bzgl. \calB^', d.h. alle Zeilen sind linear unabhängig, da \calB eine Basis von V ist. Die Matrix ist also invertierbar und es gilt notwendigerweise T^~ = T^(-1). So gewappnet ist es ein Kinderspiel, die Spaltendarstellungen ineinander zu transformieren. Aus v=sum(\lambda_i v_i,i=1,n) folgt durch Einsetzen von v_i=\sum(t_ij v_j^',j=1,n) v=sum(\lambda_i \sum(t_ij v_j^',j=1,n),i=1,n)=\sum((\sum(t_ij \lambda_i,i=1,n)) v_j^',j=1,n). Nun ist die Darstellung von v bzgl. \calB^' aber eindeutig, sodass wir das gesuchte Transformationsverhalten gefunden haben: \lambda_j^' = \sum(t_ij \lambda_i,i=1,n). Störend sind lediglich die Indizes an den Matrixelementen von T; um diese Gleichheit als Matrixmultiplikation zu schreiben, müssen wir T durch ihre Transponierte ersetzen, denn auf Indexebene gilt (T^t)_ij = T_ji. Definieren wir die Matrix S:=T^t, so erhalten wir schließlich (\lambda_1^';\vdots;\lambda_n^')_(\calB^') =S(\lambda_1;\vdots;\lambda_n)_\calB. und halten noch folgende wichtige Beobachtung fest, die aus den Eigenschaften der Zeilen von T folgt: \frameon Seien \calB=menge(v_1,...,v_n) und \calB^'=menge(v_1^',...,v_n^') Basen von V. Die Spaltendarstelleungen eines Vektors transformieren sich dann gemäß (\lambda_1^';\vdots;\lambda_n^')_(\calB^') =S(\lambda_1;\vdots;\lambda_n)_\calB , wobei in der j. Spalte der Transformationsmatrix S die Spaltendarstellungen von v_j bzgl. der Basis \calB^' steht. \frameoff Es ist nicht übertrieben zu behaupten, dass das Verständnis dieser Aussage ausreichend ist, um das Transformationsverhalten anderer Objekte vollständig zu verstehen. Alles Folgende wird aus dieser Feststellung hergeleitet werden.

Dualvektoren

Wir erinnern zunächst an die Definition der Dualbasis: ist \calB=menge(v_1,...,v_n) eine Basis von V, so ist \calB^\* =menge(v_1^\*,...,v_n^\*) mit v_i^\* (v_j) =\delta_ij = cases(1,i=j;0,sonst) die \calB duale Basis. Aus der Forderung, dass diese Eigenschaft unter einem Basiswechsel invariant bleibt, erhalten wir mit Hilfe des Transformationsverhaltens der Basisvektoren von V dasjenige der Basisvektoren von V^\*. Wir hatten v_j = \sum(t_jk v_k^',k=1,n) gefunden und setzen diese Beziehung einfach unter Ausnutzung der Linearität der Dualvektoren v_i^\* ein: \delta_ij=v_i^\* (v_j) =v_i^\* (\sum(t_jk v_k^',k=1,n))=\sum(t_jk v_i^\* (v_k^'),k=1,n). Nun besitzt v_i^\* natürlich auch eine Darstellung v_i^\* =sum(a_il v_l^'\*,l=1,n) bzgl. der gestrichenen Dualbasis mit zu bestimmenden Koeffizienten a_il. Setzen wir diese ein, so erhalten wir \delta_ij=\sum(t_jk a_il v_l^'\* (v_k^'),(k,l)=1,n). Da wir die Invarianz der Eigenschaft v_l^'\* (v_k^')=\delta_lk gefordert haben, vereinfacht sich diese Gleichung zu \delta_ij=\sum(t_jl a_il,l=1,n), d.h. die Transponierte von T \(die wir oben mit S bezeichnet haben) muss gerade die Inverse von A sein. Wir erhalten daher das Transformationsverhalten (v_1^\*;\vdots;v_n^\*) = S^(-1) (v_1^'\*;\vdots;v_n^'\*). Das weitere Vorgehen ist nun mechanisch zu erledigen: geben wir einen beliebigen Dualvektor \theta=\sum(\alpha_i v_i^\*,i=1,n) vor, so transformieren wir v_i^\* und lesen die Komponenten ab: \theta=\sum(\alpha_i (S^(-1))_ij v_j^'\*,(i,j)=1,n) und damit \alpha_j^' = \sum(\alpha_i (S^(-1))_ij,i=1,n) oder in Spaltenform (\alpha_1^';\vdots;\alpha_n^')_(\calB^'\*)=(S^(-1))^t (\alpha_1;\vdots;\alpha_n)_(\calB^\*). Etwas einprägsamer ist die transponierte Version dieser Gleichung, d.h. die Komponentendarstellungen der Dualvektoren werden als Zeilenvektoren geschrieben: \frameon (\alpha_1^' ,\cdots, \alpha_n^')_(\calB^'\*)=(\alpha_1, \cdots,\alpha_n)_(\calB^\*) S^(-1). \frameoff Es gibt aus rechentechnischer Sicht einen guten Grund, diese Notation zu wählen: die Anwendung von \theta=\sum(\alpha_i v_i^\*,i=1,n) auf einen Vektor v=\sum(\lambda_j v_j,j=1,n) ergibt \theta(v) = \sum(\alpha_i \lambda_j v_i^\* (v_j),(i,j)=1,n)=\sum(\alpha_i \lambda_i,i=1,n) oder in einer Spaltendarstellung als Matrixmultiplikation \theta(v) = (\alpha_1, \cdots,\alpha_n)_(\calB^\*) (\lambda_1;\vdots;\lambda_n)_\calB. Die Invarianz dieser Paarung springt so sofort ins Auge, da man zwischen den Basen durch Einfügen von \I1=S^(-1) S transformiert: \theta(v) = (\alpha_1, \cdots,\alpha_n)_(\calB^\*) S^(-1) S (\lambda_1;\vdots;\lambda_n)_\calB = (\alpha_1^', \cdots,\alpha_n^')_(\calB^'\*)(\lambda_1^';\vdots;\lambda_n^')_(\calB^')

Lineare Abbildungen

Betrachten wir nun eine lineare Abbildung f:V->W zwischen Vektorräumen mit Basen \calB_V=menge(v_1,...,v_n) und \calB_W=menge(w_1,...,w_m). Wir berechnen zunächst das Bild eines beliebigen Vektors v=\sum(\lambda_i v_i,i=1,n), indem wir die Linearität von f ausnutzen: f(v)=\sum(\lambda_i f(v_i),i=1,n). Nun liegt f(v_i) aber per Definition in W, d.h. es gibt eine Basisdarstellung f(v_i)=sum(\mue_ji w_j,j=1,m). Durch Anwenden des Dualvektors w_k^\* erhalten wir wegen \w_k^\*(w_j)=\delta_kj w_k^\*(f(v_i))=sum(\mue_ji w_k^\*(w_j),j=1,m) = \mue_ki, d.h. die Entwicklung von f(v) nach der Basis von W ist f(v)=\sum(\sum(\mue_ki \lambda_i w_k,k=1,m),i=1,n). Für die k. Komponente von f(v) ist also \sum(\mue_ki \lambda_i,i=1,n), was wiederum die Definition der Abbildungsmatrix M(f)\.\small\ array(\calB_W;\calB_V) \normal durch Festlegung der Matrixelemente (M(f)\.\small\ array(\calB_W;\calB_V)\normal )_ij=w_i^\*(f(v_j)) rechtfertigt; diese Matrix dient dazu, die Spaltendarstellung von v bzgl. \calB_V in die Spaltendarstellung von f(v) bzgl. \calB_W umzurechnen: \frameon f(v)=(\sum(\mue_1i \lambda_i,i=1,n);\vdots;\sum(\mue_mi \lambda_i,i=1,n))_(\calB_W)= M(f)\.\small\ array(\calB_W;\calB_V) \normal(\lambda_1;\vdots;\lambda_n)_(\calB_V). \frameoff Nun werden die Matrixelemente aber bzgl. jeder Basis durch w_i^\*(f(v_j)) definiert, d.h. das Transformationsverhalten der Matrixelemente ergibt sich aus dem kombinierten Transformationsverhalten von Vektoren und Dualvektoren. Da V und W nun verschiedene Vektorräume sind müssen wir natürlich zwei unterschiedliche Transformationsmatrizen S_W und S_V verwenden, sodass sich die Transformationen der Basisvektoren zwischen ungestrichenen und gestrichenen Basen schreiben lassen als w_i^\*=\sum((S_W^(-1))_ik w_k^'\*,k=1,m) v_j=\sum((S_V^t)_jl v_l^',l=1,n)=\sum((S_V)_lj v_l^',l=1,n). Damit ergibt sich für die Matrixelemente die Identität w_i^\*(f(v_j))=\sum(\sum( (S_W^(-1))_ik (S_V^t)_jl w_k^'\*(f(v_l^')),l=1,n),k=1,m) =\sum(\sum( (S_W^(-1))_ik w_k^'\*(f(v_l^')) (S_V)_lj ,l=1,n),k=1,m), d.h. wir finden das Transformationsgesetz M(f)\.\small\ array(\calB_W;\calB_V) \normal = S_W^(-1) M(f)\.\small\ array(\calB_W^';\calB_V^') \normal S_V. Dieses Transformationsgesetz hätten wir sogar erraten können, denn eigentlich ist es der einzig sinnvolle Ausdruck, den wir aufschreiben können; auf der linken Seite der Gleichung wird ein Spaltenvektor bzgl. \calB_V angenommen und es wird f(v) als Spaltenvektor bzgl. \calB_W ausgegeben. Die rechte Seite muss dasselbe bewerkstelligen. Damit die Abbildungsmatrix bzgl. der gestrichenen Basen aktiv werden kann, muss jedoch die Spaltendarstellung von v bzgl. \calB_V in eine bzgl. \calB_V^' umgerechnet werden. Wir betonen nochmals, dass sich dadurch der Vektor NICHT ändert. Anschließend wird abgebildet und mit S_W^(-1) zurücktransformiert. Insbesondere sehen wir also sofort ein, dass S_V = M(id)\.\small\ array(\calB_V^';\calB_V) \normal gilt, da S_V den Vektor als abstraktes Objekt nicht ändert. Die Matrix S_V ist die darstellende Matrix der identischen Abbildung id_V :V->V, wobei man verschiedene Basen für V gewählt hat. Auf der Ebene abstrakter Abbildungen haben wir natürlich nur eine Trivialität konstatiert: f = id_W \circ f \circ id_V. Alles in allem ergibt sich also die mnemotechnisch äußerst vorteilhafte Identität \frameon M(f)\.\small\ array(\calB_W;\calB_V)\normal = M(id)\.\small\ array(\calB_W;\calB_W^')\normal M(f)\.\small\ array(\calB_W^';\calB_V^')\normal M(id)\.\small\ array(\calB_V^';\calB_V). \frameoff Für den Kenner weisen wir überdies noch darauf hin, dass wir an dieser Stelle bereits die Isomorphie Hom(V,W)~= V^\*\otimes W zu Gesicht bekommen haben.

Bilinearformen

Kommen wir nun zu den letzten Objekten, deren Transformationsverhalten wir besprechen wollen, den Bilinearformen. Dabei handelt es sich bekanntlich um Abbildungen \phi: V\times V->\IR; (v,w)\mapsto \phi(v,w), die in jeder Komponente linear sind. Solche Abbildungen sind keineswegs abwegig, sondern tauchen in der Physik ständig auf, wenngleich sie in der Literatur selten als solche identifiziert werden: bereits dem Hörer von Physik I ist der Trägheitstensor I in Matrixform ein Begriff, der die Bilinearform der kinetischen Energie induziert gemäß E_rot = \omega^T I \omega. Wie auch das Standardskalarprodukt kann man ihn dazu verwenden, um Vektoren \(hier: die Winkelgeschwindigkeit) in Dualvektoren \(den Drehimpuls) umzurechnen: L=I\omega. Man kann ihn also auch als Abbildung I:V\mapsto V^\* auffassen und im Grunde genommen ist es exakt diese Eigenschaft, die einen sinnvollen kanonischen Begriff von "Symmetrie" liefert: I heißt symmetrisch, wenn für alle v,w\in V gilt I(v)(w)=I(w)(v). Für lineare Abbildung ist dieser Begriff sinnlos. Nach diesem kurzen Exkurs definieren wir die darstellende Matrix von \phi, die man häufig Gram'sche Matrix nennt. Setzen wir Komponentendarstellungen v=\sum(\lambda_i v_i,i=1,n) und w=\sum(\mue_j v_j,j=1,n) bzgl. der Basis \calB_V in die Abbildung ein, so ergibt sich \phi(v,w)=\sum( \lambda_i \phi(v_i,v_j) \mue_j,(i,j)=1,n), sodass wir \phi(v,w) = (\lambda_1 ,..., \lambda_n)_\calB \Phi_\calB (\mue_1;\vdots;\mue_n)_\calB | |=(\lambda_1;\vdots;\lambda_n)_\calB^t \Phi_\calB (\mue_1;\vdots;\mue_n)_\calB mit einer Matrix (\Phi_\calB)_ij = \phi(v_i,v_j) schreiben können. Das Transformationsverhalten ist nun kein Geheimnis mehr, denn wir kennen ja das Transformationsverhalten von Spaltenvektoren. Einsetzen von (\lambda_1^';\vdots;\lambda_n^')_(\calB^') =S(\lambda_1;\vdots;\lambda_n)_\calB ergibt sofort \phi(v,w) = (\lambda_1^' ,..., \lambda_n^')_(\calB^') (S^(-1))^t \Phi_(\calB) S^(-1) (\mue_1^';\vdots;\mue_n^')_(\calB^') oder auf Matrixebene \frameon \Phi_(\calB) = S^t \Phi_\calB^' S. \frameoff Dass man in der physikalischen Literatur häufiger mit der Transformation \red \Phi_(\calB) = S^(-1) \Phi_\calB^' S irregeführt wird liegt daran, dass ein zweite Bilinearform \phi_2 \(meist das Standardskalarprodukt) im Spiel ist und man zwischen Orthonormalbasen bzgl. \phi_2 transformiert, sodass die Zielbasis auch eine Orthogonalbasis bzgl. \phi ist. In diesem Fall sind die Transformationsmatrizen orthogonal und die Matrizen S^t und S^(-1) fallen zusammen. Eine solche Transformation heißt Hauptachsentransformation. Zuletzt sei hier wieder auf die Isomorphie Bil(V,V)~=V^\*\otimes V^\* hingewiesen, die hinter unseren Ergebnissen steckt.

Ko- und kontravariant oder: wie führt man Indexschlachten?

Einstein'sche Summenkonvention? Nach den besten Leuten sind häufig die dümmsten Sachen benannt. Hartmut Wiebe

\ Nach dem Aufschlagen eines Buchs über Relativitätstheorie kann einem zartbesaiteten Studenten schwindlig werden und den Mathematiker packt der Fluchtinstinkt, so viele hoch- und tiefgestellte i,j,k,l sowie hier und dort mal ein Komma oder Semikolon bekommt er zu sehen. Wir wollen hier zumindest in unserem linear-algebraischen Umfeld für ein wenig Klärung sorgen. Zunächst ist folgendes zu sagen: Physiker verstehen, wenn sie von den oben betrachteten Objekten sprechen, darunter nie die Objekte selbst, sondern stets deren Komponenten bzgl. einer Basis. Soll heißen: wenn Physiker von "dem Vektor" \lambda^i sprechen, dann meinen sie, dass sie eine Basis menge(v_1,...,v_n) fixiert haben und eigentlich über den Vektor \sum(\lambda^i v_i,i=1,n) sprechen möchten. Mit dem hochgestellten Index soll ausgedrückt werden, dass sich die Zahlen \l^i transformieren wie die Komponenten eines Vektors, was dann kontravariant genannt wird. Zu allem Überfluss wird dann auch noch behauptet, dass sich der Vektor kontravariant transfomiere, obwohl es ja seine Komponenten sind, die sich unter einem Basiswechsel kontravariant (d.h. mit dem oben eingeführten S) transformieren. Die Basisvektoren selbst transformieren sich, wie wir oben festgestellt haben, mit S^(-1)^t, was kovariantes Verhalten genannt wird und zu tiefgestellten Indizes führt. Mit dieser Schreibweise ist dann noch ein weitere Fußangel verbunden: über doppelt vorkommende \(und genaugenommen direkt nebeneinander zu schreibende) hoch- und tiefgestellte Indizes wird automatisch summiert, was als Einstein'sche Summenkonvention bekannt ist. Wir schreiben also x^'j = S^j\.\void_i \l^i . Dabei ist stets daran zu denken, dass alle vorkommenden Objekte Zahlen sind, also beliebig verschoben werden können. Die Komponenten eines Dualvektors \theta=\alpha_i v^\*i transformieren sich gemäß \alpha_j^' = \alpha_i (S^(-1))^i\.\void_j = (S^(-1)^t)_j^i \alpha_i, wobei wir die Konvention A_j^i=(A^t)^i\.\void_j eingeführt haben. Die Invarianz eines Vektors unter Basistransformationen liest sich in diesem Kalkül als v = \l^i v_i | | = \l^i \delta_i^j v_j=\l^i (S^t)_i^k ((S^(-1))^t)_k^j v_j | | = S^k\.\void_i \l^i ((S^(-1))^t)_k^j v_j = \l^'k v_k^'. Wesentlich schlimmer wird es bei linearen Abbildungen. Betrachten wir der Einfachheit halber eine solche von V nach V und bezeichnen die Abbildungsmatrix mit A, so erhalten wir mit genügend Ausdauer A^i\.\void_j \l^j v_i = A^i\.\void_j \delta^j\.\void_l \l^l \delta_i^n e_n | | = A^i\.\void_j (S^(-1))^j\.\void_k S^k\.\void_l \l^l (S^t)_i^m (S^(-1)^t)_m^n v_n | | = S^m\.\void_i A^i\.\void_j (S^(-1))^j\.\void_k S^k\.\void_l \l^l ((S^(-1))^t)_m^n v_n | | = A^'m\.\void_l \l^'l v^'\.\void_m. All diesen indexbehafteten Größen ist gemein, dass sie die Komponenten von Objekten sind, die man Tensoren nennt. Sehr einfach gesprochen lässt sich zu Vektorräumen V_1,...,V_k mit Basen \calB_(V_i) = menge(v_i1,...,v_id_i) und Dimensionen d_i=dim(V_i) ein Vektorraum V_1\otimes\cdots\otimes V_k konstruieren, dessen Basis menge(v_1j_1 \otimes\cdots\otimes v_kj_k| 1<= j_i <= dim V_i) ist. Die Vektoren dieses Vektorraums haben die wesentliche Eigenschaft, dass das Tensorproduktsymbol \otimes durchlässig ist für Zahlen. Eine lineare Abbildung f:V->W mit Matrixdarstellung A bzgl. der Basen menge(v_1,...,v_n) und menge(w_1,...,w_m) lässt sich, wie oben bereits kurz erwähnt, auch als Tensor in V^\*\otimes W auffassen: f=A^i\.\void_j v^j\* \otimes w_i. Setzt man nun hier das Transformationsverhalten der (dualen) Basisvektoren ein, so erhält man aus der Invarianzforderung wieder sofort das Transformationsverhalten der Koeffizienten - die Matrixelemente sind wegen der Durchlässigkeit von \otimes gewissermaßen mobil und können beliebig verschoben werden. Auch hier sei wieder vor einer Unstimmigkeit gewarnt: das Element aus dem Tensorprodukt heißt Tensor, während die physikalische Literatur fälschlicherweise die Komponenten als Tensor bezeichnet. Nun gehen wir kurz auf das allgegenwärtige "Indexziehen" ein. Hierzu benötigen wir eine nicht-ausgeartete Bilinearform \phi:V\times V->\IR; wir nehmen der Einfachheit halber ein Skalarprodukt braket(-,-). Hält man eine der Komponenten fest, indem man einen Vektor v einsetzt, so erhält man eine lineare Abbildung braket(v,-) : V->\IR, w\mapsto braket(v,w), d.h. einen Dualvektor \(dies ist die aus der Quantenmechanik bekannte Bra-Ket-Korrespondenz). Ist menge(e_1,...,e_n) eine Orthonormalbasis von V, d.h. gilt braket(e_i,e_j)=\delta_ij, so liefert uns die Abbildung braket(v,-) die Dualbasis menge(e^1,...,e^n) in kanonischer Weise: es gilt ja einfach e^i = braket(e_i,-). Das Adjektiv kanonisch ist hier wirklich entscheidend! Wir können ohne Skalarprodukt zwar stets die Dualbasis über e^i(e_j)=\delta_ij definieren; hierbei ist allerdings zu beachten, dass ein einzelner Dualvektor von ALLEN Basisvektoren abhängt. Diese Abhängigkeit ist in der neuen Situation durch die Existenz des Skalarprodukts verschwunden, d.h. e^i hängt tatsächlich nur von e_i ab. Ist nun \Phi die Matrixdarstellung von braket(-,-) , so gilt braket(v,w)=v^i \Phi_ij w^j =: v_j w^j. Dabei haben wir rechts den zu v=v^i e_i dualen Vektor v_j e^j definiert, wobei konsequenterweise v_j vollständig durch v^j definiert ist. In der Praxis lässt man bekanntlich auch allgemeinere Bilinearformen zu: in der speziellen Relativitätstheorie betrachtet man die sog. Minkowskimetrik, die in einer gewählten Basis \calB von \IR^4 durch die Matrix diag(1,-1,-1,-1) induziert wird. Aus dem Vektor (v^0;v^1;v^2;v^3)_\calB wird dann durch Indexziehen der Dualvektor (v_0 ,v_1 , v_2 ,v_3)_(\calB^\*) = (v^0 ,-v^1 ,-v^2 ,-v^3)_(\calB^\*). In der allgemeinen Relativitätstheorie wird die Situation noch etwas vertrackter: man arbeitet nicht auf Vektorräumen als Modell für die Raumzeit, sondern auf semi-Riemann'schen Mannigfaltigkeiten M. In jedem Tangentialraum T_p M gibt es eine Bilinearform g_p mit derselben Signatur wie die Minkowskimetrik und diese Bilinearformen "passen alle zusammen", d.h. g_p hängt glatt von p ab. Nachdem man M mit Karten überdeckt und damit lokale Koordinaten gewählt hat, kann man zumindest lokal wieder auf obige Vorstellungen zurückgreifen; man macht sich hier die Sichtweise zunutze, dass M lokal "so aussieht wie \IR^4". Die Tensoren sind natürlich als Schnitte von entsprechenden Tensorbündeln über M aufzufassen und die vielleicht wesentlichste Komplikation ergibt sich aber aus der Tatsache, dass man auf Mannigfaltigkeiten die (Ko-)Tangentialräume in benachbarten Punkte nicht naiv vergleichen kann, sodass die Übertragung der aus der Schule bekannten Differentialrechnung nicht ohne weiteres funktioniert. Mit diesem kleinen Exkurs möchte ich den Artikel in der Hoffnung schließen, dass vor allem die Physiker profitiert haben - vielleicht sogar ein paar ältere Semester, denen Matrixdarstellungen in der Quantenmechanik, die Bra-Ket-Korrespondenz und vielleicht auch die Hauptachsentransformation des Trägheitstensors nie so ganz geheuer waren.
\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfpdf-Datei zum Artikel öffnen, 253 KB, vom 13.04.2021 20:52:59, bisher 40 Downloads


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Lineare Algebra :: automatisch eingefügt und unbearbeitet :
Transformationsverhalten (und etwas mehr) für Physiker [von DanielW]  
In diesem Artikel möchte ich über das Transformationsverhalten von Objekten aus der linearen Algebra am Beispiel von Vektoren, Dualvektoren, linearen Abbildungen und Bilinearformen sprechen und im Anschluss noch kurz an die in der physikalischen Literatur omnipräsenten Basisdarstellungen von Tensore
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 17137
 
Aufrufstatistik des Artikels
Insgesamt 622 externe Seitenaufrufe zwischen 2012.01 und 2021.10 [Anzeigen]
DomainAnzahlProz
https://matheplanet.com40.6%0.6 %
https://google.com254%4 %
https://google.de6410.3%10.3 %
http://forum.technische-physik.at13521.7%21.7 %
http://google.de25440.8%40.8 %
http://www.physik.uni-kl.de7612.2%12.2 %
http://google.com91.4%1.4 %
https://duckduckgo.com81.3%1.3 %
http://send-to-computer.appspot.com40.6%0.6 %
http://google.ch40.6%0.6 %
https://www.startpage.com30.5%0.5 %
http://www-user.rhrk.uni-kl.de50.8%0.8 %
https://www.bing.com20.3%0.3 %
http://avira.search.ask.com20.3%0.3 %
https://www.ecosia.org30.5%0.5 %
http://ecosia.org10.2%0.2 %
http://suche.t-online.de61%1 %
http://www.bing.com61%1 %
http://www.ecosia.org20.3%0.3 %
http://technische-physik.at10.2%0.2 %
http://www.technische-physik.at20.3%0.3 %
https://www.qwant.com10.2%0.2 %
http://du101w.dub101.mail.live.com10.2%0.2 %
https://getpocket.com10.2%0.2 %
http://de.search.yahoo.com10.2%0.2 %
http://www.bibsonomy.org10.2%0.2 %
http://r.duckduckgo.com10.2%0.2 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 9 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2021.10.21 20:18viewtopic.php?topic=192863
2021.10.13-2021.10.21 (3x)viewtopic.php?topic=169374
2021.10.05-2021.10.20 (5x)https://google.com/

Häufige Aufrufer in früheren Monaten
Insgesamt 545 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2014-2016 (128x)http://forum.technische-physik.at/viewtopic.php?f=186&t=3850
2012-2016 (98x)http://google.de/url?sa=t&rct=j&q=
2012-2016 (74x)http://www.physik.uni-kl.de/rethfeld/tutorium.php?header_size=big
2012-2013 (41x)http://google.de/url?sa=t&rct=j&q=transformationsverhalten
2020-2021 (38x)https://google.de/
2020-2021 (25x)https://google.de
201201-03 (21x)http://google.de/url?sa=t&rct=j&q=wie transformieren sich komponenten unter e...
201506-06 (21x)http://google.de/url?sa=t&rct=j&q=transformationsverhalten und etwas mehr fur...
2020-2021 (19x)https://google.com/
201205-05 (12x)http://google.de/url?sa=t&rct=j&q=v,v*, phi, phi*,dualraum
201302-02 (9x)http://google.de/url?sa=t&rct=j&q=transformationsverhalten matrix
2015-2017 (9x)http://google.com/search
201307-07 (7x)http://google.de/url?sa=t&rct=j&q=verhalten abbildungen koordinatentransforma...
201305-05 (7x)http://google.de/url?sa=t&rct=j&q=danielw mathe physik
2020-2021 (6x)https://duckduckgo.com/
201406-06 (5x)http://google.de/url?sa=t&rct=j&q=wozu sind dualvektoren sinnvoll
201310-10 (5x)http://google.de/url?sa=t&rct=j&q=dualvektoren als zeilenvektoren
201405-05 (4x)http://send-to-computer.appspot.com/me?browser=685167729247
201211-11 (4x)http://google.de/url?sa=t&rct=j&q=transformieren von objekten physik
201204-04 (4x)http://google.de/url?sa=t&rct=j&q=bra-ket beispiel darrstellungsmatrix
201208-08 (4x)http://google.de/url?sa=t&rct=j&q=transformationsverhalten (und etwas mehr) f...
2016-2017 (4x)http://google.ch/url?sa=t&rct=j&q=

[Top of page]

"Mathematik: Transformationsverhalten (und etwas mehr) für Physiker" | 9 Comments
The authors of the comments are responsible for the content.

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: gaussmath am: Sa. 21. Mai 2011 17:08:14
\(\begingroup\)Jetzt haust du es aber raus! 😁 \(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: Gockel am: Sa. 21. Mai 2011 20:48:26
\(\begingroup\)Wenn ich nichts übersehen habe, fehlt der wichtigste Punkt von allen aber hier im Artikel. Was ist dieser Punkt? Frei nach Sun Tzu etwa "Schlage nur die (Index)Schlachten, die du auch gewinnen kannst" oder etwas weniger poetisch: Am besten ist, man verzichtet auf dieses Koordinatengerechne, wann immer man kann! Basisfrei zu argumentieren liefert in allen Fällen übersichtlichere, elegantere und auch einfach mit mehr Einsicht verbundene sowie in fast allen Fällen auch kürzere Beweise. mfg Gockel.\(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: DanielW am: So. 22. Mai 2011 00:57:32
\(\begingroup\)Du hast natürlich vollkommen recht mit dieser Bemerkung. Dennoch lässt es sich in Anwendungssituationen (d.h. nicht in Beweisen, sondern in konkreten Rechnungen) oft nicht vermeiden, zu Koordinatendarstellungen überzugehen und du würdest dich vielleicht wundern, wie viele Studenten der Natur- und Ingenieurwissenschaften keinerlei Verständnis für die in diesem Artikel erläuterten Zusammenhänge haben und nicht einmal präzise sagen können, was so ein Spaltenvektor sein soll. Gerade auf die Beseitigung dieser Probleme habe ich abgezielt und dabei einen Zugang über den "gesunden Menschenverstand" gewählt.\(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: briefkasten am: So. 22. Mai 2011 12:38:04
\(\begingroup\)Danke Daniel für den Artikel, er ist für mich sehr hilfreich 😄 \(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: Redfrettchen am: So. 22. Mai 2011 22:49:45
\(\begingroup\)Hallo Daniel, ein schöner Artikel, auch wenn ich mich sehr ungerne mit Basistransformationen herumschlage. Zwei Anmerkungen: Im Abschnitt "Vektoren": (\lambda_1^';\vdots;\lambda_n^')_(\calB^') =S(\lambda_1;\vdots;\lambda_n)_\calB sollte (\lambda_1^';\vdots;\lambda_n^') =S(\lambda_1;\vdots;\lambda_n) heißen, denn man spricht ja hier wirklich über die Zahlenvektoren. Das passiert sehr häufig im Artikel, plötzlich werden Matrizen auf (abstrakte) Vektoren angewendet. Wahrscheinlich ist das nicht so gemeint, aber ich finde es verwirrend. Im Abschnitt "Dualvektoren" benutzt du für die ersten drei auftauchenden Summen (sowie der fünften) durchweg den falschen Index j, der durch k ersetzt werden muss. Viele Grüße, Thomas\(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: gaussmath am: Mo. 23. Mai 2011 08:43:27
\(\begingroup\)@Redfrettchen: Ich meine, es sind keine Zahlenvektoren(Koordinaten). Die Bezeichnung mit den Lambdas ist nicht ganz passend.\(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: DanielW am: Mo. 23. Mai 2011 10:06:19
\(\begingroup\)Ihr habt recht, dass dieser Punkt mathematisch nicht 100% sauber ist - aber das so etwas vorkommen kann, habe ich ja einleitend gesagt respektive entschuldigt. Es ist zumindest unsere Erfahrung, dass die Studenten es sich auf diese Weise einigermaßen merken können. Im Rahmen des Artikels könnte man die Basisindizes weglassen - es handelt sich bei den Matrixmultiplikationen natürlich um Zahlenvektoren - und allein an den (un)gestrichenen Einträgen erkennen, was gemeint ist. Sobald dort aber "konkrete Zahlen", wie die Studenten sagen, stehen, weiß am Ende keiner mehr, bzgl. welcher Basis er seine Spaltendarstellung meint. Es ist also eine zumindest lokal erprobte Gedächtnisstütze um jederzeit zu wissen, was wo zu stehen hat.\(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: Ex_Mitglied_40174 am: So. 09. September 2012 15:13:32
\(\begingroup\)Danke für den Artikel. Für mich als Physiker in meiner ersten Relativistik-Vorlesung sehr hilfreich! Auf in die Indizes-Schlacht! \(\endgroup\)
 

Re: Transformationsverhalten (und etwas mehr) für Physiker
von: matroid am: Di. 13. April 2021 20:54:21
\(\begingroup\)Von einem Leser, dem dieser Artikel sehr gut weitergeholfen hat, habe ich eine pdf-Version des Artikels erhalten. Diese habe ich hier wunschgemäß hochgeladen. Vielen Danke Gruß Matroid\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2021 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]