Mathematik: Alternierende Multilinearformen
Released by matroid on Mi. 09. April 2008 20:35:33 [Statistics]
Written by Mentat - 30691 x read [Outline] Printable version Printer-friendly version -  Choose language   
Analysis

\(\begingroup\)
[AG] Globale Analysis

Globale Analysis

Kapitel 1: Differentialformen



Abschnitt 1: Multilineare Algebra


Hermann GrassmannHermann Grassmann In diesem und den folgenden Artikeln wollen wir die Grundlagen legen für das Rechnen mit Differentialformen und ihre Anwendungen in der Integrationstheorie auf Mannigfaltigkeiten, wobei wir hoffen, einmal bis zum Satz von Stokes zu kommen. Wir konstruieren zunächst die Graßmann-Algebra auf Vektorräumen mithilfe des Dachprodukts und stellen dann erstmal die wichtigsten Rechenregeln zusammen, bevor wir uns in höhere Gefilde aufmachen. Einige der Beweise sind sehr rechenintensiv, sie werden daher von Dozenten oft einfach weggelassen.

Wozu braucht man nun aber alternierende Formen? Ich gebe zu, die Motivation ist hier nicht ganz einfach, erstmal hält man das ganze Konzept für vollkommen unnatürlich und abstrakt, später wundert man sich aber, wie häufig es gebraucht wird. Und ist es nicht das, was einem in der Mathematik ständig begegnet? Gut, wüsste man nicht, wozu die alternierenden Formen da sind, wäre dies hier alles 'abstract nonsense', aber auch dieser kommt in der Mathematik häufig genug vor und zu Recht, wie ich finde. Schließlich war die Entwicklung der Differentialformen nicht möglich ohne alternierende Formen, auch wenn jene mehrere Jahrzehnte später entstanden.
Wenn man in der Physik lernt, dass die N-Teilchen-Wellenfunktion von Fermionen antisymmetrisch ist, stecken da ganz ähnliche Konzepte wie bei den alternierenden Formen hinter. Aus zunächst unabhängigen Einteilchenwellenfunktionen bildet man zunächst abstrakt das Tensorprodukt und macht es mittels der Slater-Determinante antisymmetrisch. Genau das gleiche tut das im Text vorgestellte Dachprodukt mit zwei alternierenden Formen.
Wir fangen natürlich wie immer ganz elementar an und setzen nur LA1-Kenntnisse voraus. Insbesondere ist kein Wissen über Tensoren nötig, da wir versuchen wollen, ohne die allgemeine Konstruktion des Tensorproduktes auszukommen. Dies macht es unter anderem nötig, dass wir uns auf den Dualraum zu V beschränken müssen. Auch wenn dieser Artikel praktisch gar nichts mit Analysis zu tun hat, so soll er doch der erste Teil unserer Reihe über Differentialformen sein und wir haben ihn daher der Analysis zugeordnet.

Vorkenntnisse: LA1, insbesondere Dualräume, Permutationsgruppen


Inhaltsverzeichnis:

1.0 Der Dualraum

Wir wollen vorab nochmal an den Begriff des Dualraums zu einem Vektorraum erinnern, da dieser die Motivation zu den multilinearen Abbildungen liefert.
Sei also \IK ein Körper und V ein \IK-Vektorraum. Dann ist der Dualraum zu V definiert durch: V^\* :={f:V\to \IK \| f linear} \big\blue Behauptung: \ll(i) V^\* ist wieder ein Vektorraum \ll(ii) Falls V endlichdimensional ist, so ist V zu V^\* isomorph.
\big\blue Beweis: i) Es ist V^\* \subset Abb(V,\IK) es muss also nur Abgeschlossenheit unter Addition und Skalarmultiplikation nachgeprüft werden. Summen linearer Funktionen sind aber wieder linear. Gleiches gilt für skalare Multiplikation. Näher will ich darauf gar nicht eingehen. ii) Sei also V n-dimensional. Wir geben eine Basis zu V^\* an: Falls e_1, ..., e_n eine Basis von V ist, so kann man für alle 1<=j<=n eine Abbildung e^j \in V^\* definieren: e^j(e_i):=e_j^\*(e_i):=\delta_(ij)=cases(1,i=j;0,sonst) für 1<=i<=n. Da eine lineare Abbildung durch die Bilder der Basiselemente vollständig definiert ist, ist damit die Abbildung e^j wohldefiniert. Sei weiterhin f\in V^\* beliebig und fest. Dann gilt für alle v=(v_1,...,v_n)^t \in V: f(v)= \sum(f(e_i)*e^i(v),i=1,n). Damit sind die (e^j)_(1<=j<=n) ein Erzeugendensystem. Unter anderem gilt allgemein: e^i(v)=v_i. Damit ist also e^i nichts anderes als die Projektion auf die i-te Komponente. e^i ist somit nichts anderes als ein Projektor. Dass die e^1,...,e^n linear unabhängig sind, mag der Leser selbst nachprüfen. (Übungsaufgabe.) Man nennt (e^j)_(1<=j<=n) auch die duale Basis. Somit ist auch V^\* n-dimensional.

1.1 Multilineare Abbildungen

Zu den Multilinearen Abbildungen wollen wir hier nur das wichtigste sagen, das Übrige ist nämlich schon alles hier von Gockel getan worden. Wir beschränken uns hier auf endliche Tensorprodukte und betrachten später nur noch Abbildungen in den Grundkörper. Sei \IK ein Körper und sei k \in \IN (k!=0). Sei V_i (1<=i<=k) eine Familie von Vektorräumen über \IK und W ein \IK-Vektorraum. Betrachte dann das cartesische Produkt \frakV:=produkt(V_i,i=1,k). Wir nennen nun eine Abbildung f:\frakV \to W multilinear, wenn sie linear in jeder Komponente von \frakV ist. Das heisst, wenn für alle 1<=j<=k und alle \a,\b \in \IK gilt: f(v_1,...,v_(j-1), \a v_j+ \b (v^~)_j, v_(j+1),...,v_k) =\a f(v_1,...,v_(j-1), v_j, v_(j+1),...,v_k) +\b f(v_1,...,v_(j-1), (v^~)_j, v_(j+1),...,v_k) Das sieht jetzt vielleicht auf den ersten Blick erschlagend aus, die Idee ist aber eigentlich simpel: \(Man betrachtet die Abbildung bei Festhalten aller Variablen bis auf einer als lineare Abbildung von dieser Variablen.\) Für alle j soll die Abbildung v\mapsto f(v_1, ..., v_(j-1), v , v_(j+1), v_k) linear sein, wenn man die übrigen k-1 Variablen festhält. Man könnte nun noch \frakV mit einer Tensorstruktur versehen, aus ökonomischen Gründen wollen wir jedoch direkt den Raum der Multilinearformen über einem \IK-Vektorraum V betrachten. Sei dazu V_1:=...:=V_k:=V und sei W:=\IK.
\big\blue Definition: Dann nennen wir Mult^k(V^\*):= menge(f:\frakV \to \IK \| f multilinear) den Raum der k-linearen Formen über V. Diese Menge ist wieder ein \IK-Vektorraum.
Den Fall k=0 wollen wir per Konvention durch Mult^0(V^\*)=\IK hinzunehmen. In diesem Fall gibt es keinen Definitionsbereich, wir können also gefahrlos von Multilinearität sprechen. Trotzdem muss darauf hingewiesen werden, dass es sich dabei um eine reine Konvention handelt. Falls k=1, so erhält man mit Mult^1(V^\*) wieder V^\*, den Dualraum zu V. Es gilt allgemein: dim (Mult^k(V^\*))=(dim V^\*)^k=(dim V)^k (ohne Beweis, das wollte ich immer schon mal schreiben) Außerdem wollen wir noch eine nützliche Abbildung erklären, diese ist zwar wiederum ein Spezialfall des Tensorproduktes, es wird jedoch kein Vorwissen über Tensoren vorausgesetzt.
\big\blue Definition: Sei f \in Mult^k(V^\*) und g \in Mult^m(V^\*). Dann wollen wir ein assoziatives äußeres Produkt f \otimes g \in Mult^(k+m)(V^\*) erklären durch (f \otimes g)(v_1,...,v_(k+m)) :=f(v_1,...,v_k)*g(v_(k+1),...,v_(k+m)). 1\in Mult^0(V^\*) ist neutrales Element.
\big\blue Beweis: (Wohldefiniertheit:)__ Hält man alle Variablen bis auf ein v_i fest, so ist einer der Faktoren ein konstanter Koeffizient und der andere ist eine lineare Abbildung von dieser Variablen. Damit ist auch das Produkt wiederum eine lineare Abbildung von dieser Variablen und somit ist f \otimes g eine Multilineare Abbildung.\bigbox Das \otimes Produkt selbst ist wiederum bilinear__, da es linear in der Komponente f und linear in der Komponente g ist. Die Assoziativität__ folgt direkt aus dem Assioziativgesetz in \IK. \bigbox Ein (neutrales Element)__ für dieses Produkt ist durch 1\in Mult^0 (V^\*) gegeben. Für f\in Mult^k (V^\*) beliebig folgt nämlich (1\otimes f)(v_1,..,v_k) =1*f(v_1,..,v_k) =f(v_1,..,v_k)\bigbox \big Beispiele: Für k=2 und \IK=\IR ist das Skalarprodukt eine solche Multilineare Abbildung, es ist nach Definition schließlich bilinear. Man sieht also, dass bilineare Abbildungen (k=2) und trilineare Abbildung (k=3) Spezialfälle der Multilinearformen sind. Für N=dim V ist die Determinante (als Abbildung von den Zeilen bzw. Spalten einer Matrix aufgefasst) ebenfalls eine solche Multilinearform. Sie hat aber noch eine weitere Eigenschaft: Bei Vertauschen zweier Zeilen bzw. Spalten ändert sie ihr Vorzeichen. Man sagt, sie ist alternierend. Und das bringt uns auch schon zum nächsten Thema.

1.2 Alternierende Multilinearformen

define(lam, \L^k(V^\*)) Waren die Multilinearformen noch sehr allgemein, so wollen wir jetzt zu einem speziellen Unterraum übergehen. Wir wollen allgemein die Eigenschaft der Determinante untersuchen, unter gewissen Operationen (Vertauschungen) das Vorzeichen zu wechseln, und geben zu diesem Zweck zunächst noch einmal eine präzise Definition dieses Begriffs: Sei ab jetzt char(\IK)!=2. Das heißt, wir wollen solche Körper ausschließen, in denen 1+1=0 gilt. Diese Forderung stellen wir, um wie gewohnt durch 2 teilen zu dürfen. Weiterhin betrachten wir nur noch solche f\in Mult^k(V^\*), die bei Vertauschen zweier Komponenten ihr Vorzeichen wechseln, also solche f, für die gilt: \light\blue f(v_1,...,v_i,..., v_j,...,v_k)=-f(v_1,...,v_j,...,v_i,...,v_k) für alle i!=j. Diese Abbildungen f nennen wir \stress schiefsymmetrisch.
\big\blue Korollar 1.1: Für schiefsymmetrische Abbildungen f gilt: Falls v_i=v_j mit i!=j => f(v_1,...,v_k)=0, da char(\IK)!=2 Diese Eigenschaft heißt \stress alternierend.
define(lam, \L^k(V^\*)) Wir werden sehen, dass umgekehrt alternierend immer schiefsymmetrisch impliziert. \big\blue Beweis zu 1.1: Es folgt für f schiefsymmetrisch f(v_1,...,v_k)=-f(v_1,...,v_k), da Vertauschen von v_i und v_j nichts ändert. =>f(v_1,...,v_k)+f(v_1,...,v_k)=0=>2*f(v_1,...,v_k)=0=>f(v_1,...,v_k)=0 (Hier muss es erlaubt sein, durch 2 zu teilen, sonst ist diese Aussage falsch.) \bigbox \
define(lam, \L^k(V^\*)) Die Menge der alternierenden Multilinearformen bezeichen wir mit \stress \lam. Trivialerweise gilt \lam \subseteq Mult^k(V^\*).
Auch hier wollen wir per Konvention wieder \L^0 (V^\*):=\IK setzen. Wir können auch hier wieder gefahrlos von alternierend sprechen, da kein Definitionsbereich existiert, an den Anforderungen gestellt werden müssten. Auch dies ist aber wiederum eine reine Konvention. Für Mult^1 (V^\*) ist die Eigenschaft, alternierend zu sein, immer erfüllt, da keine zwei verschiedenen Indizes existieren. define(lam, \L^k(V^\*)) Wir wollen zeigen, dass \lam wieder ein Vektorraum ist. Insbesondere ist \lam als Unterraum wieder endlichdimensional. \big\blue Beweis: Seien also f,g \in \lam und \a,\b \in \IK beliebig. Dann ist (\a*f+\b*g)(v_1,...,v_i,...,v_j,...v_k) =\a*f(v_1,...,v_i,...,v_j,...v_k)+\b*g(v_1,...,v_i,...,v_j,...v_k) =\a*(-f(v_1,...,v_j,...,v_i,...v_k))+\b*(-g(v_1,...,v_j,...,v_i,...v_k)) =-\a*f(v_1,...,v_j,...,v_i,...v_k)-\b*g(v_1,...,v_j,...,v_i,...v_k) =-(\a*f+\b*g)(v_1,...,v_j,...,v_i,...v_k) => \a*f+\b*g \in \lam Also ist \L^k(V^\*) abgeschlossen unter Addition und Skalarmultiplikation.\bigbox Die Definition kann leicht auf beliebige Permutationen ausgeweitet werden:
\big\blue Lemma 1.2: Sei f\in Mult^k(V^\*) f alternierend <=> f(v_1,...,v_k)=sign(\s)*f(v_(\s(1)),...,v_(\s(k))) \forall \s \in \S_k also für alle Permutationen von k Elementen und v_1,...,v_k \in V beliebig.
define(lam, \L^k(V^\*)) \big\blue Beweis: "=>" Für jede Transposition \t gilt sign(\t)=-1. Also stimmt die Behauptung für alle Transpositionen. Jede Permutation ist Hintereinanderschaltung von Transpositionen. Außerdem gilt für alle Permutationen \s, \s^~: sign(\s\circle \s^~)=sign(\s)*sign(\s^~) Durch Hinteranderschalten der entsprechenden Transpositionen erhält man jede beliebige Permutation. Daraus folgt die Behauptung. "<==" Die Transpositionen bilden eine Teilmenge der Permutationen. Die Behauptung gilt also insbesondere für alle Transpositionen. Seien 1<=ihier nachlesen.) Ausserdem wollen wollen wir noch ein weiteres Lemma beweisen, das ein wichtiges Kriterium liefert, ob eine alternierende Form die konstante Nullabbildung liefert.
\big\blue Lemma 1.3: Sei f \in Mult^k(V^\*). Dann gilt: f schiefsymmetrisch<=>f(v_1,...v_k)=0 für alle linear abhängigen Vektoren v_1,...,v_k.
define(lam, \L^k(V^\*)) Falls k>dimV, ist also die einzige alternierenden Abbildung die konstante Nullabbildung, da es maximal dimV linear unabhängige Vektoren geben kann. Es gilt also: \lam ~= {0} falls k>n=dim(V). \big\blue Beweis: "=>" Sei f alternierend und seien v_1,...,v_k linear abhängige Vektoren. Dann Gibt es ein v_r mit v_r=summe(\a_i*v_i,i=1 i!=r,k) für geeignete \a_i \in \IK. Daraus folgt: f(v_1,...,v_r,...,v_k) =f(v_1,...,summe(\a_i*v_i,i=1 i!=r,k),...,v_k) =summe(\a_i*f(v_1,...,v_i,...,v_k),i=1 i!=r,k) (Multilinearität) =summe(\a_i*0,i=1 i!=r,k)=0 (Korollar, v_i an Stelle r) "<==" Seien v_1,...,v_k \in V und sei f(v_1,...,v_k)=0 für linear abhängige Vektoren. Dann gilt insbesondere für i!=j beliebig: 0=f(v_1,...,v_i+v_j,...,v_i+v_j,...,v_k), wobei die Summen gerade an i-ter und j-ter Stelle stehen. Dieser Wert ist nach Multilinearität aber gleich 0=f(v_1,...,v_i,...,v_j,...,v_k) +f(v_1,...,v_i,...,v_i,...,v_k) (=0, da linear abhängig) +f(v_1,...,v_j,...,v_i,...,v_k) +f(v_1,...,v_j,...,v_j,...,v_k) (=0, da linear abhängig) =f(v_1,...,v_i,...,v_j,...,v_k) +f(v_1,...,v_j,...,v_i,...,v_k)= 0 Damit folgt f(v_1,...,v_i,...,v_j,...,v_k)=-f(v_1,...,v_j,...,v_i,...,v_k) für i,j beliebig. \squaredot Dies liefert die Umkehraussage zu Korollar 1.1, da zwei gleiche Vektoren immer linear abhängig sind, so erhält man die Umkehraussage zu Korollar 1.1 \bigbox
Da aus Lemma 1.2 und Lemma 1.3 unmittelbar die Definition für alternierende Multilinearformen folgt, hätte man auch diese als Definition verwenden können. \stress Für char(\IK)!=2 sind \blue 1.1, 1.2, 1.3\black zur Definition äquivalent.
Wir haben bis jetzt aber nur Kriterien gesammelt, was alternierende Formen sind. Dabei darf unsere wichtigste Folgerung aber nicht untergehen: Die alternierenden Formen bilden einen Unterraum von Mult^k (V^\*). Wenn wir einen Unterraum haben, ist es eventuell naheliegend, nach einem Projektor zu suchen. \small\blue Kleiner Exkurs zum Projektor: \small Ein Projektor P ist eine lineare Abbildung von einem Vektorraum in einen Unterraum, wobei der Projektor eingeschränkt auf den Unterraum die Identität ist. Ist ein Vektor also schon im Unterraum, so soll der Projektor ihn unverändert lassen. \small Dies ist äquivalent zur Aussage P\kringel P=P. Das sieht einfach aus und erlaubt ein schnelles Prüfkriterium durch Matrizenmultiplikation. Hier jedoch haben wir noch keine Basis, um die Projektoreigenschaft einer Abbildung zu zeigen, müssen wir also auf die ursprüngliche Definition zurückgreifen. Wir wollen den Projektor, den wir suchen, jedoch zunächst konstruieren.\normal
\big\blue Bemerkung 1.4: Sei char(\IK)=0, dann existiert ein Projektor \calF: Mult^k(V^\*)\to \L^k(V^\*), der definiert ist über \calF(f):=1/k! \sum(sign(\s) f_\s,\s \in \S_k). Hierbei sei f_\s (v_1,...,v_k):=f(v_(\s(1)),...,v_\s(k)). Diesen Projektor nennt man \stress Alternator.
define(lam, \L^k(V^\*)) \big\blue Beweis: Wir zeigen zunächst die \blue Wohldefiniertheit: Dass \calF(f) multilinear ist, folgt bereits aus der Tatsache, dass Mult^k(V^\*) ein Vektorraum ist. Seien also nun v_1,...,v_k \in V und 1<=i

1.3 Das Dachprodukt

Sei im folgenden immer char(\IK)=0 und V ein endlichdimensionaler \IK-Vektorraum. Wir wollen uns nun für \big\blue Produkte zwischen alternierenden Formen \normal\black interessieren. Das heisst, wir suchen eine Abbildung \wedge:\L^k(V^\*) \cross \L^l(V^\*) \to \L^(k+l)(V^\*). Können wir nämlich eine solche angeben und zeigen, dass sie bilinear und assoziativ ist, so haben wir eine \big\blue Ringstruktur \normal\black auf \bigop(\oplus,\L^k(V^\*),k=0,\inf). (Genauer haben wir eine graduierte K-Algebra.) Aus Lemma 1.3 folgt insbesondere ein Isomorphismus \bigop(\oplus,\L^k(V^\*),k=0,\inf)~= \bigop(\oplus,\L^k(V^\*),k=0,n), wobei n:=dimV sei, das heisst, die direkte Summe aller alternierenden Formen bildet wieder einen endlichdimensionalen Vektorraum. \light\stress Warnung:\normal \black Es gibt ein kleines Problem mit der Notation: Das große Lambda \L bezeichnet die Menge aller alternierenden Formen, der Keil bzw. das Dach \wedge hingegen bezeichnet ein Produkt. Aus dem Kontext wird immer klar sein, was gemeint ist, für den Anfänger könnten diese ähnlichen Symbole jedoch evtl. für etwas Verwirrung sorgen. Man kann sich aber merken, dass zum Lamda \L immer ein Exponent der Art \L^k (V^\*) gehört. Im Folgenden stelle ich zwei Definitionen des \wedge-Produktes vor, die allgemein üblich sind. Im Endeffekt kann man sie aber getrost vergessen, sobald man die wichtigsten Rechenregeln geklärt hat. Dies wollen wir im Anschluss tun. \small Manchmal fordert man auch einfach nur ein äußeres Produkt, das gerade den Regeln des \wedge-Produktes genügt und zeigt dann die Eindeutigkeit. Wir wollen jedoch 'zu Fuss gehen' und das \wedge- Produkt Schritt für Schritt entwickeln.\normal Auf folgende Art und Weise wird das \wedge-Produkt üblicherweise erklärt. Diese Definition ist zwar effektiv, da sie wenig Vorkenntnisse benötigt, ihre Motivation ist jedoch nicht unmittelbar einsichtig. Wir wollen daher einen anderen Weg gehen. \stress Warnung: Die folgende Definition ist unanschaulich.
\big\red Definition: \black Für f\in \L^k (V^\*) und g \in \L^m (V^\*) und v_1,...,v_(k+m)\in V beliebig erklären wir: (f\wedge g)(v_1,...,v_k,v_(k+1),...,v_(k+m)) :=1/k!m! \sum(sign(\s)*f(v_(\s(1)),...,v_(\s(k)))*g(v_(\s(k+1)),...,v_(\s(k+m))),\s \in \S_(k+m),) wobei \S_(k+m) wie üblich die Permutationsgruppe bezeichnet.
Als ich diese Definition zum ersten Mal gesehen habe, konnte ich mir überhaupt nichts darunter vorstellen. Wir konstruieren daher eine \stress alternative Definition:
\big\blue Definition: (f \wedge g):=(k+m;k) \calF(f \otimes g) mithilfe des Alternators \calF.
Dass beide Definitionen äquivalent sind, sieht man sofort, wenn man die Definition von \calF einmal ausschreibt, nur die Struktur wird jetzt vielleicht etwas klarer. Was ist also die Idee dieser Definition? Wir nehmen zwei alternierende Formen f und g, diese sind insbesondere multilinear. Auf den Multilinearformen wenden wir das \otimes Produkt an, um zu einer Multilinearform in Mult^(k+m)(V^\*) zu kommen. Da f \otimes g nicht ohne weiteres wieder alternierend ist, schalten wir dann noch den Projektor dahinter, der uns aus jeder Multilinearform eine alternierende Form konstruiert. Wir bekommen somit eine wohldefinierte alternierende Form in \L^(k+m)(V^\*). Der Faktor (k+m;k) ist lediglich eine Konvention und ändert natürlich nichts an der Eigenschaft, alternierend zu sein. Man benötigt diesen Faktor später beim Beweis der Assoziativität. Man könnte das fast schon mit Gewalt hinkonstruiert nennen. Wir müssen nun zeigen, dass das \wedge-Produkt bilinear, assoziativ und graduiert kommutativ ist. Die Beweise sind länglich, ist man damit jedoch fertig, benutzt man diese Resultate nur noch, ohne sich groß Gedanken um die Definition des \wedge-Produktes zu machen. \big\blue Beweis: Bilinearität__: Seien f \in \L^k(V^\*) und g \in \L^m(V^\*) beliebig. Dann ist f \otimes g linear in jeder Komponente. Außerdem ist \calF linear, somit folgt, dass \calF(f \otimes g) linear in jeder Komponente, also bilinear ist. Damit ist aber auch (f \wedge g)=(k+m;k) \calF(f \otimes g) bilinear.\bigbox Assoziativität__: Der Beweis der Assoziativität ist aufwändiger und erfordert die Gruppeneigenschaften der Permutationsgruppe, wir müssen daher die Definition ausschreiben: Seien k,l,m \in \IN und f \in \L^k(V^\*), g \in \L^l(V^\*), h \in \L^m(V^\*) beliebig. Wir wollen zeigen, dass (f \wedge g)\wedge h=f \wedge (g \wedge h): \ll(1) Wir konstruieren jedoch zunächst eine \blue kanonische Injektion... \~:\S_(k+l)\hookrightarrow\S_(k+l+m) \t \mapsto \t^~ wobei \t^~(x):=cases(\t(x),1<=x<=k+l;x,k+lm;x+k,sonst). Per Induktion zeigt man dann leicht, dass sign(\t)=det matrix(0,E_m;E_k,0)=(-1)^km. Das werde ich jetzt hier nicht mehr ausführen, es ist wirklich nicht schwer. Folgt zum Beispiel leicht mit der Leibniz-Formel der Determinante. Und damit sehen wir auch schon, wo das Vorzeichen herkommt. Rechnen wir also los: (f \wedge g)(v_1,...,v_(k+m)) =1/k!m! sum(sign(\s) f_\s (v_1,...,v_k)*g_\s (v_(k+1),...,v_(k+m)), \s \in \S_(k+m)) =1/k!m! sum(sign(\s) g_\s (v_(k+1),...,v_(k+m))*f_\s (v_1,...,v_k), \s \in \S_(k+m)) =1/k!m! sum(sign(\s) g_(\s\kringel\t)(v_1,...,v_m)*f_(\s\kringel\t) (v_(m+1),...,v_(m+k)), \s \in \S_(k+m)) =1/k!m! sum(sign(\s)sign(\t)*(-1)^km g_(\s\kringel\t)(v_1,...,v_m)*f_(\s\kringel\t) (v_(m+1),...,v_(m+k)), \s \in \S_(k+m)) =(-1)^km 1/k!m! sum(sign(\s\kringel\t) g_(\s\kringel\t)(v_1,...,v_m)*f_(\s\kringel\t) (v_(m+1),...,v_(m+k)), \s \in \S_(k+m)) Wir definieren wieder \p:=\s\kringel\t und nutzen die Gruppeneigenschaft aus: =(-1)^km 1/k!m! sum(sign(\p) g_(\p)(v_1,...,v_m)*f_(\p) (v_(m+1),...,v_(m+k)), \p \in \S_(k+m)) =(-1)^km g\wedge f et voila ... \bigbox Aus der graduierten Kommutativität folgt ein wichtiges Resultat: Sei f\in \L^(2k+1) (V^\*)beliebig, das heißt, eine Form mit \stress ungeradem Grad. Dann gilt f\wedge f=(-1)^((2m+1)^2) f\wedge f=-f\wedge f =>2*(f\wedge f)=0 =>\light f\wedge f=0 Dies gilt insbesondere für 1-Formen und wird dort später noch häufiger wichtig. Wir können jedoch noch einen draufsetzen: Es gibt ein \big\blue neutrales Element\normal\black des \wedge-Produktes. Es muss notwendigerweise eine Nullform sein, da sonst der Grad erhöht würde. Wir hatten aber zuvor bereits \L^0 (V^\*) := \IK erklärt. Was liegt da näher, als das neutrale Element 1\in\IK zu nehmen, zumal wir ja auch schon gesehen haben, dass es neutrales Element des \otimes\-Produktes ist? Nun ist der Beweis nicht mehr schwer: \big\blue Beweis: Sei f\in \L^k (V^\*) beliebig. Dann folgt: f \wedge 1 =(-1)^0 (1 \wedge f) \darkred Grad. Kommmutativität =1 \wedge f =(k;0) \calF(1\otimes f) =(k;0) \calF(f) $$$$ \darkred Beachte 1 ist Neutrales Element von \otimes =(k;0) f $$$$$$\darkred dies gilt wegen der Projektoreigenschaft =f \bigbox
Wir wollen kurz zusammenfassen, was wir bis jetzt an Eigenschaften gesammelt haben: Seien f,f^~ \in \L^k(V^\*), g \in \L^l(V^\*) und h \in \L^m(V^\*), \a,\b \in \IK \ll(a) \stress Bilinearität:\normal \a*(f\wedge g)+\b*(f^~\wedge g)=(\a*f+\b*f^~)\wedge g \ll(b) \stress Assoziativität:\normal f\wedge(g\wedge h)=(f\wedge g)\wedge h \ll(c) \stress grad. Kommutativität:\normal f\wedge g=(-1)^kl g\wedge f \ll(d) \stress Neutrales Element:\normal 1\wedge f=f Damit ist (\bigop(\oplus,\L^k(V^\*),k=0,n),\wedge) ein Ring mit 1.
Mithilfe dieser Rechenregeln können wir nun eine Basis des Vektorraums \L^k(V^\*) angeben.

1.4 Die Graßmannalgebra und eine Basis

Wir interessieren uns nun für eine Basis des Vektorraumes \L^k(V^\*). Können wir eine solche angeben, haben wir damit ohne weiteres auch eine Basis des Vektorraumes \bigop(\oplus,\L^k(V^\*),k=0,n). Sei also (e_1,...e_n) eine Basis des \IK-Vektorraumes V. Dann ist (e^1,...,e^n) die dazu duale Basis von V^\*. Wir behaupten nun:
menge(e^(i_1)\wedge...\wedge e^(i_k)|1<=i_1<... Warum nehmen wir hier nun geordnete Tupel? Das hat sehr viel mit der graduierten Kommutativität zu tun. Im Grunde interessieren uns nur disjunkte k-Tupel \in \menge(1,...,n)^k. Aus der grad. Kommutativität folgt, dass Umordnungen dieser Teilmengen nur ein Vorzeichen ändern, es genügt also, sich für eine Reihenfolge zu entscheiden und die anderen nicht mehr zu beachten. Aber wir hätten natürlich auch alle Tupel absteigend ordnen können. Um nun zu beweisen, dass wir eine Basis vorliegen haben, zeigen wir zunächst einen Hilfssatz, der zugleich noch einmal den engen Zusammenhang mit der Determinante unterstreicht.
\big\blue Hilfssatz: Seien f_1,...,f_k \in \L^1(V^\*) und v_1,...,v_k \in V. Dann gilt: (f_1\wedge ...\wedge f_k)(v_1,...,v_k)=Det(f_i(v_j))
Dieser eher harmlos erscheinende Satz hat übrigens später noch wichtige Folgerungen in der Integrationstheorie auf Mannigfaltigkeiten. Man braucht dort an einigen Stellen den Transformationssatz, der gerade eine Determinante der Jacobimatrix benötigt. Mit diesem Satz genügt es dann aber, einfach den Pullback (den wir später kennen lernen werden) anzuwenden. \big\blue Beweis: Wir hatten schon im Beweis der Assoziativität gesehen, dass für f_1, f_2, f_3 gilt: f_1\wedge f_2\wedge f_3(v_1,v_2,v_3)=1/1!1!1! sum(sign(\s)f_1 (v_\s(1))*f_2 (v_\s(2))*f_3(v_\s(3)),\s\in\S_3). Dies können wir induktiv fortsetzen (der Induktionsschritt ist gerade der Beweis der Assoziativität): (f_1\wedge ...\wedge f_k)(v_1,...,v_k)=sum(sign(\s) produkt(f_i(v_\s(i)),i=1,k),\s\in\S_k) \darkred und dies ist gerade die Leibnizformel der Determinante, also =Det(f_i(v_j)).\bigbox Kommen wir nun zum eigentlichen Beweis der Basis: \big\blue Beweis: (lineare Unabhängigkeit:)__ \light Seien i__:=(i_1,...,i_k) mit 1<=i_1<...e^(i__)((e_(j__)))=\d_(i__ j__) mit dem Kroneckerdelta. Wir betrachten nun die lineare Gleichung: sum(\l_i__ e^(i__),i__)=0 wobei wir über alle zulässigen Tupel summieren. Wir müssen nun beachten, dass wir hier eine Gleichheit von Funktionen vorliegen haben, insbesondere muss die Gleichheit also für jedes Argument gelten. Nehmen wir also ein festes j__ und betrachten den Spezialfall: 0=sum(\l_i__ e^(i__),i__)(e_j__)=sum(\l_i__ \d_(i__ j__),i__)=\l_j__ => \l_j__=0 \forall j__ \bigbox (Erzeugendensystem:)__ Sei nun ein \a \in \L^k(V^\*) beliebig vorgegeben. Wir definieren \l_j__:=\a(e_j__)\in \IK und behaupten: \a=sum(\l_i__ e^(i__),i__) Die rechte Abbildung ist sicher alternierend, da \L^k(V^\*) ein Vektorraum ist. Es genügt also die Gleichheit für Argumente aus menge((e_i_1,...,e_i_k)|i_1,..,i_k \in menge(1,..,n))) zu zeigen. Da beide Abbildungen alternierend sind, genügt es, die Gleichheit für disjunkte i_1,..,i_k zu zeigen. Wegen der Graduierten Kommutativität können wir annehmen, dass die i_1,..,i_k angeordnet sind und wir uns somit auf Argumente aus menge(e_(i__)) beschränken können. Wählen wir uns also ein solches j__ fest aber beliebig. Dann gilt sum(\l_i__ e^(i__),i__)(e_j__) =sum(\l_i__ \d_(i__ j__),i__) =\l_j__ =\a(e_j__) was gerade der linken Seite entspricht. \bigbox Was haben wir also bis jetzt erreicht? Wir haben für \L^k (V^\*) eine Basis erklärt und damit die Dimension dieses Vektorraumes bestimmt. Damit folgt aber, dass dim(\bigop(\oplus,\L^k(V^\*),k=0,n))=sum((n;k),k=0,n)=2^n ist. Durchaus ein bemerkenswert schönes Ergebnis. Dies hätte man auch dadurch einsehen können, dass eine Bijektion von der Basismenge von \L^\squaredot (V^\*) in die Potenzmenge der Basismenge von V existiert. Außerdem ist \bigop(\oplus,\L^k(V^\*),k=0,n) mit Hilfe des \wedge-Produktes zu einem Ring geworden. Dieser wird als Graßmann-Algebra über V^\* bezeichnet und mit \L^\squaredot (V^\*) notiert. Auf dieser Graßmann-Algebra beruht der gesamte Differentialformenkalkül, auch wenn sie später durch Umdefinitionen und Verallgemeinerungen kaum mehr wiederzuerkennen ist. Achtung, es muss darauf hingewiesen werden, dass auf der Ringstruktur problemlos auch Formen unterschiedlichen Grades formal addiert werden dürfen, alle Operationen wie \wedge oder Pullback werden dann distributiv ausgeführt. In der Anwendung ist dies jedoch meist sinnlos und wird einem nicht begegnen. Laut Wikipedia erhält man die Graßmann-Algebra alternativ auch mit einer Universalkonstruktion als kleinste Algebra, in welche V^\* injektiv und antikommutativ eingebettet ist. Das ist natürlich der schnellere Weg, trägt zum Verständnis jedoch nicht wesentlich bei. Desweiteren erkennt man bereits aus den Binomialkoeffizienten, dass wegen (n;k)=(n;n-k) ein Isomorphismus \L^k(V^\*)~=\L^(n-k)(V^\*) existiert. Dieser wird (sehr viel) später beim Hodge-Operator noch wichtig.

1.5 Der Pullback

Aus der LA1 ist vielleicht der Begriff der dualen Abbildung bekannt. Zu einer linearen Abbildung f:V \to W zwischen \IK-Vektoräumen V,W ist die duale Abbildung f^\*: W^\* \to V^\* erklärt durch f^\*(\a):=\a\circle f. Mit der gleichen Idee gehen wir bei Multilinearformen und speziell bei alternierenden Formen vor. Sei also f:V\to W linear. Wir interessieren uns nun für eine induzierte Abbildung Mult^k(W^\*)\to Mult^k(V^\*). V und W müssen nicht die gleiche Dimension haben.
\big\blue Definition: Für f:V\to W linear und k\in\IN nennen wir array(f^(\*): Mult^k(W^\*)\to Mult^k(V^\*); \alpha\mapsto f^\*(\a)) den Pullback bzw. die induzierte Abbildung, wobei f^\*(\a)(v_1,..,v_k):=\alpha(f(v_1),..,f(v_k)) definiert ist.
Falls k=1, haben wir also wieder unsere duale Abbildung. Aus der Definition erkennt man praktisch direkt, dass f^\* linear ist. (übungsaufgabe, wirklich nicht schwer). Interessanter, aber genauso einfach zu zeigen ist jedoch, dass der Pullback einer alternierenden Form wieder alternierend ist. Es gilt also dass die Einschränkung (f^\*|)_(\L^k(W^\*)) : \L^k(W^\*)\to \L^k(V^\*) wohldefiniert ist. \big\blue Beweis: Sei \a \in \L^k(W^\*). und seien i!=j beliebig.Sei v_1,..,v_k\in V ein Tupel mit v_i=v_j. Dann gilt: f(v_i)=f(v_j) => \a(f(v_1),...,f(v_k))=0 =>f^\*(\a)(v_1,...,v_k)=0 \bigbox Der Pullback hat wiederum die von der dualen Abbildung bekannte Eigenschaft, "die Reihenfolge umzukehren", das heißt, es gilt für f:V\to W und g:W\to U linear: (g\kringel f)^\*=f^\* \kringel g^\*. Diese Eigenschaft nennt man auch \stress kontravariant. \big\blue Beweis: Auch dies ist wieder leicht einzusehen. Seien \a\in Mult^k(U^\*) und v_1,...,v_k \in V beliebig. Dann folgt: (g\kringel f)^\*(\a)(v_1,...,v_k) =\a((g\kringel f)v_1,..,(g\kringel f)v_k) =\a((g(f(v_1)),..,(g(f(v_k)))) =g^\*(\a)((f(v_1),..,(f(v_k))) =f^\*(g^\*(\a))((v_1,..,(v_k)) =(f^\* \kringel g^\*)(\a)(v_1,..,v_k) \bigbox Dies impliziert jedoch: f isomorph => f^\* isomorph, da man (f^\*)^(-1):=(f^(-1))^\* als Umkehrfunktion wählen kann.
Von besonderer Bedeutung ist die Vertauschbarkeit des Pullbacks mit dem \wedge-Produkt, das heißt, für \a \in\L^k(W^\*),\b\in\L^m(W^\*) und f:V\to W gilt:f^\*(\a\wedge \b)=(f^\*(\a))\wedge (f^\*(\b))
\big\blue Beweis: f^\*(\a\wedge \b)(v_1,..,v_(k+m) =(\a\wedge\b)(f(v_1),...,f(v_(k+m))) =1/k!m! sum(sign(\s)*\a(f(v_(\s(1))),..,f(v_(\s(k))))*\b(f(v_(\s(k+1))),..,f(v_(\s(k+m)))),\s\in\S_(k+m) =1/k!m! sum(sign(\s)*f^\*(\a)(v_(\s(1)),..,v_(\s(k)))*f^\*(\b)(v_(\s(k+1)),..,v_(\s(k+m))),\s\in\S_(k+m) =(f^\*(\a))\wedge (f^\*(\b))(v_1,..,v_(k+m)) \bigbox Somit ist der Pullback f^\* :\L^\squaredot (W^\*)\to \L^\squaredot (V^\*) ein \stress\graderhaltender \IK-Algebrenhomomorphismus\normal, das heißt, er vertauscht mit beiden Operationen der Graßmann-Algebra (der Addition und dem \wedge-Produkt), sowie der skalaren Multiplikation und überführt k-Formen in k-Formen. Wohlgemerkt, dies gilt für f^\* selbst, nicht für f\mapsto f^\*, letzteres ist multilinear. Wir werden später bei den Differentialformen kennenlernen, dass ein erweitertes Konzept, der Pullback von Differentialformen, auch mit der Cartanableitung vertauscht, doch bis hierher soll uns das genügen. Wer möchte, kann sich nun noch den Fall ansehen, dass man auch über V^\* die Graßmannalgebra \L^\squaredot ((V^\*)^\*) bilden kann. Mithilfe des Isomorphismus V~=V^\*\* können wir damit auch soetwas wie eine Grassmannalgebra \L^\squaredot (V) erklären, aber das benötigen wir hier nicht.

Ein Beispiel: Zum Abschluss wollen wir zum Pullback nochmal ein Beispiel durchrechnen: \blue Wir betrachten \IK:=\IR und wählen uns zu den Vektorräumen \IR^3 eine Basis (e_1, e_2, e_3), und zu \IR^2 eine Basis (e^~_1, e^~_2). \blue Sei f:\IR^2\to\IR^3 linear und für diese Basen erklärt durch die Matrix matrix(2,3;0,1;4,0). Wir interessieren uns nun für den Pullback f^\* :\L^2 (\IR^3)\to \L^2 (\IR^2). Nach obigen Ergebnis ist (e^1\wedge e^2, e^1\wedge e^3, e^2\wedge e^3) eine Basis für \L^2 (\IR^3) und ((e^~)^1 \wedge (e^~)^2) ist eine Basis zu \L^2 (\IR^2). Dies haben wir in Abschnitt 1.1.4 gezeigt. Wir können somit ein \a\in \L^2 (\IR^3) beliebig erklären durch \a=a_12*e^1\wedge e^2+a_13*e^1\wedge e^3+a_23*e^2\wedge e^3 mit a_12, a_13, a_23\in \IR eindeutig. Dann ist f^\* (\a) =a_12*f^\*(e^1)\wedge f^\*(e^2)+a_13*f^\*(e^1)\wedge f^\*(e^3)+a_23*f^\*(e^2)\wedge f^\*(e^3). Wir haben angewandt, dass wir f^\* an + und \wedge vorbeiziehen dürfen, da der Pullback ein \IR-Algebrenhomomorphismus ist. Jetzt aber brauchen wir den Pullback nur noch auf 1-Formen anwenden. Wie das geht, wissen wir bereits aus LA1: =a_12*(2*(e^~)^1+3*(e^~)^2)\wedge (0*(e^~)^1+1*(e^~)^2) +a_13*(2*(e^~)^1+3*(e^~)^2)\wedge (4*(e^~)^1+0*(e^~)^2) +a_23*(0*(e^~)^1+1*(e^~)^2)\wedge (4*(e^~)^1+0*(e^~)^2) Was jetzt folgt, ist eigentlich nur noch umsortieren und zusammenfassen. =a_12*(2*(e^~)^1+3*(e^~)^2)\wedge (1*(e^~)^2) +a_13*(2*(e^~)^1+3*(e^~)^2)\wedge (4*(e^~)^1) +a_23*(1*(e^~)^2)\wedge (4*(e^~)^1) Jetzt nutzen wir die Bilinearität des \wedge-Produktes. =a_12*(2*(e^~)^1)\wedge (1*(e^~)^2)+a_12*(3*(e^~)^2)\wedge (1*(e^~)^2) +a_13*(2*(e^~)^1)\wedge (4*(e^~)^1)+a_13*(3*(e^~)^2)\wedge (4*(e^~)^1) +a_23*(1*(e^~)^2)\wedge (4*(e^~)^1) Es gilt allgemein für 1-Formen: (e^~)^1\wedge (e^~)^1=0 (grad.Komm.) =a_12*(2*(e^~)^1)\wedge (1*(e^~)^2) +a_13*(3*(e^~)^2)\wedge (4*(e^~)^1) +a_23*(1*(e^~)^2)\wedge (4*(e^~)^1) Wir klammern nun aus und nutzen die grad. Kommutativität: =2*a_12*((e^~)^1\wedge (e^~)^2) -12*a_13*((e^~)^1\wedge (e^~)^2) -4*a_23*((e^~)^1\wedge (e^~)^2) =(2*a_12-12*a_13-4*a_23)((e^~)^1\wedge (e^~)^2) Damit haben wir f^\* (\a) in der neuen Basis dargestellt. Die Abbildungsmatrix bezgl. dieser Basen lautet also matrix(2,-12,-4). Dies war aus der gegebenen Matrix nicht unbedingt ersichtlich, dazu brauchten wir die Eigenschaften des \wedge-Produktes. Kommt man also bei 1-Formen noch mit bloßem Transponieren der gegebenen Matrix davon, so muss man bei höheren Formen gelegentlich schon etwas mehr rechnen.
Ich habe das Thema der alternierenden Multilinearformen in diesem Artikel so dargestellt, wie es für einen Studenten im zweiten Semester (der LA1 gehört hat) verständlich sein sollte. Vielleicht habe ich manche Beweise etwas überausführlich geführt, aber dem Verständnis schadet das bestimmt nicht. Der Stoff ist stark komprimiert, wir legen hier jedoch nur die Grundlagen für den Artikel über Differentialformen. Auf ausführlichere Beispielrechnungen habe ich hier verzichtet, um den Artikel auch nicht zu überfrachten. Lediglich zum Pullback sollte man mal eine konkrete Rechnung gesehen haben, dort werden auch die meisten Resultate angewandt. Stattdessen habe ich versucht, auf typische Anfängerfehler einzugehen und diese zu klären. Der Formalist mag sich an den "Pünktchenbeweisen" vielleicht stören, ich habe mich jedoch bemüht, immer eindeutig klarzustellen, was mit den Pünktchen gemeint ist. Im Grunde wird immer nur eine endliche Indexmenge durchlaufen. Natürlich könnte man die Beweise auch formaler führen, im Stil von "Sei \frakv \in prod(V,i\in I) mit \|I\|<\inf beliebig" anstelle von "Sei v_1,..,v_n\in V", aber das trägt meines Erachtens nicht unbedingt zum Verständnis bei. Ich hoffe auf eure konstruktive Kritik.

\(\endgroup\)
Get link to this article Get link to this article  Printable version Printer-friendly version -  Choose language     Kommentare zeigen Comments  
pdfFür diesen Artikel gibt es keine pdf-Datei


Arbeitsgruppe Alexandria Dieser Artikel ist im Verzeichnis der Arbeitsgruppe Alexandria eingetragen:
: Analysis :: Lineare Algebra :: Multilineare Algebra :: Reine Mathematik :
Alternierende Multilinearformen [von Mentat]  
Erster Artikel der Serie über globale Analysis. Es geht in diesem Teil um (Alternierende) Multilinearformen.
[Die Arbeitsgruppe Alexandria katalogisiert die Artikel auf dem Matheplaneten]

 
 
Aufrufzähler 30691
 
Aufrufstatistik des Artikels
Insgesamt 7796 externe Seitenaufrufe zwischen 2012.01 und 2022.12 [Anzeigen]
DomainAnzahlProz
https://google.de268134.4%34.4 %
https://google.com490.6%0.6 %
https://matheplanet.com30%0 %
https://google.at20%0 %
http://google.de345344.3%44.3 %
http://google.fr5176.6%6.6 %
http://google.lu2543.3%3.3 %
http://google.ru3714.8%4.8 %
http://google.fi991.3%1.3 %
http://google.es931.2%1.2 %
https://google.tn460.6%0.6 %
https://duckduckgo.com300.4%0.4 %
https://www.bing.com430.6%0.6 %
https://www.ecosia.org240.3%0.3 %
https://www.startpage.com170.2%0.2 %
http://r.duckduckgo.com110.1%0.1 %
http://www.search.ask.com60.1%0.1 %
http://google.com90.1%0.1 %
http://www.facebook.com30%0 %
https://yandex.ru30%0 %
http://google.it20%0 %
http://isearch.start.fyi20%0 %
http://suche.t-online.de40.1%0.1 %
https://www.qwant.com20%0 %
http://suche.web.de80.1%0.1 %
http://www.bing.com250.3%0.3 %
http://isearch.avg.com20%0 %
https://l.facebook.com10%0 %
https://eu.startpage.com10%0 %
http://de.yhs4.search.yahoo.com10%0 %
http://ecosia.org10%0 %
https://r.search.yahoo.com10%0 %
http://www.searchmobileonline.com30%0 %
http://de.search.yahoo.com40.1%0.1 %
http://search.babylon.com30%0 %
http://search.conduit.com10%0 %
http://search.incredibar.com20%0 %
http://de.search-results.com20%0 %
http://int.search.myway.com40.1%0.1 %
http://suche.gmx.net20%0 %
http://de.ask.com10%0 %
http://www.ecosia.org20%0 %
https://startpage.com10%0 %
http://webchat.quakenet.org10%0 %
http://search.foxtab.com10%0 %
http://www1.delta-search.com10%0 %
http://nortonsafe.search.ask.com10%0 %
http://crunchbang.org10%0 %
http://search.icq.com10%0 %
http://www.scroogle.org10%0 %

Aufrufer der letzten 5 Tage im Einzelnen
Insgesamt 32 Aufrufe in den letzten 5 Tagen. [Anzeigen]
DatumAufrufer-URL
2022.11.06-2022.12.06 (6x)https://google.de/
2022.11.02-2022.12.06 (26x)https://google.com/

Häufige Aufrufer in früheren Monaten
Insgesamt 7664 häufige Aufrufer [Anzeigen]
DatumAufrufer-URL
2020-2022 (2593x)https://google.de/
2014-2019 (334x)http://google.de/url?sa=t&rct=j&q=
2012-2013 (332x)http://google.de/url?sa=t&rct=j&q=wedge produkt
201501-01 (279x)http://google.fr/url?sa=t&rct=j&q=
201201-01 (254x)http://google.lu/url?sa=t&rct=j&q=lineare algebra dualraum matheplanet
201306-06 (241x)http://google.ru/url?sa=t&rct=j&q=alternierende bilineare form
201301-01 (237x)http://google.de/url?sa=t&rct=j&q=wedge produkt assoziativ beweis
201211-11 (227x)http://google.de/url?sa=t&rct=j&q=wozu alternierende multilinearformen
201206-06 (190x)http://google.fr/url?sa=t&rct=j&q=alternierende k-form addition
201401-01 (171x)http://google.de/url?sa=t&rct=j&q=dachprodukt rechenregeln
201208-08 (168x)http://google.de/url?sa=t&rct=j&q=trilineare abbildung
201304-04 (160x)http://google.de/url?sa=t&rct=j&q=zeigen sie dass die menge der n-multilinear...
2014-2015 (157x)http://google.de/url?sa=t&source=web&cd=6&ved=0CCoQFjAF
201207-07 (142x)http://google.de/url?sa=t&rct=j&q=wedgeprodukt rechenregeln
201407-07 (130x)http://google.ru/url?sa=t&rct=j&q=
201504-04 (128x)http://google.de/url?sa=t&source=web&cd=1&ved=0CB4QFjAA
201204-04 (99x)http://google.fi/url?sa=t&source=web&cd=8&ved=0CFQQFjAH
201410-10 (93x)http://google.es/url?sa=t&rct=j&q=
201212-12 (92x)http://google.de/url?sa=t&rct=j&q=zerlegbarkeit alternierende form
201210-10 (86x)http://google.de/url?sa=t&rct=j&q=wedge produkt beispiel
2020-2021 (82x)https://google.de/url?sa=t
201406-06 (80x)http://google.de/url?sa=t&source=web&cd=3&ved=0CCAQFjAC
201505-05 (76x)http://google.de/url?sa=t&source=web&cd=8&ved=0CDUQFjAH
201405-05 (75x)http://google.de/url?sa=t&source=web&cd=6&ved=0CD4QFjAF
201404-04 (75x)http://google.de/url?sa=t&source=web&cd=2&ved=0CCwQFjAB
201202-02 (72x)http://google.de/url?sa=t&rct=j&q=wie beweise ich ,dass eine funktion alterni...
201205-05 (69x)http://google.de/url?sa=t&rct=j&q=zeige kreuzprodukt ist isomorphismus von k-...
201507-07 (69x)http://google.de/url?sa=t&source=web&cd=2&ved=0CB4QFjABahUKEwivuP-btezGAhUkJH...
201302-02 (68x)http://google.de/url?sa=t&rct=j&q=wedge-produkt beispiel
201402-02 (61x)http://google.de/url?sa=t&rct=j&q=gruppe der multilinearformen
201203-03 (61x)http://google.de/url?sa=t&rct=j&q=wiki scherungsinvarianz
201312-12 (53x)http://google.de/url?sa=t&rct=j&q=alternierende multilineare abbildung linear...
201310-10 (48x)http://google.fr/imgres?um=1&safe=off&sa=N&biw=1680&bih=888&tbm=isch&tbnid=zs...
201502-02 (47x)http://google.de/url?sa=t&rct=j&q=wedgeprodukt
202203-03 (46x)https://google.tn/
201403-03 (46x)http://google.de/url?sa=t&rct=j&q=gruppe multilinearformen
201311-11 (37x)http://google.de/url?sa=t&rct=j&q=eigenschaft der alternierenden multilinearf...
201303-03 (37x)http://google.de/url?sa=t&rct=j&q=multilinearform alternierend dachprodukt
201308-08 (36x)http://google.de/url?sa=t&rct=j&q=schiefsymmetrische multilinearform alternir...
201409-09 (36x)http://google.de/url?sa=t&source=web&cd=3&ved=0CCcQFjAC
201601-01 (34x)http://google.de/url?sa=t&source=web&cd=5&rct=j&q=multilinear erklärung
201309-09 (33x)http://google.de/url?sa=t&rct=j&q=aufgaben alternierende multilinearformen
201605-05 (32x)http://google.de/url?sa=t&source=web&cd=7&rct=j&q=beweis f alternierend f=0 b...
2020-2022 (30x)https://duckduckgo.com/
201604-04 (28x)http://google.de/url?sa=t&source=web&cd=5&rct=j&q=wedge produkt
2020-2022 (28x)https://www.bing.com/
202108-08 (23x)https://google.com/
201706-06 (21x)http://google.de/url?sa=t&rct=j&q=alternator wohldefiniert
2020-2022 (21x)https://www.ecosia.org/
201701-01 (21x)http://google.de/url?sa=t&rct=j&q=k linearform symmetrisch permutationen
2020-2022 (17x)https://www.startpage.com/
201512-12 (13x)http://google.de/url?sa=t&source=web&cd=2&rct=j&q=alternierende multilinearfo...
2013-2015 (11x)http://r.duckduckgo.com/l/?kh=-1
201603-03 (8x)http://google.de/url?sa=t&source=web&cd=2&rct=j&q=multilinearform
201806-06 (8x)http://google.de/search?q=skalarprodukt alternierende multilineare Abbildunge...
201710-10 (8x)http://google.de/url?sa=t&rct=j&q=alternierende funktion
201508-08 (7x)http://google.de/url?sa=t&rct=j&q=alternierende 1 multilinearformen
202102-02 (7x)https://www.bing.com/search?q=alternierende multilinearform matheplanet
201407-07 (6x)http://www.search.ask.com/web?q=äußeres produkt k formen 1 formen&apn_d...
201805-05 (5x)http://google.com/search?q=das dackprodukt ddefiniert ein alternierende form
201807-10 (4x)http://google.com/
201802-02 (4x)http://google.de/
201509-09 (4x)http://google.de/url?sa=t&rct=j&q=alternierende k-form dachprodukt
202006-06 (4x)https://www.bing.com/search?q=b ist alternierend ⇐⇒ fur alle ¨v,...

[Top of page]

"Mathematik: Alternierende Multilinearformen" | 13 Comments
The authors of the comments are responsible for the content.

Re: Alternierende Multilinearformen
von: Wally am: Do. 10. April 2008 10:57:29
\(\begingroup\)Hallo, Mirko, ich finde den Artikel gut gelungen und keinesfalls zu ausführlich. Es ist leichter, beim Lesen etwas wegzulassen, als sich die fehlenden Beweisteile selbst zu konstruieren. Außerdem finde ich es gut, dass du Bezüge zu bereits existierenden Artikeln verwendest. Wally/Peter\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: spitzwegerich am: Do. 10. April 2008 21:09:56
\(\begingroup\)Servus, Nach Bemerkung 1.4 sollte es anstelle von "Wir hätten auf die Forderung char(\IK)!=0 verzichten können" wahrscheinlich eher "Wir hätten auf die Forderung char(\IK)=0 verzichten können" heissen. \(\endgroup\)
 

Re: Alternierende Multilinearformen
von: spitzwegerich am: Do. 10. April 2008 21:31:29
\(\begingroup\)Jetzt bin ich da: \quoteon Können wir nämlich eine solche angeben und zeigen, dass sie bilinear und assoziativ ist, so haben wir eine \big\blue Ringstruktur \normal\black auf \bigop(\oplus,\L^k(V^\*),k=1,\inf). Aus Lemma 2.3 folgt insbesondere ein Isomorphismus \bigop(\oplus,\L^k(V^\*),k=0,\inf)~= \bigop(\oplus,\L^k(V^\*),k=0,n), wobei n:=dimV sei, das heisst, die direkte Summe aller alternierenden Formen bildet wieder einen endlichdimensionalen Vektorraum. \quoteoff Und habe zwei Fragen: Was ist die Addition in dem Ring? Ich kann Lemma 2.3 nicht finden. Danke!\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Mentat am: Do. 10. April 2008 22:37:19
\(\begingroup\) \ Hallo, es sollte natürlich Lemma 1.3 heißen, ich habe irgendwann die Nummerierung im Artikel umgebaut, da habe ich das übersehen. Habs schon korrigiert. Die Charakteristik sollte natürlich =0 sein. Die Addition auf \L^k(V^\*) hatte ich doch oben erklärt. Im Ring dehne ich diese auf formale Summen aus im Sinne einer "erzwungenen" direkten Summe. Das ist vermutlich nicht ohne weiteres klar, formale Summen zu erklären, würde allerdings den Rahmen des Artikels sprengen. Vielen Dank, Mentat\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: kostja am: Sa. 12. April 2008 09:46:06
\(\begingroup\)Ich möchte betonen, dass die formale Addition auf dem Ring völlig irrelevant ist. Wirklich wichtig ist die von Elementen gleicher Ordnung. Und diese ist punktweise gegeben. Konstantin\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Ex_Mitglied_40174 am: So. 11. Mai 2008 17:01:46
\(\begingroup\)Hallo, Mentat! Inhaltlich und äußerlich eine schöner Artikel! Wann kommen die folgenden Teile????\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Mentat am: Mi. 21. Mai 2008 19:31:58
\(\begingroup\)Hallo anonymous, vielen Dank, den kommenden Teil wird Kostja nachliefern. Ich schreibe dann wieder den übernächsten. Das dauert allerdings noch ein paar Wochen.\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: capo am: So. 31. August 2008 15:32:54
\(\begingroup\)Hallo, hab den Artikel grad erst gelesen. Ich habe das zwar alles in Diffgeo gehört, war aber von der Masse und den Details damals überfordert. Danke fürs "herunterkochen" auf die wesentlichen Ideen!\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Redfrettchen am: Do. 12. Februar 2009 23:57:21
\(\begingroup\)Hallo Mentat, endlich hatte ich mal Zeit, deinen Artikel verstehend zu lesen. Ich finde ihn auch wunderbar! Du hast meiner Meinung nach eine gute Balance zwischen Nachvollziehbarkeit und Länge der Darstellung gefunden. Einen kleinen Tippfehler konnte ich entdecken: Beim Beweis dafür, dass der Pullback mit dem Dachprodukt vertauscht, steht in der ersten Zeile als letzter Index (k+l), wo eigentlich (k+m) stehen müsste. Beste Grüße! Thomas EDIT: Auch im Beweis der Graduierten Kommutativität sind ein paar Indizes verrutscht.\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Danol am: Mo. 27. September 2010 23:42:16
\(\begingroup\)Moin, etwas verspätet, ich weiß. Toller Artikel, ich hab' nur eine Frage. Es steht dort \ Damit folgt aber, dass dim(\bigop(\oplus,\L^k(V^\*),k=1,n))=sum((n;k),k=0,n)=2^n ist. Ich verstehe nicht, wie man darauf kommt. Beim vorhergehenden Beweis würde ich entweder \ dim(\bigop(\oplus,\L^k(V^\*),k=1,n))=sum((n;k),k=1,n)=2^n -1 oder dim(\bigop(\oplus,\L^k(V^\*),k=0,n))=sum((n;k),k=0,n)=2^n erwarten. Wo liegt mein Denkfehler, oder ists tatsächlich falsch 😵 Wenns richtig ist, warum beginnt die Summe über die Binomialkoeffizienten bei k=0?\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Gockel am: Di. 28. September 2010 11:50:37
\(\begingroup\)Hi. Die Graßmann-Algebra ist \bigop(\oplus,\L^k(V^\*),k=0,n), das ist ein durchgehender Tippfehler in dem Artikel. mfg Gockel.\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Danol am: Di. 28. September 2010 21:46:07
\(\begingroup\)Hi Gockel, danke für die Info. :)\(\endgroup\)
 

Re: Alternierende Multilinearformen
von: Jogala am: Mi. 05. September 2012 15:22:41
\(\begingroup\)Vielen vielen Dank für diesen tollen Artikel. Studiere Physik und mir hat das riesig geholfen. <3\(\endgroup\)
 

 
All logos and trademarks in this site are property of their respective owner. The comments are property of their posters, all the rest © 2001-2022 by Matroids Matheplanet
This web site was originally made with PHP-Nuke, a former web portal system written in PHP that seems no longer to be maintained nor supported. PHP-Nuke is Free Software released under the GNU/GPL license.
Ich distanziere mich von rechtswidrigen oder anstößigen Inhalten, die sich trotz aufmerksamer Prüfung hinter hier verwendeten Links verbergen mögen.
Lesen Sie die Nutzungsbedingungen, die Distanzierung, die Datenschutzerklärung und das Impressum.
[Seitenanfang]