Einfache Gruppen - PSU
Von: Gockel
Datum: Di. 12. Februar 2013 08:32:33
Thema: Mathematik

Einfache Gruppen - PSU



Nachdem im letzten Teil die symplektischen Gruppen besprochen wurden, wollen wir uns in diesem Teil der Reihe mit den unitären Gruppen beschäftigen, die als Isotropiegruppen von nichtentarteten hermiteschen Formen auftreten. Dabei werden wir uns zwar wie immer möglichst allgemein halten, jedoch nur die Resultate entwickeln, die wir tatsächlich für die Untersuchung endlicher, einfacher Gruppen benötigen. Das heißt u.A., dass wir die üblichen unitären Gruppen (d.h. die zum Standardskalarprodukt assoziierten Gruppen U_n(\mathbb{C}) ausklammern werden.
Es wird jedoch später einen Artikel geben, in dem die Betrachtung dieser sehr wichtigen Gruppen zusammen mit der Untersuchung von O_n(\mathbb{R}) nachgeholt werden wird.

Inhalt


 

Das Vorgehen

Unser Ziel ist analog wie zuvor, die Einfacheit der Gruppen PSU_n(q^2) \(mit endlich vielen Ausnahmen\) zu beweisen. Das Vorgehen ist ebenfalls im Wesentlichen Analog zum Vorgehen bei PSL und PSp: Wir wollen das Lemma von Iwasawa anwenden. Dazu werden wir folgende Dinge zeigen \(bis auf die unvermeidlichen Ausnahmen\): (\*) SU(V) operiert primitiv auf der Menge der isotropen,$projektiven$Punkte $ $\Gamma(V):=menge(Kv\in\IP(V) | v ist isotrop) $ $Die unitären Transvektionen im Stabilisator SU(V)_Kv bilden einen $ $abelschen Normalteiler. (\*) SU(V) wird von den unitären Transvektionen erzeugt. Dazu zeigen $ $wir, dass die Transvektionenuntergruppe transitiv auf den anisotropen $ $Vektoren mit vorgegebener "Norm" operiert. (\*) SU(V) ist perfekt.

 

Erinnerung: Klassifikation der unitären Geometrien

Wie auch bei den symplektischen Gruppen erinnern wir zunächst an die Ergebnisse, die wir in den Artikeln über Sesquilinearformen erhalten haben: makro(blf,\<||array(%1),||array(%2)\>) define(dot,opimg(*)) Ist K ein endlicher Körper und $^-:K\to\ K der Körperautomorphismus der Ordnung Zwei \(Dieser ist eindeutig bestimmt!. Es ist x\mapsto\ x^q\.\), so sind alle nichtentartete hermitesche Formem auf einem endlichdimensionalen K\-Vektorraum V äquivalent. Man kann also bis auf Isomorphie immer annehmen, dass man das "Standardskalarprodukt" blf(x,y) = x^T*y^- = sum(x_i*(y_i)^-,i=1,n) auf K^n vorliegen hat, d.h. anders formuliert, dass man stets eine Basis von V finden kann, bzgl. derer blf(\dot,\dot) die Einheitsmatrix als Darstellungsmatrix hat. Dasselbe gilt für jede andere nichtsinguläre Matrix A\in\ K^(n\times\ n) mit A^-^T=A: Man kann eine Basis von V finden, bzgl. derer die Darstellungsmatrix von blf(\dot,\dot) gerade A ist. Wir werden auch oft die Matrizen matrix(\ 0,1,,,;\ 1,0,,,;\ ,,\ddots,,;\ ,,,0,1;\ ,,,1,0\ ) für dim(V) gerade und matrix(\ 0,1,,,,;\ 1,0,,,,;\ ,,\ddots,,,;\ ,,,0,1,;\ ,,,1,0,;\ ,,,,,,1\ ) für dim(V) ungerade verwenden. Hieraus lesen wir ab, dass der Witt\-Index von V stets durch die Dimension eindeutig bestimmt ist: Er ist n/2, falls n gerade ist, und (n-1)/2, falls n ungerade ist. Wir wollen die Bezeichnungen festhalten:
Definition: Schreibweisen
Ist V ein K\-Vektorraum mit nichtentarteter hermitescher Form, so bezeichnet U(V) die Isometriegruppe dieser Form V. Wir schreiben SU(V) für den Schnitt von U(V)\cut\ SL(V) und PSU für das Bild von SU(V) in PGL(V), d.h. für SU(V)\/(SU(V)\cut\ Z(V)). Falls K=\IF_(q^2) und dim(V)=n ist, so schreiben wir auch U_n(q^2) für die Isometriegruppe der bis auf Äquivalenz eindeutig bestimmten unitären Geometrie auf \IF||array(\small\ n;q^2\normal). Analog schreiben wir SU_n(q^2) und PSU_n(q^2). Außerdem wollen wir in Zukunft E für den Fixkörper E:=menge(x\in\ K|x^-=x) schreiben.
Man beachte, dass mit diesen Bezeichnungen abs(K:E)=2 und Tr||array(\small\ K;E\normal)(K)=E gilt. Wenn K endlich ist, gilt sogar N||array(\small\ K;E\normal)(K)=E. Im dritten Artikel über Sesquilinearformen haben wir Ordnungsformeln bewiesen. Wir schauen jetzt genauer hin und erhalten:
Satz 1: Gruppenordnungen
Sei V ein n\-dimensionaler, unitärer \IF_(q^2)-Vektorraum. Dann gilt: (a) abs(U_n(q^2)) = q^(1/2*n*(n-1))*produkt((q^i-(-1)^i),i=1,n) (b) abs(SU_n(q^2)) = q^(1/2*n*(n-1))*produkt((q^i-(-1)^i),i=2,n) (c) abs(PSU_n(q^2)) = 1/ggT(q+1,n)*q^(1/2*n*(n-1))*produkt((q^i-(-1)^i),i=2,n)
a. Diese Formeln wurde bereits im andern Artikel hergeleitet. \blue\checked b. Wenn wir das Standardskalarprodukt auf K^n betrachten, dann können wir U_n(q^2) als die Matrixgruppe U_n(q^2) = menge(A\in\ GL_n(\IF_q^2) | A^T*A^-=1) charakterisieren. Die Determinante det: U_n\to\ K^x bildet daher nach menge(\lambda\in\ K^x | \lambda*\lambda^-=1) ab. Die Matrix matrix(\lambda,;,I_(n-1)) ist unitär und hat Determinante \lambda. Also ist det: U_n\to\ menge(\lambda\in\ K^x | \lambda*\lambda^-=1) = menge(\lambda\in\IF_(q^2) | \lambda^(1+q)=1) surjektiv. Die Gruppe rechter Hand ist zyklisch von Ordnung q+1, also ist abs(SU_n(q^2)) = 1/(q+1)*abs(U_n(q^2)) \blue\checked c. Die Skalarmatrix \lambda*I ist genau dann in U_n(q^2), wenn \lambda*\lambda^-=1 ist, d.h. wenn \lambda^(1+q)=1. In SU_n(q^2) liegt die Matrix genau dann, wenn zusätzlich \lambda^n=1, d.h. wenn \lambda^array(ggT(q+1,n))=1. Daraus folgt, dass SU_n(q^2)\cut\ Z(V) Ordnung ggT(q+1,n) hat. \blue\ q.e.d.

 

Die Operation auf dem projektiven Raum

makro(blf,\<||array(%1),||array(%2)\>) U(V) und SU(V) operieren natürlich wie alle Matrixgruppen auf dem projektiven Raum \IP(V). Allerdings liefert das hier keine i.A. transitive Operation mehr, wie wir sie gerne hätten, da es i.A. isotrope und anisotrope Vektoren gibt, die selbstverständlich nicht in einer gemeinsamen Bahn liegen können. In der Tat sagt uns der Satz von Witt, dass \IP(V) in die Bahnen \Gamma(V):=menge(U\in\IP(V) | U total isotrop) M_a:=menge(U\in\IP(V) | U=Ku mit blf(u,u)=a), a\in\ N(K^x) \subseteq\ E^x zerfällt. Es stellt sich heraus, dass wir beide Sorten von Operationen benötigen werden. Die Operation von SU(V) auf \Gamma(V) ist diejenige, auf die letztlich das Lemma von Iwasawa angewandt werden wird, aber die Operation von SU(V) auf den M_a wird benötigt werden, um zu zeigen, dass die Transvektionen ganz SU(V) erzeugen. Damit es überhaupt isotrope Vektoren gibt, muss der Witt\-Index größer 0 sein. Wir werden dies ab jetzt stets voraussetzen und die total anisotropen Geometrien vorerst ignorieren. Insbesondere können wir also nicht die gewöhnlichen Gruppen U_n(\IC) und SU_n(\IC) betrachten, da das Standardskalarprodukt \IC^n zu einem total anisotropen Vektorraum macht. Man kann zwar auch zeigen, dass PSU_n(\IC) einfach ist, die anisotropen unitären Räume verhalten sich aber so gravierend anders, dass wir sie hier nicht beachten wollen. \red\ Vereinbarung\black : Ab jetzt haben alle unitären Räume mindestens den Witt\-Index 1. Sehen wir uns genauer an, wie SU(V) auf den isotropen Punkten des projektiven Raums operiert.
Lemma 2: Primitivität der Operation
makro(blf,\<||array(%1),||array(%2)\>) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein unitärer K\-Vektorraum mit Witt\-Index r>=1. Dann gilt: (a) Der Kern der Operation ist SU(V)\cap\ Z(V). (b) Ist r=1, so operiert SU(V) 2\-fach transitiv auf \Gamma(V). $ $Ist r>1, so operiert SU(V) primitiv und als Rang\-3\-Gruppe auf \Gamma(V).
makro(blf,\<||array(%1),||array(%2)\>) define(dot,opimg(*)) a. haben wir bereits allgemein im Artikel über den Satz von Witt und seine Anwendungen bewiesen. b. Ist r=1, so kann der von je zwei Kv, Kw\in\Gamma(V) aufgespannte Unterraum H:=Kv+Kw nicht total isotrop sein, denn der Witt\-Index war ja definiert als die maximale Dimension eines total isotropen Unterraums. Insbesondere muss daher blf(v,w)!=0 sein. (v,\lambda*w) ist also für ein geeignetes \lambda\in\ K ein hyperbolisches Paar und aus dem Satz von Witt folgt, dass U(V) auf der Menge der hyperbolischen Paare transitiv operiert. Indem wir nötigenfalls mit einer diagonalen Abbildung der Form v\mapsto\lambda\.v, w\mapsto\ w die Determinante korrigieren, folgt hieraus auch, dass SU(V) 2\-fach transitiv auf \Gamma(V) operiert. Ist r>=2, so ist SU(V) eine Rang\-3\-Gruppe auf \Gamma(V) und analog bei Sp(V) sind die drei Bahnen auf \Gamma(V)\times\Gamma(V) genau \Delta:=menge((Kv,Kv)\in\Gamma(V)^2) \calH:=menge((Kv,Kw)\in\Gamma(V)^2 | Kv!=Kw, blf(v,w)!=0) \calO:=menge((Kv,Kw)\in\Gamma(V)^2 | Kv!=Kw, blf(v,w)=0) wie man leicht mit dem Satz von Witt einsieht. \(Gegebenenfalls muss man wieder die Determinante korrigieren, um wirklich in SU(V) zu liegen\) Wir haben bereits allgemein eingesehen, dass Rang\-3\-Gruppen auf \Gamma(V) stets primitiv operieren. \blue\ q.e.d.
Damit haben wir diesen Teil schon erledigt.

 

Unitäre Transvektion I

Schon zweimal haben uns die Transvektionen gute Dienste als Erzeuger von klassischen Gruppen gedient und die Überlegungen zu zweidimensionalen unitären Räumen legen nahe, dass das auch dieses Mal klappen wird. Werfen wir also einen genaueren Blick auf die Transvektionen in U(V).
Lemma/Definition: Unitäre Transvektionene
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein unitärer K\-Vektorraum. Die Transvektion \gamma_array(\phi2\,u) liegt genau dann in U(V), wenn u isotrop ist und \phi2=\lambda\.blf(\dot,u) für ein \lambda\in\ K mit \lambda+\lambda^-=0 gilt. Wir definieren außerdem trv(\lambda,u):=v\mapsto\ v+\lambda*blf(v,u)u für alle u\in\ V isotrop und \lambda\in\ K mit \lambda+\lambda^-=0.
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Wir gehen ganz genauso vor wie beim analogen Lemma für symplektische Transvektionen. Ist \gamma_array(\phi2\,u) eine Transvektion aus U(V), so gilt: \forall\ v,w\in\ V: blf(v,w)=blf(v+\phi2(v)u,w+\phi2(w)u) | | =blf(v,w)+\phi2(v)*blf(u,w)+\phi2(w)^-*blf(v,u)+\phi2(v)*\phi2(w)^-*blf(u,u) <=>\forall\ v,w\in\ V:\ 0=\phi2(v)*blf(u,w)+\phi2(w)^-*blf(v,u)+\phi2(v)*\phi2(w)^-*blf(u,u)\lr(*) Wählt man w\in\ ker(\phi2), so folgt: \forall\ v\in\ V: 0=\phi2(v)*blf(u,w) Wählt man nun v\notin\ ker(\phi2), so folgt w \perp u. => ker(\phi2)\subseteq\ u^\perp. Weil beide Räume Kodimension 1 haben, folgt ker(\phi2)=u^\perp=ker(blf(\dot,u)) und daher \phi2=\lambda\.blf(u,\dot) für ein geeignetes \lambda\in\ K. Da bei einer Transvektion per definitionem auch u\in\ ker(\phi2)\\{0} gilt, ist u also ein isotroper Vektor. Es bleibt also nur noch \lambda+\lambda^-=0 zu zeigen. Indem wir nochmal einsetzen, erhalten wir: \forall\ v,w\in\ V: 0=(\lambda*blf(u,v))*blf(u,w)+(\lambda*blf(w,u))^-*blf(v,u) | | =\lambda*blf(v,u)*blf(u,w)+\lambda^-*blf(u,w)*blf(v,u) | | =(\lambda+\lambda^-)*blf(v,u)*blf(u,w) Und indem wir v,w so wählen, dass blf(v,u)!=0!=blf(u,w) erhalten wir \lambda+\lambda^-=0 wie behauptet. Umgekehrt ist \gamma_array(\phi2\,u) in U(V), wenn u isotrop, \phi2=\lambda\.blf(\dot,u) und \lambda+\lambda^-=0 ist. Dann gilt nämlich: \align\ blf(v+\phi2(v)u,w+\phi2(w)u)><=blf(v,w)+\phi2(v)*blf(u,w)+\phi2(w)^-*blf(v,u)+\phi2(v)*\phi2(w)^-*blf(u,u) ><=blf(v,w)+(\lambda*blf(v,u))*blf(u,w)+(\lambda*blf(w,u))^-*blf(v,u) ><=blf(v,w)+\lambda*blf(v,u)*blf(u,w)+\lambda^-*blf(v,u)*blf(u,w) ><=blf(v,w)+(\lambda+\lambda^-)*blf(v,u)*blf(u,w) ><=blf(v,w) \blue\ q.e.d.
Dieser Satz liefert uns eine Motivation, vorauszusetzen, dass der Witt-Rang der Form mindestens Eins ist, denn sonst gäbe es keine isotropen Vektoren und damit auch keine unitären Transvektionen.
Definition
Wie schon bei Sp(V) bezeichnen mit \calT_V die von den unitären Transvektionen erzeugte Untergruppe von SU(V).
Lemma
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein unitärer K\-Vektorraum. Es gilt dann: (a) Für alle \lambda,\mu\in\ K mit Tr(\lambda)=Tr(\mu)=0 und alle u\in\ V isotrop: $ $ trv(\lambda,u)\circ\ trv(\mu,u) = trv(\lambda+\mu,u) $ $ trv(\lambda,\mu\.u) = trv(\lambda*N(\mu),u) (b) Für alle \lambda\in\ K mit Tr(\lambda)=0, alle u\in\ V isotrop und alle f\in\ U(V): $ $ f\circ\ trv(\lambda,u)\circ\ f^(-1) = trv(\lambda,f(u)) Insbesondere ist menge(trv(\lambda,u) | \lambda\in\ K, Tr(\lambda)=0) ein abelscher Normalteiler des Stabilisators U(V)_Ku.
Definitionsgeschubse. \blue\ q.e.d.

 

Zweidimensionale unitäre Räume

Genau wie bei Sp(V) stellen wir fest, dass SU(V) in sehr kleinen Dimensionen zu einer speziellen linearen Gruppe isomorph ist:
Lemma 4: SU und SL
Sei H=K^2 mit der hermiteschen Form, die durch die Matrix matrix(0,1;1,0) gegeben ist \(d.h. H ist eine hyperbolische Ebene\). Dann gilt: (a) Es gibt einen K\-linearen Ringautomorphismus \Phi von K^(2\times\ 2), sodass $ $gilt: $ $(i) $ \det(\Phi(A)) = \det(A), tr(\Phi(A))=tr(A), rg(\Phi(A))=rg(A) $ $(ii) $\Phi(SU(H)) = SL_2(E) $ $(iii) \gamma Transvektion <=> \Phi(\gamma) Transvektion (b) Die Operation von SU(H) auf \Gamma(H) und die von SL_2(E) auf \IP(E^2) $ $sind äquivalent.
makro(blf,\<||array(%1),||array(%2)\>) define(dot,opimg(*)) Wir werden damit erstmal eine genau Charakterisierung von SU(H) herleiten: matrix(a,b;c,d)\in\ SU(H) <=> matrix(a,b;c,d)^T*matrix(0,1;1,0)*matrix(a^-,b^-;c^-,d^-)=matrix(0,1;1,0) und ad-bc=1 <=> I. $ a\.c^-+c\.a^-=0 II. $a\.d^-+c\.b^-=1 III. b\.c^-+d\.a^-=1 IV. $b\.d^-+d\.b^-=0 V. $ ad-bc=1 Es gilt: c*1 array(\small\ III.;\normal\=;\small\ $\normal) cb\.c^-+cd\.a^- array(\small\ I.;\normal\=;\small\ $\normal) cb\.c^--da\.c^- = (cb-ad)\.c^- array(\small\ V.;\normal\=;\small\ $\normal) -c^- Analog zeigt man b=-b^- sowie a=a^- und d=d^-. Man erhält also insgesamt a^-=a, b^-=-b, c^-=-c, d^-=d, ad-bc=1 Umgekehrt erfüllt jedes solche Tupel (a,b,c,d) die fünf Gleichungen, wie man durch eine direkte Rechnung zeigt. => SU(H)=menge(matrix(a,b;c,d)|a^-=a, b^-=-b, c^-=-c, d^-=d, ad-bc=1) Dann sind a,d\in\ E sowie c,b\in\ ker(Tr||array(\small\ K;E\normal)). Um jetzt den Isomorphismus \phi zu konstruieren, wählen wir ein festes \mu\in\ ker(Tr)\\{0}, d.h. \mu^-=-\mu. Die Abbildung c\mapsto\mu*c ist nun eine Bijektion ker(Tr)\to\ E, wie man leicht einsieht. Wir behaupten nun, dass \Phi: matrix(a,b;c,d)\mapsto\ matrix(a,\mu\.b;\mu^(-1)\.c,d) der in (a) gesuchte Isomorphismus ist. Man sieht sofort, dass \Phi K\-linear und bijektiv ist. Wegen matrix(a,\mu\.b;\mu^(-1)\.c,d)*matrix(a',\mu\.b';\mu^(-1)\.c',d')=matrix(aa'+bc',\mu\.ab'+\mu\.bd';\mu^(-1)\.ca'+\mu^(-1)\.dc',cb'+dd') ist \phi auch multiplikativ. Also ist \phi ein Isomorphismus wie behauptet. Man sieht ebenfalls sofort, dass \phi die Determinante und die Spur erhält. Da \phi bijektiv ist und die Determinante erhält, wird auch der Rang erhalten, denn rg(M)=0 <=> M=0 und rg(M)=2 <=> \det(M)!=0. Dass \phi(SU(H))=SL_2(E) ist, folgt aus der Vorüberlegung. Dass Transvektionen erhalten werden, folgt aus der Definition, dass \gamma eine Transvektion ist, falls rg(\gamma-1)=1 und (\gamma-1)^2=1 gilt. Diese Bedingungen werden von \phi erhalten. \blue\checked Es bleibt, die Äquivalenz der Operationen zu beweisen. Noch einmal zur Erinnerung: Operieren G_1 und G_2 auf \Omega_1 bzw. \Omega_2, so heißen sie nach unserer Definition äquivalent, wenn es einen Gruppenisomorphismus \phi:G_1\to\ G_2 und eine Bijektion \beta:\Omega_1\to\Omega_2 gibt, sodass: \forall\ g\in\ G_1, \omega\in\Omega_1: \beta(\void^g\.\omega)=\void^\phi(g)\.\beta(\omega) gilt. Unser \phi=\Phi_array(\|SU(H)) haben wir schon, suchen wir also \beta. Wir benutzen projektive Koordinaten, d.h. wir schreiben für h=(h_1, h_2)\in\ K^2 den Punkt Kh\in\IP(K^2) als (h_1\.:h_2). Weil Kv=Kv' <=> v=\lambda\.v' für ein \lambda\in\ K^x gilt, gilt in dieser Schreibweise (a:b)=(a':b') <=> a=\lambda\.a', b=\lambda\.b' für ein \lambda\in\ K^x. Jeder projektive Punkt ist daher entweder gleich (a:1) für genau ein a\in\ K oder gleich (0:1). Die Elemente von \Gamma(H) sind dann genau diejenigen mit a+a^-=0 und das Element (0:1), da blf(ae_1+e_2,ae_1+e_2)=a+a^- gilt. Wir definieren \beta:\Gamma(H)\to\IP(E^2) durch \beta((a:1)):=(\mu\.a:1) \beta((0:1):=(0:1) Da ker(Tr)\to\ E, a\mapsto\mu\.a bijektiv ist, ist \beta bijektiv. Wir können die Abbildung auch geschlossen als (u:v)\mapsto(\mu\.u:v)\cut\ E^2 schreiben. Es bleibt noch nachzurechnen, dass dies wirklich eine Äquivalenz ist. Sei also A=matrix(a,b;c,d)\in\ SU(H) beliebig, B:=\Phi(A)=matrix(a,\mu\.b;\mu^(-1)\.c,d) und (u:v)\in\Gamma(H) beliebig. Dann gilt: A*(u:v)=(au+bv:cu+dv) => \beta(A(u:v))=(\mu(au+bv):cu+dv)\cut\ E^2 und \phi(A)*\beta((u:v))=B*((\mue\.u:v)\cut\ E^2)=B*(\mue\.u:v)\cut\ E^2=(\mu\.au+\mu\.bv:cu+dv)\cut\ E^2 Also ist das Paar(\Phi,\beta) eine Äquivalenz der Operationen von SU(H) auf \Gamma(H) und SL_2(E) auf \IP(E^2). \blue\ q.e.d.
Da über endlichen K jeder zweidimensionaler, unitärer Raum eine hyperbolische Ebene ist, haben wir damit insbesondere auch gezeigt, dass SU_2(q^2)~=SL_2(q) ist. Weil die Skalarmatrizen von \phi unverändert gelassen werden, ist auch PSU_2(q^2)~=PSL_2(q). Neue einfache Gruppen erhalten wir in Dimension zwei also noch nicht. Aber als Induktionsanfang ist dieser Satz trotzdem wichtig. Wir werden vor allem brauchen, dass SU(H) von Transvektionen erzeugt wird und transitiv auf \Gamma(H) operiert.

 

Dreidimensionale unitäre Räume

Als zusätzlichen Induktionsanfang im Fall K=\IF_9 werden wir Aussagen über U_3(\IF_9) benötigen.
Satz 5: Dreidimensionale unitäre Räume
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein dreidimensionaler, unitärer K\-Vektorraum vom Witt\-Index r=1. Dann enthält SU(V)' alle unitären Transvektionen.
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) Da der Witt\-Rang Eins ist, gibt es eine hyperbolische Ebene H<=V und H^\perp ist eindimensional. Somit ist jedes w\in\ H^\perp entweder 0 oder anisotrop. Indem wir die hermitesche Form nötigenfalls durch ein Vielfaches von sich selbst ersetzen, können wir oBdA annehmen, dass es ein solches w\in\ H^\perp\.\\\{0\} mit blf(w,w)=1 gibt. \(Das ist keine Einschränkung, weil die Isometriegruppe ja dieselbe bleibt, wenn wir die Form durch ein Vielfaches ersetzen.\) Sei (e,f) ein hyperbolisches Paar aus H. Bezüglich der Basis (e,w,f) hat unsere hermitesche Form dann die Darstellungsmatrix matrix(,,1;,1,;1,,) Wir betrachten den Stabilisator S von Ke in U(V). Da Ke auf Ke abgebildet wird, schicken auch alle Elemente von S e^\perp=Ke+Kw auf e^\perp. Damit hat jede Matrix aus S obere Dreiecksgestalt bezüglich der Basis (e,w,f): matrix(\kappa,\*,\*;,\lambda,\*;,,\kappa^~) Dabei muss \lambda*\lambda^-=1 sein, da w auf \lambda*w+?*e abgebildet wird und 1=blf(w,w)=blf(\lambda*w+?*e,\lambda*w+?*e)=\lambda*\lambda^- gilt. Wegen 1=blf(e,f)=blf(\kappa*e,\kappa^~*f)=\kappa*\kappa^~^- auch \kappa^~=\kappa^-^(-1) sein. Man sieht überzeugt sich leicht davon, dass umgekehrt auch jede Matrix H(\lambda,\kappa):=matrix(\kappa,,;,\lambda,;,,\kappa^-^(-1)) mit \lambda^-*\lambda=1 in S liegt. Man kann also jedes Element von S schreiben als Produkt einer Matrix vom Typ H(\lambda,\kappa) und einer oberen Dreiecksmatrix mit Einsen auf der Diagonale. Man rechnet schnell nach, dass eine solche Matrix genau dann in U(V) liegt, wenn sie die Gestalt Q(a,b):=matrix(1,-a^-,b;,1,a;,,1) mit a*a^-+b+b^-=0 hat. Also kann jedes Element von S als Produkt eines H(\lambda,\kappa) und eines Q(a,b) geschrieben werden. Man beachte außerdem, dass alle Q(a,b)\in\ SU(V) sind. Man sieht leicht ein, dass H:=menge(H(\lambda,\kappa) | \lambda,\kappa\in\ K^x, \lambda*\lambda^-=1) und Q:=menge(Q(a,b) | a,b\in\ K, a*a^-+b+b^-=0) Untergruppen von U(V) sind, nämlich H=U(V)\cap\ menge(Diagonalmatrizen) und Q=U(V)\cap\ menge(Obere Dreiecksmatrizen mit Diagonale=1). Durch Nachrechnen überzeugt man sich ganz konkret davon, dass Q(a,b)Q(a',b')=Q(a+a',b+b'-a^-\.a') und Q(a,b)^(-1)=Q(-a,b^-) gilt. Für den Kommutator zweier Elemente von Q gilt demnach [Q(a,b), Q(a',b')]=Q(0,a\.a^-'-a^-\.a') Also ist [Q,Q] = menge(Q(0,b) | b+b^-=0). Das wiederum sind alles Transvektionen. Umgekehrt hat jede Transvektion \trv(\lambda,e) bezüglich der Basis (e,w,f) die Matrix matrix(1,,\lambda;,1,;,,1)=Q(0,\lambda) Also sind alle Transvektionen, die e festhalten im Kommutator von SU(V) enthalten. Über e hatten wir aber nichts weiter vorausgesetzt, als dass es in einer hyperbolischen Ebene enthalten ist. Das trifft auf alle isotropen Vektoren zu, also sind alle Transvektionen in SU(V)' enthalten. \blue\ q.e.d.

 

Unitäre Transvektionen II

Ziel dieses Abschnittes ist es, zu zeigen, dass SU(V) von Transvektionen erzeugt wird (außer in einem Ausnahmefall). Dazu verwenden wir ein Transitivitätsargument, das dieselbe Grundidee hat wie der analoge Beweis für Sp(V). Wir zeigen, dass die von den Transvektionen erzeugte Untergruppe transitiv auf einer bestimmten Klasse von Vektoren operiert. Bei Sp(V) war das die Aussage, dass auf den hyperbolischen Paaren transitiv operiert wird. Hier werden wir zeigen, dass auf den anisotropen Vektoren transitiv operiert wird:
Satz 6: Transitivität
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein n\-dimensionaler, unitärer K\-Vektorraum mit Witt\-Index r>0. Wenn (K,n)!=(\IF_4, 3) und K endlich ist, ist \calT(V) transitiv auf \frakM_a:=menge(v | blf(v,v)=a) für alle a\in\ E^x.
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) array(Schritt 1: dim(V)=2)____ V ist dann eine hyperbolische Ebene und wir wissen, dass SU(V)~=SL(E^2) in diesem Fall mit \calT(V) übereinstimmt. Nach dem Satz von Witt operiert U(V) transitiv auf der gegebenen Menge. Wir zeigen, dass die Determinante "korrigiert" werden kann. Wenn man v,w\in\frakM_a hat, dann kann man die beiden um v' bzw. w' zu einer Orthogonalbasis ergänzen. Eine Abbildung f\el\ U(V) mit f(v)=w, muss dann v' auf ein Vielfaches von w' abbilden, oBdA ist das w' selbst. Sei \lambda:=\det(\gamma). Aus der Beschreibung U(K^2) = menge(A\in\ GL_n(K) | A^T*A^-=1) folgt \lambda*\lambda^-=1, also können wir die Abbildung g mit g(w):=w, g(w'):=w'/\lambda betrachten. Dies ist immer noch eine Isometrie, da blf(w',w')=blf(w'/\lambda,w'/\lambda) ist. g\circ\ f ist dann eine Isometrie, bildet v auf w ab und hat Determinante Eins. \blue\checked makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) array(Schritt 2: K endlich und n>=3)____ Da wir bei endlichen Körpern N(K)=E wissen, können wir alle anisotropen Vektoren normieren und umgekehrt aus jedem normierten Vektor einen mit blf(v,v)=a machen. Wir nehmen also oBdA a=1 an. Seien nun v,w\in\frakM_1 beliebig. Wir betrachten den Raum H:=Kv+Kw. array(Fall 1)__: H ist eindimensional. Dann nehmen wir uns eine hyperbolische Ebene H'\subseteq\ H^\perp. Jede hyperbolische Ebene enthält auch anisotrope Vektoren, also finden wir ein anisotropes u mit u\perp\ v, u\perp\ w. Nach dem eben Gezeigten, können wir v mit Transvektionen zunächst auf u und dann auf w abbilden. array(Fall 2)__: H ist zweidimensional und nichtentartet. Da K endlich ist, muss dieser Unterraum also eine hyperbolische Ebene sein. Wieder mit dem Argument von eben, gibt es ein Produkt von Transvektionen aus SU(H), das v auf w abbildet. Indem wir solche Transvektionen \t durch \t\|H^\senkrechtauf:=\id auf ganz V fortsetzen, erhalten wir ein Produkt von Transvektionen \(Die Fortsetzungen sind nämlich selbst Transvektionen\) in SU(V), das v auf w abbildet. array(Fall 3)__: H ist zweidimensional, aber entartet. Sei H\cap\ H^\perp=Kx. Wir wählen oBdA x derart, dass v=x+aw mit a!=0 ist. array(Fall 3.1)__: n>3 Dann ist H^\perp (n-2)\-dimensional. Wegen rad(H^\perp)=H^\perp\perp\cap\ H^\perp=H\cap\ H^\perp=Kx und n-2>1 ist H^\perp!=Kx, also nicht total isotrop. Also enthält H^\perp einen anisotropen Vektor u. Weil K endlich ist, können wir oBdA außerdem blf(u,u)=1 annehmen. Es ist u\perp\ v und u\perp\ w, also sind Kv+Ku und Kw+Ku jeweils zweidimensional und nichtentartet. Zweimalige Anwendung von Fall 1 erledigt das also. array(Fall 3.2)__: n=3 Wir wählen ein y\in\ w^\perp, sodass (x,y) ein hyperbolisches Paar ist. Das geht, da x\in\ w^\perp isotrop ist und w^\perp nichtentartet ist. Wir rechnen nun nach, dass w-y\in\ v^\perp ist: blf(w-y,v)=blf(w-y,x+w)=blf(w,x)-blf(y,x)+blf(w,w)-blf(y,w)=0-1+1-0=0 Außerdem ist natürlich x\in\ v^\perp nach Definition von x. Außerdem sind x,y,w linear unabhängig. Daher spannen x und w-y einen zweidimensionalen Unterraum von v^\perp auf. Weil n=3 ist, ist v^\perp aber insgesamt nur zweidimensional. Wir zeigen nun, dass man ein anisotropes u\in\ v^\perp wählen kann, sodass Ku+Kv und Ku+Kw zweidimensional und nichtentartet sind. Damit reduzieren wir das Ganze wieder auf Fall 1. Wir setzen mit u=bx+(w-y) an. Da u anisotrop gewählt werden soll, ist unsere erste Forderung: 0!=blf(u,u) $=b\.b^-*blf(x,x)+b*blf(x,w-y)+b^-*blf(w-y,x)+blf(w-y,w-y) $=b\.b*0+b*blf(x,w)-b*blf(x,y)+b^-*blf(w,x)-b^-*blf(y,x)+blf(w,w)-blf(y,w)-blf(w,y)+blf(y,y) $=0+0-b*1+0-b^-*1+1-0+0+0 $=-Tr(b)+1 Wir müssen also b so wählen, dass Tr(b)!=1. Da v und u senkrecht und anisotrop sind, ist Ku+Kv auf jeden Fall nichtentartet. Wir fragen uns also, was gelten muss, damit auch Kw+Ku nichtentartet ist. Zunächst stellen wir fest, dass u-w=bx-y\in\ w^\perp und somit Kw+Ku = Kw$\perp$K(u-w) ist. Der Vektor w ist bereits anisotrop. Damit dieser Raum also ebenfalls nichtentartet ist, muss u-w anisotrop sein. Unsere zweite Forderung an u ist also: 0!=blf(u-w,u-w) $=blf(bx-y,bx-y) $=b\.b^-*blf(x,x)-b*blf(x,y)-b^-*blf(y,x)+blf(y,y) $=-b*1-b^-*1 $=Tr(b) Unser u erfüllt unsere Wünsche also genau dann, wenn Tr(b)\notin\ menge(0,1). Da wir K!=\IF_4, also E!=\IF_2 voraussetzen und Tr(K)=E wissen, können wir das durch ein geeignetes b immer erreichen. \blue\ q.e.d.
Anmerkungen: (\*) Man kann sich schnell davon überzeugen, dass SU(V) sogar regulär auf \frakM_a operiert, wenn n=2 ist, d.h. dass alle Stabilisatoren trivial sind. (\*) (n,K)=(3,\IF_4) ist tatsächlich die einzige Ausnahme. Man kann die Aussage auch für unendliche Körper zeigen, aber das ist ein längerer, technischer Beweis, der insgesamt einfach nur unschön ist. Wer ihn unbedingt sehen will, wird ihn im übernächsten Artikel finden, wo ich einige Ergänzungen zu unitären und orthogonalen Gruppen über unendlichen Körpern schreibe. Mit diesem Satz werden wir nun induktiv beweisen, dass SU(V) bis auf den Ausnahmefall (K)=(\IF_4, 3) von den Transvektionen erzeugt wird. Es stellt sich heraus, dass SU_3(2^2) tatsächlich ein Ausnahmefall ist. Das liegt nicht an der verwendeten Beweismethode. Aufgrund dieses Ausnahmefalls müssen wir den Induktionsanfang im Hauptbeweis für K=\IF_4 abändern. Dazu beweisen wir nun dieses Lemma:
Lemma 7: Ein Spezialfall
SU(\IF_4^4)=\calT(V)
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Wir benutzen das "Standardskalarprodukt" auf V=\IF_4^4, d.h. bzgl. der Standardbasis e_1, ..., e_4 setzen wir: blf(v,w) := sum(v_i*(w_i)^-,i=1,4) Außerdem stellen wir \IF_4 als \IF_2\.[\omega] dar mit \omega^2+\omega+1=0. Dann ist der Automorphismus durch \omega^-=\omega^2=\omega+1 gegeben. Wir setzen H:=SU(V)_Ke_1 = menge(f\in\ SU(V) | \exists\lambda\in\IF_4^x: f(e_1)=\lambda\.e_1) array(Beobachtung 1:)__ Wir halten zunächst fest, dass jeder anisotrope Vektor automatisch normiert ist, wenn der einzige Wert von blf(v,v) ungleich 0 ist 1. Außerdem sind die einzigen Lösungen von a+a^-=0 die Werte a=0 und a=1. Alle Transvektionen haben also die Form trv(1,u) für ein isotropes u. array(Beobachtung 2:)__ Weil N(\IF_4)=\IF_2 ist, ist blf(\lambda*e_k,\lambda*e_k)=\lambda*\lambda^-=1 für alle \lambda\in\IF_4^x. Das heißt, dass genau diejenigen Vektoren (v_1, v_2, v_3, v_4)\in\IF_4^4 isotrop sind, von den Koordinaten genau 0,2 oder 4 verschwinden. Wir untersuchen nun die Operation von \calT(V) auf \frakM_1 genauer. Dazu werden wir zunächst Vertauschungs\- und Skalierungsoperationen durch Transvektionen darstellen: array(Schritt 1:)__ Sind v,v'\in\frakM_1 orthogonal, so gibt es eine Transvektion \sigma mit \sigma(v)=v', \sigma(v')=v und \sigma(w)=w für alle w\in\ menge(v,v')^\perp. Sind v und v' anisotrop und orthogonal zueinander, so ist u:=v+v' isotrop: blf(v+v',v+v')=blf(v,v)+blf(v',v')=1+1=0. Für die Transvektion \sigma:=trv(1,u) gilt daher: trv(1,u)(v')=v'+blf(v',u)*u | | =v'+blf(v',v+v')*(v+v') | | =v'+blf(v',v')*(v+v') | | =v'+1*(v+v') | | =v Aus Symmetriegründen folgt auch \sigma(v)=v'. array(Schritt 2:)__ Sind v,v'\in\frakM_1 orthogonal und \lambda\in\IF_4 \\ \{0\}, so gibt es ein f\in\calT(V) mit f(v)=\lambda\.v, f(v')=\lambda^-\.v' und f(w)=w für alle w\in\ menge(v,v')^\perp. Wähle v'\in\ v^\perp orthogonal. Dann kann man zweimal Schritt 1 anwenden und v mit v' vertauschen und dann v' mit \lambda*v. Dadurch erhält man ein f\in\calT(V) mit f(v)=\lambda\.v, f(v')=1/\lambda\.v'=\lambda^-\.v' und f(w)=w für alle w\in\ menge(v,v')^\perp. array(Schritt 3:)__ H\cap\calT(V) operiert transitiv auf \Omega:=\frakM_1\cap\ e_1^\perp = menge(v\in\ e_1^\perp | blf(v,v)=1) Diese Menge zerfällt wegen Beobachtung 2 in zwei Teilstücke: A:=menge((0;a;0;0), (0;0;b;0), (0;0;0;c) | a,b,c\in\IF_4^x) B:=menge((0;a;b;c) | a,b,c\in\IF_4^x) Wegen Schritt 1 sind alle Permutationsmatrizen in \calT(V), weil alle Transpositonen in \calT(V) sind. Wegen Schritt 2 sind auch die Matrizen der Form D_a:=matrix(a^-;,a,,;,,1,;,,,1), E_b:=matrix(b^-;,1,,;,,b,;,,,1), F_c:=matrix(c^;,1,,;,,1,;,,,c) in H\cap\calT(V). Daher operiert H\cap\calT(V) transitiv auf A und auf B. Wir zeigen, dass es ein weiteres f\in\ H\cap\calT(V) gibt, das A mit B vertauscht. Dazu lassen wir uns von Schritt 1 inspirieren: (\*,0,0,0) können wir festhalten, indem wir erst (\*,0,0,0) mit (0,\*,\*,\*) vertauschen, dann (0,\*,\*,\*) festhalten und anschließend wieder (0,\*,\*,\*) mit (\*,0,0,0) vertauschen. Setze u:=e_1+ae_2+be_3+ce_4 für a,b,c\in\IF_4^x. Die Transvektion trv(1,u) hat dann die Matrix matrix(1;,1;,,1;,,,1) + matrix(1;a;b;c)*matrix(1,a^-,b^-,c^-) = matrix(0,a^-,b^-,c^-;a,0,a\.b^-,a\.c^-;b,b\.a^-,0,b\.c^-;c,c\.a^-,c\.b^-,0) Wählen wir a=b=c=1, so wird e_1 auf e_2+e_3+e_4 geschickt. Das können wir mit D_\omega auf \omega\.e_2+e_3+e_4 schicken. Wenn wir jetzt die Transvektion mit a=\omega, b=c=1 anwenden, wird das Ergebnis wieder e_1 sein. Wir rechnen nach, was mit den anderen Vektoren passiert: matrix(\ 0,\omega^2,1,1;\ \omega,0,\omega,\omega;\ 1,\omega^2,0,1;\ 1,\omega^2,1,0\ )*matrix(\omega^2;,\omega;,,1;,,,1)*matrix(\ 0,1,1,1;\ 1,0,1,1;\ 1,1,0,1;\ 1,1,1,0\ )=matrix(\ 1,0,0,0;\ 0,1,\omega^2,\omega^2;\ 0,\omega,\omega^2,\omega;\ 0,\omega,\omega,\omega^2\ ) Damit haben wir ein Element f\in\ K\cap\calT(V) gefunden, dass A mit B vertauscht. array(Schritt 4:)__ SU(V)=\calT(V) Sei dafür f\in\ SU(V) beliebig. Wir wissen aus dem vorherigen Satz, dass es ein \tau_1\in\calT(V) mit \tau_1(f(e_1))=e_1 gibt, d.h. \tau_1\.f\in\ H. Nach Schritt 3 gibt es ein \tau_2\in\ H\cap\calT(V) mit \tau_2(\tau_1\.f(e_2))=e_2. Es gilt somit \tau_2\.\tau_1\.f(e_1)=\lambda\.e_1 und \tau_2\.\tau_1\.f(e_2)=e_2. Indem wir noch mit \tau_3:=E_\lambda\in\ H\cap\calT(V) multiplizieren, erhalten wir g:=\tau_3\.\tau_2\.\tau_1\.f(e_i)=e_i für i=1 und i=2 Daher mit g die hyperbolische Ebene L:=menge((0,0,x,y)^T | x,y\in\IF_4) in sich selbst abbilden. Weil SU(L)=\calT(L)<=\calT(V) ist, können wir ein \gamma\in\calT(V) finden mit \gamma\.g=id=> g\in\calT(V) => f\in\calT(V) Da f beliebig war, zeigt das die Behauptung. \blue\ q.e.d.
Nun zu der Aussage, die wir eigentlich zeigen wollen:
Satz 8: SU(V) wird von Transvektionen erzeugt
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Ist (V, blf(\dot,\dot)) ein n\-dimensionaler, unitärer Raum mit Witt\-Index r>=1, so ist tritt einer der folgenden Fälle ein: (a) (K,n)=(\IF_4, 3). (b) SU(V)=\calT(V).
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Wir nehmen (K,n)!=(\IF_4, n) an und zeigen SU(V)=\calT(V) durch vollständige Induktion nach n. Wir brauchen zunächst einen Induktionsanfang. Die zweidimensionalen unitären Räume sind von Transvektionen erzeugt, wenn sie Witt\-Index 1 haben, das wissen wir bereits. Für K!=\IF_4 reicht uns das als Induktionsanfang. Für K=\IF_4 ist der Fall n=2 ebenfalls mit der Betrachtung der hyperbolischen Ebenen bereits abgehandelt und wir verwenden n=4 als Induktionsanfang. Der Induktionsschritt ist einfach und folgt wie zuvor mit dem Frattini\-Lemma. Wir nehmen n>=3 für K!=\IF_4 bzw. n>=5 für K=\IF_4 an. SU(V) und \calT(V) operieren transitiv auf \frakM_\alpha für alle \alpha\in\ E^x. Wenn wir jetzt V als H\oplus\ H^\perp zerlegen, dann können wir ein anisotropes v\in\ H^\perp wählen. Wir setzen \alpha:=blf(v,v) und erhalten aus dem Frattini\-Lemma: SU(V) = \calT(V)*SU(V)_v Nun ist aber SU(V)_v = SU(v^\perp) und H <= v^\perp. Also ist v^\perp ein unitärer Raum mit Dimension n-1 und Witt\-Index >=1. Nach Induktionsannahme ist daher SU(V)_v=\calT(v^\perp)<=\calT(V) und wir erhalten somit \calT(V)=SU(V) wie behauptet. \blue\ q.e.d.

 

Das große Finale

Jetzt haben wir alle Zutaten für Iwasawas Lemma beisammen außer der Perfektheit. Das werden wir in diesem Abschnitt beweisen.
Satz 9: Perfektheit von SU(V)
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein n\-dimensionaler, unitärer K\-Vektorraum Witt\-Index r>=1. Dann tritt einer der folgenden Fälle ein: (a) (K,n)\in\ menge((\IF_4, 2), (\IF_9, 2), (\IF_4, 3)). (b) SU(V) ist perfekt.
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Wir nehmen (K,n) != (\IF_4, 2), (\IF_9, 2), (\IF_4, 3) an und zeigen, dass SU(V) perfekt ist. Es reicht dafür aus, zu beweisen, dass alle Transvektionen trv(\lambda,u) im Kommutator SU(V) enthalten sind, weil in allen Fällen außer den drei Ausnahmen SU(V) von Transvektionen erzeugt wird. Jeder isotrope Vektor u ist einer hyperbolischen Ebene H enthalten. Weil SU(U)'<=SU(V)' für alle nichtentarteten U<=V ist, reicht es aus, die Aussage für die folgenden Grenzfälle zu beweisen: 1. U=V \(für K!=\IF_4, \IF_9\.\) 2. U=H \perp Kw mit einem anisotropen Vektor w \(für K=\IF_4 oder \IF_9\.\) array(Fall 1:)__ n=2 und K!=\IF_4, \IF_9 Für zweidimensionale Räume ist SU(V)~=SL(E^2). Weil wir in diesem Fall E!=\IF_2, \IF_3 annehmen, ist SL(E^2) perfekt, d.h. die Transvektion liegt in SU(V)'=SU(V) wie gewünscht. array(Fall 2:)__ n=3 und K=\IF_4 oder \IF_9 Aus unserer Betrachtung dreidimensionaler unitärer Räume folgt, dass SU(V)' alle Transvektionen enthält. \blue\ q.e.d.
Damit haben wir endlich alle Aussagen zusammen, die wir brauchen:
Satz 10: Einfachheit von PSU(V)
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Sei (V, blf(\dot,\dot)) ein n\-dimensionaler, unitärer K\-Vektorraum Witt\-Index r>=1. Dann tritt einer der folgenden Fälle ein: (a) (K,n)\in\ menge((\IF_4, 2), (\IF_9, 2), (\IF_4, 3)). (b) PSU(V) ist einfach.
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) SU(V) operiert auf primitiv \Gamma(V) mit Kern Z(V)\cap\ SU(V). Für jedes Ku\in\ Gamma(V) so enthält der Stabilisator SU(V)_Ku die Gruppe A:=menge(trv(\lambda,u) | \lambda\in\ K, \lambda^-+\lambda=0) welche, wie wir schon festgestellt haben, ein abelscher Normalteiler von SU(V)_Ku ist. Da für f\in\ U(V) immer f\circ\ trv(\lambda,u)\circ\ f^(-1)=trv(\lambda,f(u)) und SU(V) transitiv auf den isotropen Vektoren operiert, enthalten die Konjugierten von A alle Transvektionen. Also erzeugen die Konjugierten von A die Gruppe SU(V) außer in den ausgeschlossenen Fällen. SU(V) ist außerdem perfekt außer in den drei Ausnahmefällen. Damit sind alle Zutaten zusammen und das Lemma von Iwasawa sagt uns, dass SU(V)\/SU(V)\cap\ Z(V) = PSU(V) einfach ist. \blue\ q.e.d.

 

Die Ausnahmen

Was noch bleibt, ist die Ausnahmegruppen zu untersuchen, ob sie auch wirklich Ausnahmen sind, wie bereits angedeutet. Für PSU(\IF||array(\small\ 2;4\normal)) und PSU(\IF||array(\small\ 2;9\normal)) können wir das sofort sagen, denn die Untersuchung zweidimensionaler Räume sagt uns, dass dies die Gruppen PSL(\IF||array(\small\ 2;2\normal)) ~= Sym(3) bzw. PSL(\IF||array(\small\ 2;3\normal)) ~= Alt(4) sind. Die beiden Gruppen sind auflösbar, also nicht einfach. Interessant ist für uns SU(\IF||array(\small\ 3;4\normal)). Wir schauen uns diese Gruppe genauer an
Satz 11: PSU(3,4)
Sei V der 3\-dimensionale, unitäre \IF_4\.\-Vektorraum. Dann gilt: (a) PSU(V) ist zweifach scharf transitiv auf \Gamma(V). (b) Je zwei 2\-Sylows von PSU(V) schneiden nichttrivial. Sie sind $ $zu Q_8 isomorph. (c) Die 3\-Sylow von PSU(V) ist normal. Jedes Element von PSU(V) $ $ist ein 2\- oder 3\-Element. (d) U(V), SU(V) und PSU(V) sind auflösbar.
Aus den Ordnungsformeln erhalten wir abs(PSU_3(4)) = 1/ggT(2+1,3)*2^3*(2^2-1)*(2^3+1) = 8*9 = 72 Wir wissen außerdem aus der Diskussion der dreidimensionalen Geometrien, dass PSU_3(4) zweifach transitiv auf \Gamma(\IF_4^3) ist. Auch aus dem Artikel über Kombinatorik endlicher Geometrien entnehmen wir: abs(\Gamma(\IF_4^3)) = ((4^1-1)(4^1\/2*4^(1-0)+1))/(4-1) = 9 Aus der Bahnformel ergibt sich für die Einpunkt\- und Zweipunkt\-Stabilisatoren: abs(PSU_3(4)_x) = abs(PSU_3(4))/9 = 8 abs(PSU_3(4)_(x,y)) = abs(PSU_3(4))/(9*(9-1)) = 1 d.h. PSU_3(4) operiert zweifach scharf transitiv \(womit a. erledigt ist\), die Einpunkt\-Stabilisatoren sind 2\-Sylowgruppen und je zwei davon schneiden sich trivial \(Weil G_x\cap\ G_y=G_(x,y)\.\) Weil die Einpunktstabilisatoren alle zueinander konjugiert sind, sind dies bereits alle 2\-Sylowgruppen. Damit gibt es genau neun 2\-Sylowgruppen. Darin sind 9*(8-1) = 72-9 Elemente enthalten. Es bleiben also genau neun weitere Elemente übrig. Diese reichen gerade aus für eine einzige 3\-Sylowgruppe. Also ist die 3\-Sylow normal und jedes Element hat eine Zweier\- oder Dreierpotenz als Ordnung. Wir betrachtet nun einen der Einpunktstabilisatoren SU(V)_Kv genauer. Aus der Diskussion dreidimensionaler Geometrien wissen wir, dass dies bei geeigneter Basiswahl die genau Matrizen der Form H(\lambda,\kappa)*Q(\alpha,\beta) sind, wobei H(\lambda,\kappa) = matrix(\kappa;,\lambda,;,,\kappa^-^(-1)) Q(\alpha,\beta) = matrix(1,-\alpha^-,\beta;,1,\alpha;,,1) mit \lambda\.\lambda^-=1 und \kappa\in\ K^x sowie \beta+\beta^-+\alpha\.\alpha^-=0 sind. Die Determinante \det(H(\lambda,\kappa))=\kappa*\kappa^-^(-1)*\lambda=\kappa^2*\lambda ist genau dann gleich 1, wenn \kappa=\lambda \(man beachte: Wir sind in \IF_4, wo x^-=x^2=x^(-1) für alle x!=0 gilt\), d.h. wenn es sich um eine Skalarmatrix handelt. Wenn wir in PSU_3(4) arbeiten, dann ist also H(\lambda,\kappa)==1. Wir müssen uns daher nur um die Q(\alpha,\beta) kümmern. Wieder weil wir mit \IF_4=\IF_2\.[\omega] arbeiten, erhalten wir 0=\beta+\beta^-+\alpha\.\alpha^-=cases(\beta+\beta^2+1,\alpha!=0;\beta+\beta^2,\alpha=0). Und das wird genau von \beta\in\ cases(menge(\omega,\omega^2),\alpha!=0;menge(0,1),\alpha=0) gelöst. Das macht die insgesamt acht Lösungen (\alpha,\beta). Man überzeugt sich leicht davon, dass matrix(1,-\alpha^-,\beta;,1,\alpha;,,1)^2 = matrix(1,,1;,1,;,,1) und matrix(1,,1;,1,;,,1)^2 = matrix(1,,;,1,;,,1) ist für alle \alpha!=0 und \beta\in\ menge(\omega,\omega^2). Das liefert sechs Elemente der Ordnung 4 in PSU(V)_Kv. Die einzige Gruppe der Ordnung 8 mit sechs Elementen der Ordnung 4 ist Q_8. Damit sind alle Aussagen sind a. bis c. bewiesen. \blue\checked d. folgt nun aus c.: Ist Q die 3\-Sylow, so ist Q als 3\-Gruppe auflösbar und PSU_3(4) \/ Q als 2\-Gruppe auch. Also ist PSU_3(4) auflösbar. Also ist SU_3(4) = 3.PSU_3(4) und U_3(4) = SU_3(4).3 als Erweiterung je zweier auflösbarer Gruppen selbst auflösbar. \blue\ q.e.d.
Man kann die Struktur von PSU_3(4) noch genauer beschreiben. Die 3\-Sylowgruppe ist in der Tat elementarabelsch, also zu \IF_3^2 isomorph. Man kann in der Tat eine Operation von PSU_3(4) als affine Gruppe definieren, sodass man eine Einbettung PSU_3(4) \hookrightarrow AGL_2(3) bekommt. Das Bild enthält die Untergruppe \IF_3^2 der Translationen als 3\-Sylowgruppe. Die Einbettung funktioniert wie folgt: Man definiert ein auf der Geometrie des Raums sogenanntes 2-(9,3,1)-Block\-Design: Die neun "Punkte" dieses Designs sind die isotropen Punkte in \IP(\IF_4^3). Die neun "Geraden" dieses Designs sind die hyperbolischen Ebenen. Ein "Punkt" Kv liegt auf der "Geraden" L genau dann, wenn v\in\ L. Man kann sich jetzt davon überzeugen, dass es bis auf Isomorphie genau ein Blockdesign mit diesen Kenngrößen gibt und das ist die affine Ebene \IF_3^2. Ihre Automorphismengruppe ist genau die affine Gruppe AGL_2(3). Die Gruppen PU und PSU erhalten nun die "Punkte", "Geraden" und Inzidenz zwischen ihnen, sind also Untergruppen der Automorphismengruppe des Blockdesigns. Somit erhält man Identifizierungen PU_3(4) ~= \IF_3^2 \rtimes SL_2(3) PSU_3(4) ~= \IF_3^2 \rtimes Q_8 \small\(Da SL_2(3) Index 2 in GL_2(3) hat, fehlt uns noch ein Automorphismus des Blockdesigns, den wir mit PU_3(4) nicht beschreiben können. Man kann zeigen, dass der fehlende Automorphismus vom Körperautomorphismus herkommt: Er ist in homogenen Koordinaten durch (a:b:c) \mapsto (a^-:\.b^-:\.c^-) gegeben.\) Es bleibt noch die Frage offen, ob die Transvektionenuntergruppe \calT(V)<=SU(V) wirklich eine echte Untergruppe ist für V=\IF_4^3. Das ist in der Tat der Fall.
Satz 12: Transvektionen in SU(3,4)
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Ist V=\IF_4^3, dann gilt für die Transvektionenuntergruppe \calT(V)=braket(trv(1,u),u\in\ V isotrop)<=SU(V)=U(V): (a) \calT(V) hat vier Bahnen auf \frakM_1 = menge(v\in\ V | blf(v,v)=1) (b) abs(\calT(V))=2*3^3. Insbesondere ist \calT(V) eine echte Untergruppe von SU(V).
makro(blf,\<||array(%1),||array(%2)\>) makro(trv,\sigma_array(array(%1)\,array(%2))) define(dot,opimg(*)) Wir lassen uns von den Überlegungen im Fall \IF_4^4 inspirieren und betrachten die Operation auf den anisotropen Vektoren. Bzgl. des Standardskalarprodukt haben wir drei Klassen von anisotropen Vektoren: A:=menge((a;0;0), (0;b;0), (0;0;c) | a,b,c\in\IF_4^x) B_1:=menge((a;b;c) | abc=1) B_\omega:=menge((a;b;c) | abc=\omega) B_(\omega^2):=menge((a;b;c) | abc=\omega^2) Die isotropen Vektoren ungleich Null sind genau diejenigen, die genau zwei von Null verschiedene Koordinaten hat. Wir haben bereits nachgerechnet, dass dabei die Transvektionen in den Vektoren (1;1;0), (1;0;1), (0;1;1) die Permutationsmatrizen realisieren, die durch Transpositionen gegeben sind. Diese Matrizen bilden A, B_1, B_\omega und B_(\omega^2) in sich selbst ab. Ist allgemeiner u=e_1+xe_2, u=e_1+xe_3 bzw. u=e_2+xe_3 mit x\in\IF_4^3 so hat trv(1,u) die Darstellungsmatrix matrix(0,x^2,;x,0,;,,1), matrix(0,,x^2;,1,;x,,0) bzw. matrix(1,,;,0,x^2;,x,0) \lr(*) Also bildet \calT(V) stets A, B_1, B_\omega und B_(\omega^2) in sich ab. Ist umgekehrt f\in\ SU(V) mit f(A)=A, f(B_1)=B_1, f(B_\omega)=B_\omega, f(B_(\omega^2))=B_(\omega^2), so ist wegen f(A)=A die Darstellungsmatrix von f derart, dass in jeder Zeile und jeder Spalte genau ein von Null verschiedener Eintrag steht. Indem wir mit den Matrizen der Form \ref(*) geeignet multiplizieren, sehen wir, dass f\in\calT(V) ist. Somit haben wir gezeigt, dass \calT(V) als Matrizen genau durch \calT_V ~= menge(A\in\ SU_3(4) | \forall\ i\exists!j: a_ij!=0) $ $= menge(DP | D diagonal mit \det(D)=1, P Permutationsmatrix) gegeben ist. Daher erhalten wir abs(\calT(V)) = 3^3/3*3! = 2*3^3. \blue\ q.e.d.

 

Abschluss

Das war nun der Beweis für die Einfachheit von PSU. Es sei zum Abschluss noch erwähnt, dass mit ein bisschen Sorgfalt einige der hier präsentierten Resultate auf den Fall übertragen werden können, dass K ein Schiefkörper, $^- ein Antiautomorphismus von K mit a+a^-, a\.a^-\in\ Z(K) ist und V ein K\-Linksvektorraum mit einer hermiteschen oder antihermiteschen $^-\-Sesquilinearform. Man kann auch in diesem Fall zeigen, dass PU(V) einfach ist, sofern V mindestens den Witt\-Index Eins hat. Wir haben uns jetzt mit dem Beweis für PSU schon deutlich schwerer getan als im letzten Artikel über PSp. Im nächsten Artikel werden die orthogonalen Geometrien betrachten und feststellen, dass es in diesem Fall sogar noch eine Stufe verzwickter ist. \=kel^-

Die Reihe "Einfache Gruppen"

Inhaltsverzeichnis Vorheriger Teil der Reihe: PSp Nächster Teil der Reihe: PΩ

 


Dieser Artikel kommt von Matroids Matheplanet
https://matheplanet.de

Die Url für diesen Artikel ist:
https://matheplanet.de/default3.html?article=1542