INDICE
1
Appunti su alcune classi importanti di matrici e gruppi di matrici. Roberto Catenacci Versione del 26 Luglio 2013 Argomenti scelti sulle matrici e sui gruppi di matrici complessivamente trattati nei corsi di Geometria 1A , Geometria 1B e Teoria dei Gruppi. Testi di riferimento consigliati per questi argomenti: M.L. Curtis, Matrix Groups, Universitext, Springer-Verlag, Berlino 1979 A. Baker, Matrix Groups, Springer Undergraduate Mathematics Series, Springer-Verlag, Berlino 2002 S.Lang, Algebra Lineare, Boringhieri, Torino 1989
Indice 1 Matrici normali 1.1 Matrici simmetriche e hermitiane . . . . . . . . . . . . . . . . . . . . . . . . . .
2 4
2 Gruppi di Matrici
4
3 Gruppi Ortogonali e Unitari 3.1 Matrici ortogonali e unitarie . . . . . . . . . . 3.2 Autovalori delle matrici hermitiane e unitarie 3.3 Scomposizione polare . . . . . . . . . . . . . . 3.4 Il teorema spettrale . . . . . . . . . . . . . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
6 8 9 10 11
4 Spazio tangente all’identit` a 12 4.1 Matrici antisimmetriche e antihermitiane . . . . . . . . . . . . . . . . . . . . . . 17 5 Esponenziale, Logaritmo e Algebre di Lie 18 5.1 Algebre di Lie reali di dimensione due . . . . . . . . . . . . . . . . . . . . . . . . 27 5.2 Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1)) . . . . . . . . . . . 30 5.3 Sottogruppi ad un parametro . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33 6 Considerazioni topologiche 6.1 Connessione e suriettivit`a dell’esponenziale 6.2 Il caso di O(n) e SO(n) . . . . . . . . . . 6.3 Quaternioni e rotazioni: SU (2) → SO(3) . 6.4 Il caso di GL(n, R) e GL(n, C) . . . . . . . 6.5 Il caso di SL(2, R) . . . . . . . . . . . . . 6.6 Introduzione all’omotopia dei gruppi . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
. . . . . .
34 34 38 40 44 46 51
1 MATRICI NORMALI
1
2
Matrici normali
In questa sezione iniziamo lo studio di alcune importanti classi di matrici, usate in moltissimi campi della matematica e della fisica. Daremo per noti i pi` u semplici risultati di algebra lineare utilizzati. Indichiamo con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali (di dimensione n2 e 2n2 rispettivamente) e che con il prodotto righe × colonne, sono anelli non commutativi con unit`a. Ricordiamo anche che in Rn si definisce il prodotto scalare standard : (x, y) = xt y =
n X
xi y i
i=1
1 x y x2 y2 t n Dove x = . , y = . e x denota la matrice trasposta di x. Analogamente, in C si xn yn definisce il prodotto hermitiano standard :
1
(x, y) = xt y¯ =
n X
xi y¯i
i=1
Definizione 1.1 Sia A una matrice reale o complessa, si definisce aggiunta (o coniugata hermitiana) di A, la matrice A∗ = A¯t . Osservazione 1.1 E’ chiaro che (A∗ )∗ = A. Inoltre, per le matrici reali, l’aggiunta `e semplicemente la matrice trasposta. Lemma 1.1 In Rn e in Cn (con i prodotti standard) vale la formula: (Ax, y) = (x, A∗ y). Prova. Basta ricordare le propriet`a algebriche della operazione di trasposizione e le definizioni di aggiunta di una matrice, di prodotto scalare e hermitiano: (Ax, y) = (Ax)t y¯ = xt At y¯ = xt A¯t y = (x, A∗ y) La formula del lemma 1.1 , ma con un arbitrario prodotto hermitiano, pu`o essere presa come definizione di aggiunta di una matrice: Definizione 1.2 Si definisce aggiunta di una matrice A rispetto ad un prodotto hermitiano <, >, l’unica matrice A∗ tale che, ∀x, y ∈ Cn < Ax, y >=< x, A∗ y > . Se B `e la matrice del prodotto hermitiano dato, cio`e se < x, y >= xt B y¯, si ottiene immediatamente la formula: A∗ = B −1 At B
1 MATRICI NORMALI
3
Osservazione 1.2 Si noti che la matrice B `e I per il prodotto hermitiano standard, e quindi si riproduce la prima definizione data. (vedi definizione 1.1) Definizione 1.3 Una matrice A si dice normale se commuta con la sua aggiunta: AA∗ = A∗ A. Alcune propriet`a interessanti degli autovalori e degli autospazi delle matrici normali sono date dai seguenti teoremi: Teorema 1.1 Se A `e una matrice normale, e se α `e un autovalore di A con autovettore v, allora α ¯ `e autovalore di A∗ con lo stesso autovettore. Prova. Occorre mostrare che: Av = αv ⇒ A∗ v = α ¯v Calcoliamo usando ripetutamente AA∗ = A∗ A e il lemma 1.1 kA∗ v − α ¯ vk2 = (A∗ v − α ¯ v, A∗ v − α ¯ v) = ∗ ∗ = (A v, A v) − (¯ αv, A∗ v) − (A∗ v, α ¯ v) + (¯ αv, α ¯ v) = ∗ ∗ ∗ = (v, AA v) − α ¯ (v, A v) − α(A v, v) + αα ¯ (v, v) = ∗ = (v, A Av) − α ¯ (Av, v) − α(v, Av) + αα ¯ (v, v) = ∗ = (v, A αv) − α ¯ (αv, v) − α(v, αv) + αα ¯ (v, v) = = (Av, αv) − α ¯ α (v, v) − αα ¯ (v, v) + αα ¯ (v, v) = = (αv, αv) − α ¯ α (v, v) − αα ¯ (v, v) + αα ¯ (v, v) = 0 Essendo quindi kA∗ v − α ¯ vk2 = 0 abbiamo la tesi. Teorema 1.2 Se A `e una matrice normale, e se α e β sono autovalori distinti di A allora i corrispondenti autospazi sono ortogonali tra loro. Prova. Sia Ax = αx e Ay = βy: Si ottiene: (Ax, y) = (αx, y) = α(x, y) e (Ax, y) = ¯ = β(x, y) ⇒ (α − β)(x, y) = 0 ⇒ (x, y) = 0 (nel calcolo abbiamo usato anche (x, A∗ y) = (x, βy) il teorema precedente). Definizione 1.4 Una applicazione lineare si dice normale se la matrice A, ad essa associata in una base ortonormale, `e una matrice normale. Osservazione 1.3 Questa definizione `e corretta in quanto osserveremo pi` u sotto (vedi il lemma 3.4 della sezione 3.1) che se la matrice associata `e normale in una certa base ortonormale lo `e anche in qualsiasi altra base ortonormale. Il risultato principale relativo alle matrici normali `e il cosiddetto Teorema spettrale:
2 GRUPPI DI MATRICI
4
Teorema 1.3 Se l’applicazione lineare ϕ : Cn → Cn `e normale, allora esiste una base ortonormale di autovettori. Prova. Per la dimostrazione rimandiamo alla sezione 3.4 Dal teorema spettrale segue immediatamente che: Teorema 1.4 Le matrici normali sono diagonalizzabili (come matrici complesse) tramite una matrice i cui vettori colonna sono tra loro tutti ortogonali e di norma uno. Osservazione 1.4 Tali matrici sono dette matrici unitarie (vedi sezione 3.1)
1.1
Matrici simmetriche e hermitiane
Nell’ambito delle matrici normali assumono particolare interesse le matrici simmetriche e quelle hermitiane. Definizione 1.5 Una matrice reale A si dice simmetrica se coincide con la sua trasposta: A = At Definizione 1.6 Una matrice A si dice hermitiana se coincide con la sua aggiunta:A = A∗ Analogamente alla definizione 1.4 possiamo dare le seguenti definizioni: Definizione 1.7 Una applicazione lineare si dice simmetrica (hermitiana) se la matrice A, ad essa associata in una base ortonormale, `e una matrice simmetrica (hermitiana). Osservazione 1.5 Questa definizione `e corretta: dimostreremo pi` u sotto (vedi il lemma 3.5 della sezione 3.1) che se la matrice associata `e simmetrica o hermitiana in una certa base ortonormale lo `e anche in qualsiasi altra base ortonormale.
2
Gruppi di Matrici
In questa sezione iniziamo lo studio dei principali gruppi di matrici (reali o complesse), come introduzione alla teoria dei gruppi di Lie; daremo per noti i principali risultati di algebra lineare utilizzati. Indichiamo ancora con Mn (R) e Mn (C) rispettivamente gli insiemi delle matrici n × n reali o complesse (se non importa indicare esplicitamente il campo di numeri considerato, useremo semplicemente il simbolo Mn ). E’ noto che Mn (R) e Mn (C) sono spazi vettoriali reali di dimensione n2 e 2n2 rispettivamente; `e noto anche che su Mn (R) e Mn (C) si pu`o definire un prodotto, il cosiddetto prodotto righe × colonne: se A, B ∈ Mn con elementi Aij , Bij, allora: (AB)ij =
k=n X
Aik Bkj
k=1
La matrice prodotto C = AB `e ancora ∈ Mn . Ricordiamo anche che una matrice A ∈ Mn `e invertibile se e solo se det(A) 6= 0 e, in questo caso, ∃ una unica matrice A−1 tale che
2 GRUPPI DI MATRICI
5
AA−1 = A−1 A = I (dove I `e una matrice con elementi Iij = 1 se i = j e Iij = 0 se i 6= j). Ricordando le seguenti propriet`a del determinante: det(AB) = det A det B e det(A)−1 = (det A)−1 , possiamo ora dare le seguenti definizioni: Definizione 2.1 Il gruppo generale lineare reale, denotato con GL(n, R) `e l’insieme delle matrici invertibili ∈ Mn (R) con il prodotto righe × colonne. Il gruppo speciale lineare reale, denotato con SL(n, R) `e il sottogruppo delle matrici A ∈ GL(n, R) tali che det A = 1. Definizione 2.2 Il gruppo generale lineare complesso, denotato con GL(n, C) `e l’insieme delle matrici invertibili ∈ Mn (C) con il prodotto righe × colonne. Il gruppo speciale lineare complesso, denotato con SL(n, C) `e il sottogruppo delle matrici A ∈ GL(n, C) tali che det A = 1. Teorema 2.1 I gruppi speciali lineari sono sottogruppi normali dei gruppi generali lineari, inoltre: GL(n, R)/SL(n, R) = R∗ (e analoga per C). Prova. La dimostrazione `e identica per il caso reale e complesso. Dalle propriet`a del determinante segue che l’applicazione det : GL(n, R) → R∗ `e un omomorfismo suriettivo di nucleo Ker(det) = SL(n, R). Dal fatto che il nucleo di un omomorfismo `e un sottogruppo normale e dal teorema di isomorfismo segue l’asserto. Descriveremo ora alcuni casi particolari per piccoli n. Esempio 2.1 GL(1, R) = R∗ e GL(1, C) = C∗ . Esempio 2.2 GL(1, C) `e sottogruppo di GL(2, R). Infatti si pu`o definire il seguente omorfismo iniettivo: x −y ρ(x + iy) = y x x −y Notare che det = x2 + y 2 . y x Esempio 2.3 H ∗ (il gruppo moltiplicativo dei quaternioni non nulli) `e sottogruppo di GL(2, C). Infatti si pu`o definire il seguente omorfismo iniettivo: x + iy −z − it ρ(x + iy + jz + kt) = z − it x − iy x + iy −z − it Notare che det = x2 + y 2 + z 2 + t2 . z − it x − iy
3 GRUPPI ORTOGONALI E UNITARI
3
6
Gruppi Ortogonali e Unitari
Studiamo ora i pi` u importanti sottogruppi dei gruppi generali lineari: i gruppi ortogonali e unitari. Lemma 3.1 Una matrice A ∈ GL(n, R) tale che A−1 = At preserva il prodotto scalare: (Ax, Ay) = (x, y) per ogni x, y ∈ Rn ; viceversa, se preserva il prodotto scalare per ogni x, y allora A−1 = At . Una matrice A ∈ GL(n, C) tale che A−1 = A∗ = A¯t preserva il prodotto hermitiano: (Ax, Ay) = (x, y) per ogni x, y ∈ Cn e viceversa. Prova. La dimostrazione `e analoga nei due casi: osserviamo che, per il lemma 1.1 (Ax, y) = (x, A∗ y); si ottiene allora (Ax, Ay) = (x, A∗ Ay) = (x, y). Viceversa, se (Ax, Ay) = (x, y) allora (Ax)t (Ay) = xt y¯ e quindi, (per le propriet`a note della trasposizione) xt At Ay = xt y¯. Essendo verificata per ogni x e y, deve essere At A¯ = I, cio`e, coniugando, A∗ A = I. Il lemma 3.1 e le note propriet`a dell’aggiunzione: (A∗ )∗ = A, (AB)∗ = B ∗ A∗ , (A−1 )∗ = (A∗ )−1 , det A∗ = det A consentono di dare le seguenti definizioni: Definizione 3.1 Il gruppo ortogonale O(n) `e il sottogruppo delle matrici di GL(n, R) che preservano il prodotto scalare: O(n) = {A ∈ GL(n, R)|A−1 = At }. Definizione 3.2 Il gruppo unitario U (n) `e il sottogruppo delle matrici di GL(n, C) che preservano il prodotto hermitiano: U (n) = {A ∈ GL(n, C)|A−1 = A∗ }. Definizione 3.3 Il gruppo delle rotazioni (detto anche gruppo speciale ortogonale) SO(n) `e dato da SO(n) = O(n) ∩ SL(n, R). Definizione 3.4 Il gruppo speciale unitario SU (n) `e dato da U (n) ∩ SL(n, C). Definizione 3.5 La sfera n − 1 dimensionale `e l’insieme S n−1 = {x ∈ Rn |(x, x) = 1} Osservazione 3.1 Dalla relazione A∗ A = I segue che se A ∈ O(n), det A = ±1; se A ∈ U (n), det A = z con z z¯ = 1 e quindi det A ∈ S 1 .(Naturalmente non `e vero il viceversa). Teorema 3.1 I gruppi speciali ortogonale e unitario sono sottogruppi normali rispettivamente dei gruppi ortogonali e unitari (con lo stesso n). Si ha inoltre: O(n)/SO(n) = Z2 e U (n)/SU (n) = S 1 In particolare, O(1) = Z2 = S 0 e U (1) = S 1 . Prova. Dalle propriet`a del determinante e dall’osservazione 3.1 segue che l’applicazione det : O(n) → Z2 `e un omomorfismo suriettivo di nucleo Ker(det) = SO(n). Dal fatto che il nucleo di un omomorfismo `e un sottogruppo normale e dal teorema di isomorfismo segue l’asserto. Per U (n) si procede analogamente.
3 GRUPPI ORTOGONALI E UNITARI
7
Osservazione 3.2 Segue dal teorema precedente che ci sono solo due laterali di SO(n) in O(n) : il laterale SO(n) che contiene I e il laterale O(n) − SO(n) che contiene la matrice C tale che C11 = −1 e Cij = δij se i 6= 1 e j 6= 1; per tale matrice, det C = −1. Segue immediatamente che ogni matrice B ∈ O(n) − SO(n) pu`o essere scritta come B = AC con A ∈ SO(n) (A = BC −1 ) Esempio 3.1 O(2), SO(2) e U (1). Una matrice A di O(2) deve verificare: −1
A
−1 d a c a b − detb A t det A =A = = = b d c d − detc A deta A
Si distinguono ora due casi: a −b i) det A = 1, allora A ∈ SO(2) e A = con a2 + b2 = 1 e quindi possiamo porre b a a = cos θ, b = sin θ. La matrice A rappresenta una rotazione (nel piano cartesiano x, y) in senso antiorario di un angolo θ. Prendendo l’omomorfismo ρ dell’esempio 2.2 si ottiene ρ(cos θ + i sin θ) = A; `e anche chiaro che, in questo caso, ρ `e suriettivo, e quindi si ha un isomorfismo: SO(2) = U (1) = S 1 −a −b ii) det A = −1, allora A ∈ O(2) − SO(2) e A = con a2 + b2 = 1 e quindi possiamo −b a porre a = cos θ, b = sin θ. Si ottiene − cos θ − sin θ cos θ − sin θ −1 0 = − sin θ cos θ sin θ cos θ 0 1 −1 0 La matrice rappresenta una riflessione (nel piano cartesiano x, y) rispetto al0 1 cos θ − sin θ l’asse delle y e la matrice una rotazione di angolo θ. Segue che ogni sin θ cos θ A ∈ O(2) − SO(2) rappresenta una riflessione nel piano x, y rispetto a una retta passante per l’origine. Si noti che la composizione di due riflessioni risulta sempre essere una rotazione (il determinante vale 1). Esempio 3.2 SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1). Le matrici di SU (2) devono verificare la relazione: −1
A
=
−1 a b d −b a ¯ c¯ ∗ = =A = ¯ ¯ c d −c a b d
3 GRUPPI ORTOGONALI E UNITARI
8
Segue che una matrice di SU (2) si pu`o scrivere: a −b A= ¯ con a¯ a + b¯b = 1 b a ¯ Se poniamo a = x + iy e b = z + it si ottiene che (x, y, z, t) ∈ S 3 . La sfera S 3 pu`o essere identificata col gruppo dei quaternioni di norma uno: Sp(1) = {q ∈ H | q q¯ = 1}. E’ facile verificare che l’immagine dell’omomorfismo ρ dell’esempio 2.3 `e proprio SU (2). Infatti, posto 1 0 q = x + iy + jz + kt si ottiene ρ(q)(ρ(q))∗ = . Per la suriettivit`a basta ricordare la 0 1 rappresentazione trovata sopra delle matrici di SU (2) e osservare che ρ(x + iy + jz + kt) = a −b . Si conclude osservando che un omomorfismo iniettivo `e un isomorfismo sulla sua ¯b a ¯ immagine. Osservazione 3.3 S 0 , S 1 e S 3 sono le uniche sfere a cui si pu`o dare una struttura di gruppo.
3.1
Matrici ortogonali e unitarie
Studiamo ora alcune propriet`a algebriche (della massima importanza) delle matrici appartenenti ai gruppi ortogonali e unitari. Definizione 3.6 Le matrici appartenenti rispettivamente ai gruppi ortogonali o unitari sono dette matrici ortogonali o unitarie. Lemma 3.2 Le matrici ortogonali e le matrici unitarie sono matrici normali. Prova. Basta ovviamente dimostrarlo nel caso unitario. Se U −1 = U ∗ segue subito: U U ∗ = I = U ∗U . Lemma 3.3 Le colonne delle matrici ortogonali e delle matrici unitarie hanno norma unitaria e sono tra loro ortogonali. Prova. Queste matrici infatti trasformano basi ortonormali in basi ortonormali, perch`e conservano il prodotto scalare o il prodotto hermitiano. Lemma 3.4 Se A `e una matrice normale, lo `e anche ogni matrice simile ad A tramite una matrice unitaria. Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene: BB ∗ = U ∗ AU (U ∗ AU )∗ = U ∗ A (U U ∗ ) A∗ U = U ∗ AA∗ U B ∗ B = (U ∗ AU )∗ U ∗ AU = U ∗ A∗ (U U ∗ ) AU = U ∗ A∗ AU Essendo A normale, segue la tesi: BB ∗ = B ∗ B.
3 GRUPPI ORTOGONALI E UNITARI
9
Osservazione 3.4 Segue immediatamente da questo lemma che se una applicazione lineare `e rappresentata in una base ortonormale da una matrice normale, `e rappresentata da una matrice normale in ogni altra base ortonormale. Lemma 3.5 Se A `e una matrice hermitiana, lo `e anche ogni matrice simile ad A tramite una matrice unitaria. Prova. Sia B = U −1 AU simile ad A, con U unitaria. Si ottiene: B = U ∗ AU B ∗ = (U ∗ AU )∗ = U ∗ A∗ U Essendo A hermitiana, segue la tesi: B = B ∗ Osservazione 3.5 Segue immediatamente da questo lemma che se una applicazione lineare `e rappresentata in una base ortonormale da una matrice hermitiana, `e rappresentata da una matrice hermitiana in ogni altra base ortonormale.
3.2
Autovalori delle matrici hermitiane e unitarie
Studiamo in questa sezione le principali propriet`a degli autovalori e degli autovettori per le classi di matrici normali di nostro interesse. Teorema 3.2 Gli autovalori di una matrice hermitiana sono numeri reali. Prova. Sia Ax = αx. Allora: (Ax, y) = (x, A∗ y) = (x, Ay) ⇒ (αx, x) = (x, αx) ⇒ α(x, x) = α ¯ (x, x) ⇒ α = α ¯ Segue ovviamente il seguente risultato non banale (ma difficile da ricavare guardando solo il polinomio caratteristico!): Teorema 3.3 Gli autovalori di una matrice simmetrica sono numeri reali. Teorema 3.4 Gli autovalori di una matrice unitaria sono numeri complessi di norma 1. Prova. Sia U x = αx.Allora (vedi lemma 3.1) (U x, U x) = (x, x) ⇒ (αx, αx) = (x, x) ⇒ αα ¯=1 Segue ovviamente anche il seguente risultato, anch’esso non banale: Teorema 3.5 Gli autovalori di una matrice ortogonale possono essere solo ±1. Riportiamo ora un importante corollario del Teorema Spettrale (per la cui dimostrazione vedi 1.3) Teorema 3.6 : 1. Le matrici hermitiane sono diagonalizzabili mediante matrici unitarie.
3 GRUPPI ORTOGONALI E UNITARI
10
2. Le matrici simmetriche sono diagonalizzabili mediante matrici ortogonali. 3. Le matrici unitarie sono diagonalizzabili mediante matrici unitarie. Definizione 3.7 Una matrice simmetrica (o hermitiana) si dice definita positiva se ha tutti gli autovalori strettamente maggiori di zero. Lemma 3.6 Data A definita positiva e simmetrica, esiste una matrice B, anch’essa definita positiva e simmetrica tale che A = B 2 (analogo risultato vale per le matrici hermitiane positive). Prova. La matrice A `e diagonalizzabile tramite matrici ortogonali, e sulla diagonale ha numeri reali strettamente positivi. Sia D una sua forma diagonale, e sia E la matrice diagonale che ha sulla diagonale le radici positive degli autovalori di A: D = C −1 AC = E 2 Si ottiene quindi, posto B ≡ CEC −1 : A = CDC −1 = CE 2 C −1 = CEC −1
CEC −1 = BB = B 2 .
La matrice B `e simmetrica. Infatti, essendo C −1 = C t e E diagonale, si ha: t B t = CEC t = CE t C t = B
Osservazione 3.6 Data A invertibile, At A ` e definita positiva. Infatti At A `e simmetrica, ed inoltre se At Av = λv si ottiene: 0 < (Av, Av) = v, At Av = (v, λv) = λ(v, v) = λ kvk2 perch`e A `e invertibile e v 6= 0. Si ha quindi λ > 0. Lo stesso vale nel caso complesso: data A invertibile, A∗ A ` e hermitiana definita positiva.
3.3
Scomposizione polare
Concludiamo il paragrafo con una interessante propriet`a delle matrici invertibili: Teorema 3.7 Ogni matrice reale invertibile A si pu`o scrivere come il prodotto di una matrice ortogonale R e una matrice simmetrica S definita positiva. Un risultato analogo vale per le matrici complesse: ogni matrice complessa invertibile si pu`o scrivere come il prodotto di una matrice unitaria U e una matrice hermitiana definita positiva H.
3 GRUPPI ORTOGONALI E UNITARI
11
Prova. Dimostriamolo nel caso reale. Consideriamo la matrice At A (simmetrica e definita positiva per l’osservazione 3.6 ); per il lemma 3.6 esiste una matrice S simmetrica e definita positiva tale che S 2 = At A; si ottiene quindi −1 2 t −1 S S ≡ RS S = A A = At −1
Osserviamo ora che R = (At ) S `e ortogonale: −1 −1 t −1 S R = A = S −1 At = S −1 S 2 A−1 = SA−1 t t t −1 S = S t A−1 = SA−1 R = A La dimostrazione nel caso complesso `e perfettamente analoga. Osservazione 3.7 La scomposizione polare nel caso complesso, A = U H, con U unitaria e H hermitiana definita positiva, nel caso di matrici 1 × 1, invertibili, cio`e numeri complessi 6= 0, riproduce, ovviamente, la usuale rappresentazione trigonometrica z = eiθ |z|, con eiθ ∈ U (1), |z| > 0. Osservazione 3.8 Se la matrice A reale ha determinante positivo, la scomposizione `e: A = RS con det R = 1.
3.4
Il teorema spettrale
In questa sezione dimostriamo il risultato principale sulle matrici normali: diagonalizzabilit`a. Partiamo dai due seguenti semplici lemmi.
la loro
Lemma 3.7 Ogni applicazione lineare f definita su un sottospazio complesso V di Cn , a valori in V stesso, ha sicuramente un autovettore. Prova. Infatti, se V ha dimensione r, e si scrive la matrice della restrizione di f a V, si trova una matrice r × r. Questa ha almeno un autovalore complesso, e, conseguentemente, f ha almeno un autovettore appartenente a V. Lemma 3.8 Siano A e B due matrici complesse n × n tali che AB = BA. Allora esiste un elemento non nullo di Cn che `e autovettore sia di A, sia di B. − Prova. Sia λ un autovalore di A, e sia Vλ il corrispondente autospazio. Se → v ∈ Vλ , abbiamo: − − − − A(B(→ v )) = B(A(→ v )) = B(λ→ v ) = λB(→ v ). → − Quindi B( v ) ∈ Vλ . B `e un’applicazione lineare di Vλ in s`e stesso. Per il lemma precedente, − − questa ha almeno un autovettore → w ∈ Vλ . Abbiamo concluso: → w sta in Vλ , dunque `e un → − autovettore di A, e w `e anche autovettore di B.
` 4 SPAZIO TANGENTE ALL’IDENTITA
12
Teorema 3.8 Teorema spettrale. Sia hi il prodotto Hermitiano standard su Cn , e sia A una matrice normale n × n. Allora, esiste una base ortonormale di Cn costituita da autovettori di A. Prova. Procediamo per induzione sulla dimensione n. Il teorema `e ovvio per n = 1 (A `e una matrice 1 × 1). Dobbiamo dimostrare il teorema spettrale in dimensione n, supponendo che esso sia vero in dimensione n − 1. Poich`e A commuta con A∗ , A e A∗ hanno almeno un − autovettore in comune per il lemma 3.8: indichiamolo con → v1 . Dividendolo per la sua norma, − − potremo supporre che → v1 abbia lunghezza 1. Ora, siano V1 = span {→ v1 }, e W = (V1 )⊥ . A − manda W in s`e stesso: se → w ∈ W, − − − − − − hA→ w;→ v1 i = h→ w ; A∗ → v1 i = µ h→ w;→ v1 i = 0 − La penultima uguaglianza si ottiene ricordando che → v1 `e un autovettore anche per A∗ (indicando − con µ l’autovalore associato). L’ultima uguaglianza si ottiene ricordando che → w ∈ W = (V1 )⊥ . − − − Dunque, A→ w `e ortogonale a → v1 , e cio`e A→ w ∈ W . A pu`o essere vista come un’applicazione lineare di W in s`e stesso. Ma W ha dimensione n − 1, dunque si pu`o applicare l’ipotesi − − − induttiva. Sia {→ v2 ; ...; → vn } la base ortonormale di W . Allora, essendo → v1 ortogonale ad ogni → − → − → − n vettore di W , { v1 ; v2 ; ...; vn } `e la base cercata di C . Osservazione 3.9 Nella base ortonormale composta da autovettori la matrice risulta diagonale. Una matrice diagonalizzante `e una matrice le cui colonne sono costituite da autovettori e sulla diagonale abbiamo gli autovalori. Osservazione 3.10 Abbiamo visto che tutte le matrici complesse normali possono essere diagonalizzate in C con una base ortonormale di autovettori. Tuttavia, questo non si verifica nel caso reale. Infatti, una matrice normale reale potrebbe avere autovalori complessi, e quindi non essere diagonalizzabile in campo reale (pur rimanendo ovviamente diagonalizzabile in campo complesso). Tale cosa non si verifica per le matrici reali simmetriche che risultano, quindi, tutte diagonalizzabili; il teorema 3.2, valido per le matrici hermitiane, vero in particolare anche per tutte le matrici simmetriche, afferma infatti che esse possono avere solo autovalori reali.
4
Spazio tangente all’identit` a
Iniziamo in questa sezione lo studio delle propriet`a geometriche e topologiche dei gruppi ortogonali e unitari. Definizione 4.1 Sia V uno spazio vettoriale reale di dimensione finita, una curva in V `e una funzione differenziabile γ : (a, b) → V, dove (a, b) ⊂ R `e un intervallo aperto contenente 0. Definizione 4.2 Sia u = γ(c) con c ∈ (a, b). Un vettore v tangente in u a V `e v = limh→0 γ(c+h)−γ(c) h
` 4 SPAZIO TANGENTE ALL’IDENTITA
13
Se (e1 , e2 , ..., en ) `e una base di V, si ottiene subito che v = γ 0 (c) = (γ10 (c)...γn0 (c)). Come V considereremo d’ora in avanti Mn . Definizione 4.3 Sia G un sottogruppo di GL(n, R) (o GL(n, C)). Una curva in G passante per l’identit`a `e una curva in GL(n, R) (o GL(n, C) tale che, ∀c ∈ (a, b), γ(c) ∈ G e γ(0) = I. Definizione 4.4 Siano α e β due curve in G passanti per l’identit`a, la curva prodotto `e la curva (in G e passante per l’identit`a) η(c) = (αβ)(c) = α(c)β(c) Osservazione 4.1 Si ottiene subito (facendo attenzione all’ordine in cui si moltiplicano gli elementi di G): (αβ)0 (c) = α(c)β 0 (c) + α0 (c)β(c) Definizione 4.5 Lo spazio tangente a G nell’identit`a `e l’insieme T (G) = {v ∈ Mn |v = γ 0 (0)}, essendo γ una curva in G passante per l’identit`a. Lemma 4.1 T (G) `e un sottospazio vettoriale di Mn . Prova. Siano α0 (0), β 0 (0) ∈ T (G), allora (αβ)0 (0) = α(0)β 0 (0) + α0 (0)β(0) = α0 (0) + β 0 (0) e quindi, dato che (αβ)0 (0) ∈ T (G) per la definizione di curva prodotto, anche α0 (0) + β 0 (0) ∈ T (G). Sia ora α0 (0) ∈ T (G) e sia u un numero reale; posto σ(t) = α(ut) si trova immediatamente che σ `e una curva in G passante per l’identit`a e che σ 0 (0) = uα0 (0) e quindi uα0 (0) ∈ T (G). Esempio 4.1 T (GL(1, C)) = C = R2 , T (GL(2, R)) = M2 (R) = R4 . Basta infatti osservare che i valori delle derivate in zero di funzioni reali sono arbitrari numeri reali. Esempio 4.2 T (SO(2)) = R. Sia (vedi esempio 3.1) cos f (t) − sin f (t) α(t) = con f (0) = 0 sin f (t) cos f (t) una curva in SO(2) passante per I. Essendo f 0 (0) un arbitrario numero reale, si vede subito che: 0 −a 0 T (SO(2)) = {matrici 2 × 2 di tipo α (0)} = ,a ∈ R a 0 E quindi T (SO(2)) `e, come spazio reale, vettoriale isomorfo a R. Il lettore farebbe bene a 0 −a verificare in tutti i dettagli che , a ∈ R `e uno spazio vettoriale reale di dimensione a 0 1. Definizione 4.6 La dimensione di G (dim(G)) `e la dimensione di T (G) come spazio vettoriale reale.
` 4 SPAZIO TANGENTE ALL’IDENTITA
14
Definizione 4.7 Un omomorfismo differenziabile ϕ : H → G `e un omomorfismo tale che β(t) = ϕ(α(t)) = (ϕ ◦ α)(t) `e una curva in G per ogni α curva in H. Osservazione 4.2 Si noti che se α passa per l’identit`a di H necessariamente (ϕ ◦ α) passa per l’identit`a di G in virt` u del fatto che un omomorfismo manda l’identit`a nell’identit`a. Il punto chiave della definizione `e la differenziabilit`a della funzione composta. Tutti gli omomorfismi considerati in questa sezione sono differenziabili perch`e si ottengono da prodotti e somme tra numeri reali, numeri complessi (visti come coppie di numeri reali) e quaternioni (visti come quaterne di numeri reali). Definizione 4.8 Il differenziale dϕ di un omomorfismo differenziabile `e l’applicazione dϕ : T (H) → T (G): dϕ(α0 (0)) = β 0 (0) = (ϕ ◦ α)0 (0) In particolare, il differenziale dell’omomorfismo identit`a `e l’applicazione identit`a tra T (H) e T (G). Esempio 4.3 Consideriamo il caso dell’omomorfismo ρ dell’esempio 2.2. Sia α(t) = x(t) + iy(t) una curva in GL(1, C) passante per I. Si ottiene subito che x(t) −y(t) (ρ ◦ α)(t) = y(t) x(t) e quindi: 0 x (0) −y 0 (0) (ρ ◦ α) (0) = y 0 (0) x0 (0) 0
Ora x0 (0) e y 0 (0) sono due arbitrari numeri reali, diciamo a e b; risulta quindi dalla definizione 4.8 e dall’esempio 4.1 che dρ : R2 →M2 (R) a a −b 2 dρ : ∈R → ∈ M2 (R) b b a Si osservi che dρ `e una applicazione lineare iniettiva di rango 2, la sua immagine `e il sottospazio 1 0 0 −1 bidimensionale di M2 (R) generato da e . 0 1 1 0 Esempio 4.4 Se restringiamo ρ alle matrici di U (1) cio`e ai numeri complessi di norma 1, x0 (0) non pu`o pi` u essere arbitrario. Infatti, se x(t)2 + y(t)2 = 1 si ottiene 2x(t)x0 (t) + 2y(t)y 0 (t) = 0, ma x(0) + iy(0) = 1 e quindi deve essere x0 (0) = 0. Ne segue che: 0 −b dρ : b ∈ R → ∈ T (SO(2)) ⊂ M2 (R) b 0 In altri termini (vedi l’esempio 4.2), dρ `e un isomorfismo di spazi vettoriali reali tra T (U (1)) e T (SO(2)). Sappiamo anche (vedi l’esempio 3.1) che ρ `e un isomorfismo di gruppi tra U (1) e SO(2). La situazione descritta in questo esempio si generalizza nel seguente lemma:
` 4 SPAZIO TANGENTE ALL’IDENTITA
15
Lemma 4.2 Il differenziale dϕ di un omomorfismo differenziabile ϕ `e una applicazione lineare. Se ϕ `e un isomorfismo di gruppi H → G, allora dϕ `e un isomorfismo di spazi vettoriali reali T (H) → T (G). Prova. Siano α0 (0), β 0 (0) ∈ T (H) allora (vedi lemma 4.1): dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ)]0 (0) Dove αβ `e la curva prodotto: (αβ) (t) = α(t)β(t). Si ottiene: (ϕ ◦ αβ) (t) = ϕ [αβ(t)] = ϕ [α(t)β(t)] = ϕ [α(t)] ϕ [β(t)] = (ϕ ◦ α) (t) (ϕ ◦ β) (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio: dϕ [α0 (0) + β 0 (0)] = dϕ (αβ)0 (0) = [ϕ ◦ αβ]0 (0) = [(ϕ ◦ α) (t) (ϕ ◦ β) (t)]0t=0 = = [ϕ ◦ α]0 (0) (ϕ ◦ β) (0) + (ϕ ◦ α) (0)[ϕ ◦ β]0 (0) = dϕ [α0 (0)] + dϕ [β 0 (0)] , perch`e (ϕ ◦ β) (0) = (ϕ ◦ α) (0) = ϕ(I) = I, e quindi: dϕ [α0 (0) + β 0 (0)] = dϕ [α0 (0)] + dϕ [β 0 (0)] Sia ora a un numero reale si ha allora (vedi ancora il lemma 4.1): dϕ [aα0 (0)] = dϕ [(aα)0 (0)] = [ϕ ◦ aα)]0 (0) Ricordiamo ora che aα `e la curva (aα) (t) = α(at), per cui: [ϕ ◦ aα](t) = ϕ [α(at)] = [a (ϕ ◦ α)] (t) Osserviamo ora che, dalla definizione di derivata, si ha proprio: [ϕ ◦ aα]0 (0) = [a (ϕ ◦ α) (t)]0t=0 = a (ϕ ◦ α)0 (0) e quindi: dϕ [aα0 (0)] = adϕ [α0 (0)] La linearit` a di dϕ ` e provata. La seconda parte segue dal fatto che la composizione di funzioni differenziabili `e differenziabile e dalla regola di Leibniz. Se ϕ e ψ sono omomorfismi differenziabili ψ
ϕ
H→G→K anche ϕ ◦ ψ lo `e e, inoltre, si verifica che d(ϕ ◦ ψ) = dϕ ◦ dψ. Infatti si ha, dalle definizioni : d(ϕ ◦ ψ) [α0 (0)] = (ϕ ◦ ψ ◦ α)0 (0) = dϕ (ψ ◦ α)0 (0) = (dϕ ◦ dψ) [α0 (0)] Se ϕ `e un isomorfismo differenziabile, anche ϕ−1 lo `e e quindi segue che: d(ϕ ◦ ϕ−1 ) = d(Id) = Id = dϕ ◦ dϕ−1 . Analogamente: d(ϕ−1 ◦ ϕ) = d(Id) = Id = dϕ−1 ◦ dϕ. Dove abbiamo indicato con Id l’applicazione identit`a. Ne consegue che (dϕ)−1 = dϕ−1 e quindi dϕ `e una applicazione lineare invertibile e quindi un isomorfismo.
` 4 SPAZIO TANGENTE ALL’IDENTITA
16
Teorema 4.1 Due gruppi differenziabilmente isomorfi hanno la stessa dimensione. Prova. Segue banalmente dal lemma 4.2. Teorema 4.2 dim(SO(2)) = dim(U (1)) = dim(S 1 ) = 1 e dim(SU (2)) = dim(S 3 ) = 3. (questo enunciato suggerisce che debba esistere una definizione di dimensione (applicabile anche alle sfere che non sono gruppi) per cui dim(S n ) = n) Prova. Abbiamo gi`a visto nell’esempio 4.4 che dim(SO(2)) = dim(U (1)) = 1. Ne vediamo ora un’altra dimostrazione: SO(2), U (1) e S 1 sono differenziabilmente isomorfi (vedi l’esempio 3.1 ed il teorema 3.1) e quindi, (vedi teorema 4.1), possiamo calcolare solo dim(S 1 ). Sia ora γ(t) = eif (t) con f (t) reale, differenziabile e tale che f (0) = 0 una curva in S 1 passante per 1. Si ha T (S 1 ) = {γ 0 (0) = if 0 (0)|}. Essendo ogni numero reale a la derivata in 0 della funzione (reale, differenziabile e passante per 0) f (t) = at segue che T (S 1 ) `e tutto l’asse immaginario e quindi `e isomorfo, come spazio vettoriale reale, a R. Dimostriamo ora la seconda parte. SU (2), S 3 e Sp(1) sono differenziabilmente isomorfi (vedi esempio 3.2). Sia ora γ(t) = x(t) + y(t)i + z(t)j + w(t)k con x(t)2 + y(t)2 + z(t)2 + w(t)2 = 1 e x(0) = 1, y(0) = z(0) = w(0) = 0 una curva passante per l’identit`a in Sp(1). Si nota che in x(0) = 1 la funzione x(t) ha un massimo e quindi x0 (0) = 0 (vedi anche l’esempio 4.4). Ne segue che γ 0 (0) = y 0 (0)i + z 0 (0)j + w0 (0)k. Allora T (Sp(1)) = {γ 0 (0)|γ(0) = 1} ⊂ R3 (dove R3 `e visto come lo spazio vettoriale reale generato da i, j, k). Viceversa, R3 ⊂ T (Sp(1)) = {γ 0 (0)|γ(0) = 1} perch`e, per ogni a, b, c reali, basta considerare la curva γ(t) (in Sp(1), perch`e si vede subito che kγ(t)k2 = 1, con dominio di definizione un piccolo intervallo attorno a 0 dipendente da a, b, c in modo che 1 − a2 t2 − b2 t2 − c2 t2 > 0, differenziabile e passante per 1): √ γ(t) = 1 − a2 t2 − b2 t2 − c2 t2 + ati + btj + ctk e si ottiene proprio ai + bj + ck = γ 0 (0). Il seguente teorema fornisce un’altra giustificazione per l’uso del termine dimensione nella definizione 4.6. Teorema 4.3 dim GL(n, R) = n2 e dim GL(n, C) = 2n2 Prova. Siccome (come spazi vettoriali reali) dim Mn (R) = n2 e dim Mn (C) = 2n2 , basta dimostrare che ogni matrice di Mn pu`o essere vista come la derivata in 0 di una curva in GL(n, R) (oppure GL(n, C)) passante per l’identit`a. Sia allora v ∈ Mn e si consideri, in un intervallo contenente lo zero, la curva σ : (a, b) → Mn definita da σ(t) = tv + I. Tale curva verifica σ(0) = I e σ 0 (0) = v. Il determinante `e una funzione continua (si calcola solo con somme e prodotti) e quindi prendendo l’intervallo di definizione di σ abbastanza piccolo, possiamo essere certi che det σ(t) 6= 0 in quanto det σ(0) = 1. In altre parole una matrice che
` 4 SPAZIO TANGENTE ALL’IDENTITA
17
differisce di poco dall’identit`a `e invertibile. Ci si pu`o convincere di ci`o anche dimostrando la formula seguente (ad esempio nel caso semplice di M2 (R)): det(I + εA) = 1 + εtr(A) + O(ε2 ) Si ricorda che tr(A) `e la traccia della matrice A cio`e la somma degli elementi presenti sulla diagonale principale. La dimostrazione del teorema 4.2, tutta basata su calcoli e costruzioni ad hoc non `e per niente illuminante sulla struttura degli spazi tangenti, ma, a questo punto della trattazione non era forse possibile fare di meglio...
4.1
Matrici antisimmetriche e antihermitiane
Definizione 4.9 Una matrice A ∈ Mn (R) `e detta antisimmetrica se A + At = 0 (dove 0 `e la matrice con tutti gli elementi nulli). Definizione 4.10 Una matrice A ∈ Mn (C) `e detta antihermitiana se A + A∗ = 0. Definizione 4.11 so(n) = {A ∈ Mn (R)|A + At = 0} (notare che risulta sempre tr(A) = 0) Definizione 4.12 u(n) = {A ∈ Mn (C)|A + A∗ = 0} Definizione 4.13 su(n) = {A ∈ Mn (C)|A + A∗ = 0 e tr(A) = 0} Lemma 4.3 so(n) `e un sottospazio vettoriale di Mn (R) di dimensione
n(n−1) . 2
Prova. Se A, B ∈ so(n) segue che (A + B) + (A + B)t = (A + At ) + (B + B t ) = 0. Se a ∈ R e A ∈ so(n) segue che aA + (aA)t = a(A + At ) = 0. Per il calcolo della dimensione, basta osservare che ogni matrice antisimmetrica ha la diagonale tutta nulla e che gli elementi sotto la diagonale sono gli opposti di quelli sopra la diagonale (infatti A + At = 0 implica che Aij = −Aji e Aii = 0). Gli elementi indipendenti di una matrice con diagonale tutta nulla sono 2 2 n2 − n, di cui n 2−n stanno sopra la diagonale e n 2−n sotto. L’osservazione precedente mostra per`o che in una matrice antisimmetrica gli elementi sopra la diagonale determinano anche quelli 2 sotto la diagonale e quindi ne restano solo n 2−n indipendenti. Lemma 4.4 u(n) `e un sottospazio vettoriale reale di Mn (C) di dimensione n2 e su(n) `e un sottospazio vettoriale reale di Mn (C) di dimensione n2 − 1. Prova. Se A, B ∈ u(n) segue che (A + B) + (A + B)∗ = (A + A∗ ) + (B + B ∗ ) = 0. Se a ∈ R e A ∈ u(n) segue che aA + (aA)∗ = aA + a ¯A∗ = a(A + A∗ ) = 0 (Notare che u(n) non `e uno spazio vettoriale su C, perch`e se a ∈ C − R si ha a 6= a ¯). Il caso di su(n) `e totalmente analogo essendo la traccia una operazione lineare. Per il calcolo della dimensione, basta osservare che ogni matrice antihermitiana ha la diagonale tutta puramente immaginaria e che gli elementi sotto la diagonale sono gli opposti dei coniugati di quelli sopra la diagonale (infatti A + A∗ = 0 implica che Aij = −A¯ji e Aii + A¯ii = 0). Osserviamo ora che gli n2 − n numeri complessi che
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
18
individuano gli elementi indipendenti di una matrice complessa con diagonale tutta nulla, sono determinati da 2(n2 − n) numeri reali, di cui n2 − n stanno sopra la diagonale e n2 − n sotto. Sappiamo per`o che in una matrice antihermitiana gli elementi sopra la diagonale determinano anche quelli sotto la diagonale; agli n2 − n numeri reali rimasti indipendenti vanno per`o ancora aggiunti gli n numeri reali che individuano gli elementi puramente immaginari della diagonale. Nel caso di su(n) la traccia `e nulla, e quindi gli elementi puramente immaginari sulla diagonale non sono tutti indipendenti, ma uno tra loro deve essere l’opposto della somma dei rimanenti, e questo fa calare di uno la dimensione reale. Possiamo ora enunciare un risultato preliminare che per`o inizia a mostrare l’importanza degli spazi vettoriali sopra definiti che appaiono in modo naturale in molte altre situazioni. Lemma 4.5 1. Se γ `e una curva passante per l’identit`a in O(n) oppure in SO(n) allora γ 0 (0) ∈ so(n), cio`e T (O(n)) ⊆ so(n) e T (SO(n)) ⊆ so(n). 2. Se γ `e una curva passante per l’identit`a in U (n) allora γ 0 (0) ∈ u(n), cio`e T (U (n)) ⊆ u(n). 3. In particolare, dim O(n) ≤
n2 −n , dim SO(n) 2
≤
n2 −n , dim U (n) 2
≤ n2 ,
Prova. In tutti i casi abbiamo (γγ ∗ )(t) = γ(t)γ ∗ (t) = I, per cui (γγ ∗ )0 (t) = 0. Dalla osservazione 4.1 si ottiene subito: (γγ ∗ )0 (0) = γ(0)γ ∗0 (0) + γ 0 (0)γ ∗ (0) = γ ∗0 (0) + γ 0 (0) = 0 Il punto 3 segue dai punti 1 e 2 e dai lemmi 4.3 e 4.4. Osservazione 4.3 Si noti che non abbiamo detto nulla su SU (n) (perch`e ?). Per dimostrare che le disuguaglianze del punto 3 sono, in realt`a, uguaglianze e trattare anche il caso di SU (n), avremo bisogno di altri concetti e risultati, la cui importanza va tuttavia molto oltre questo scopo.
5
Esponenziale, Logaritmo e Algebre di Lie
Ad un gruppo di matrici G abbiamo associato, nel paragrafo precedente, uno spazio vettoriale: il suo spazio tangente T (G). In questa parte del corso studieremo gli spazi tangenti dei gruppi di matrici e ci occuperemo di un metodo per costruire un gruppo a partire da uno spazio vettoriale con particolari propriet`a. Definizione 5.1 Sia A ∈ Mn (R) l’esponenziale della matrice A `e la serie: eA = I + A + A2 /2 + A3 /3! + ..... Osservazione 5.1 La serie va interpretata nel senso che ∀i, j la matrice eA (quando esiste) ha componenti: eA ij = Iij + Aij + A2 /2 ij + A3 /3! ij + .....
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
19
Osservazione 5.2 Fortunatamente, la matrice eA esiste sempre: Lemma 5.1 La serie eA = I + A + A2 /2 + A3 /3! + ... converge ad un elemento di Mn (R). Prova. Sia a = max{|Aij |}. Pensando di sostituire ogni elemento di A con a si ottiene: |Aij | ≤ a, A2 /2 ij ≤ na2 /2, ..., Ak /k! ij ≤ nk−1 ak /k!. Essendo n e a numeri fissati, il criterio del rapporto1 applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cio`e per ogni i e j. Osservazione 5.3 Si pu` o definire l’esponenziale anche di matrici complesse. Ci limitiamo a ricordare che una successione di numeri complessi zn si dice convergere a z se la successione di numeri reali |zn − z| → 0. Analogamente al caso reale, una serie di numeri complessi si dice convergente se converge la successione delle somme parziali. Una condizione sufficiente perch`e una serie di numeri complessi converga `e che converga, nel senso delle serie di numeri reali, la serie dei moduli (serie assolutamente convergenti). Teorema 5.1 1. Se AB = BA allora eA+B = eA eB . 2. eA ∈ GL(n, R). 3. eBAB
−1
= BeA B −1 .
Prova. Per convincersi del punto 1 basta guardare i primi termini: B 2 A3 A2 B AB 2 B 3 A2 + AB + + + + + + ... eA+B = I + A + B + 2 2 6 2 2 6 A2 A3 B2 B3 eA eB = I + A + + + ... I +B+ + + ... = eA+B 2 6 2 6 Il punto 2 segue dal punto 1: I = e0 = eA−A = eA e−A = e−A eA , e quindi eA `e invertibile avendo un’inversa. Per il punto 3 basta ricordare che: n BAB −1 = BAn B −1
1
Sia ak una successione di termini positivi; se limk→∞ caso, ak = nk−1 ak /k! e quindi il limite vale 0.
ak+1 ak
< 1, allora la serie
P
ak converge. Nel nostro
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
20
Esempio 5.1 SO(2) = {eA con A ∈ so(2)}. Se A ∈ so(2) allora eA ∈ SO(2). Cio`e:
0 −x cos x − sin x x 0 e = sin x cos x 2 2 3 4 0 x3 0 −x 0 −x −x 0 0 −x Basta calcolare = , = , = x 0 0 −x2 x 0 −x3 0 x 0 5 4 0 −x 0 −x5 x 0 , ... , applicare la definizione di esponenziale e ricordare , = x5 0 x 0 0 x4 gli sviluppi delle funzioni cos x e sin x : x2 x4 cos x = 1 − + − .... 2! 4! x 3 x5 sin x = x − + − .... 3! 5! Si osservi anche che ci`o mostra esplicitamente che tutte le matrici di SO(2) (vedi esempio 3.1) si ottengono in questo modo. Osservazione 5.4 Notare che e0 = I, ma invece eA = I non implica A = 0. Ad esempio, 0 −2π 0 e 2π = I. Esempio 5.2 Se A ∈ so(n) allora eA ∈ O(n). Abbiamo infatti (A e At commutano perch`e stiamo considerando matrici normali): t
t
I = e0 = eA+A = eA eA = eA (eA )t E’ bene notare esplicitamente cosa l’esempio non dice; non ` e vero che ogni matrice ortogonale 1 0 `e esponenziale di una matrice antisimmetrica (infatti l’esempio 5.1 mostra che non 0 −1 si otterr`a mai per esponenziazione). Si pu`o anche definire il logaritmo di una matrice. Definizione 5.2 Sia A ∈ Mn (R) il logaritmo della matrice A `e la serie: log A = (A − I) − (A − I)2 /2 + (A − I)3 /3 − (A − I)4 /4 + ..... Lemma 5.2 Per A vicino a I, la serie converge. Prova. Poniamo X = A − I e supponiamo che a = max{|Xij |}. Pensando di sostituire ogni elemento di X con a si ottiene: k 2 2 |Xij | ≤ a, X /2 ij ≤ na /2, ..., X /k ij ≤ nk−1 ak /k Essendo n e a numeri fissati, il criterio del rapporto applicato alla successione dei maggioranti ci dice che la serie converge in modulo elemento per elemento, cio`e per ogni i e j, quando a < n1 . k k+1 Infatti nnak−1 a/k+1 → na, e quindi `e < 1 per a < n1 . k /k
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
21
Le relazioni tra esponenziale e logaritmo sono proprio quelle che ci aspettiamo. Teorema 5.2 Dove le formule hanno senso, elog X = X e log eA = A. Cio`e la mappa exp A = eA `e invertibile per matrici vicine alla matrice 0. Analogamente la mappa log `e invertibile per matrici vicino alla matrice I. Prova. Siccome le serie sono assolutamente convergenti, si possono riarrangiare i termini e quindi verificare le formule, esattamente come si fa nel caso delle funzioni di variabile reale ex e log x. Lemma 5.3 Dove le formule hanno senso, e se log A e log B commutano fra loro, si ha: log (AB) = log A + log B. Prova. elog(AB) = AB = elog A elog B = elog A+log B e quindi, prendendo i logaritmi, si ha la tesi. Osservazione 5.5 Considerata la mappa esponenziale: exp : Mn → Mn , il teorema 5.2 ci dice che l’esponenziale `e una mappa suriettiva e iniettiva da un intorno della matrice 0 a un intorno della matrice I. Dimostremo ora alcune importanti formule relative all’esponenziale di una matrice qualsiasi, non necessariamente reale (vedi osservazione 5.3) Teorema 5.3 Sia A(t) una curva passante per l’identit`a in un gruppo di matrici. Allora: dA d det A = det A · tr(A−1 ) dt dt Prova. Indichiamo con Aij gli elementi di A, e con aij i loro complementi algebrici (i determinanti moltiplicati per (−1)i+j del minore ottenuto da A eliminando la riga i e la colonna j=n P aji j). E’ noto che: ∀i, det A = Aij aij e che (A)−1 ij = det A (notare lo scambio i ←→ j). Si j=1
ottiene quindi:
∂ det A ∂Aij
= aij = (A)−1 ji det A. Allora:
i,j=n X ∂ det A dAij i,j=n X d dAij dA(t) det A = · = det A · (A)−1 = det A · tr(A−1 ) ji dt ∂Aij dt dt dt i,j=1 i,j=1
Lemma 5.4 Sia A ∈ Mn e t un numero reale. Allora det etA = 1 ∀t se e solo se trA = 0. Prova. Siccome dtd etA = etA A, segue dal teorema 5.3 applicato alla curva etA : (il punto 2 del teorema 5.1 ci assicura che ci`o si pu`o fare) d detA det etA = det etA · tr(e−tA ) = det etA · tr(e−tA etA A) = det etA · trA dt dt Allora se trA = 0, det etA `e una costante e, essendo uguale a 1 in t = 0, `e sempre uguale a 1. Viceversa se det etA = 1 la stessa formula fornisce trA = 0.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
22
Teorema 5.4 Per ogni matrice A ∈ Mn e per ogni numero reale t si ha: det etA = et(trA) . In particolare, det eA = etrA . Prova. La formula ricavata per la dimostrazione del lemma 5.4: d det etA = det etA · trA, dt pu`o essere interpretata come una equazione differenziale: dx = trA · x con la condizione iniziale dt t(trA) tA x(0) = 1. Integrandola si ottiene x(t) = e , cio`e det e = et(trA) Possiamo ora concludere il calcolo dello spazio tangente ai gruppi ortogonali e unitari. Lemma 5.5 1. Se A ∈ so(n) allora γ(t) = etA `e una curva passante per l’identit`a in SO(n) e γ 0 (0) = A, cio`e so(n) ⊆ T (SO(n)) 2. Se A ∈ u(n) allora γ(t) = etA `e una curva passante per l’identit`a in U (n) e γ 0 (0) = A, cio`e u(n) ⊆ T (U (n)) 3. Se A ∈ su(n) allora γ(t) = etA `e una curva passante per l’identit`a in SU (n) e γ 0 (0) = A, cio`e su(n) ⊆ T (SU (n)) 4. In particolare, dim O(n) ≥
n2 −n , dim SO(n) 2
≥
n2 −n , dim U (n) 2
Prova. Chiaramente γ(0) = e0 = I e γ 0 (0) = limt→0 ∗
etA −I t
≥ n2 , dim SU (n) ≥ n2 − 1.
= A. Inoltre:
∗
γ(t)γ(t)∗ = etA etA = et(A+A ) = I E quindi γ(t) `e una curva passante per l’identit`a in un gruppo ortogonale o unitario. Ricordando inoltre (vedi teorema 5.4) che det etA = et(trA) , si trova che nei casi 1 e 3, (dove trA = 0), la curva `e tutta in SO(n) e SU (n) rispettivamente. Teorema 5.5 (Le seguenti uguaglianze rappresentano isomorfismi di spazi vettoriali reali). 1. T (O(n)) = T (SO(n)) = so(n). 2. T (U (n)) = u(n). 3. T (SU (n)) = su(n). 4. In particolare, dim SO(n) = dim O(n) =
n(n−1) , dim U (n) 2
= n2 e dim SU (n) = n2 − 1.
Prova. I lemmi 4.5 e 5.5 forniscono immediatamente i punti 1 e 2. Per il punto 3, si deve prima di tutto osservare che se γ(t) `e una curva passante per l’identit`a in SU (n) allora γ 0 (0) ∈ su(n). Infatti det γ(t) = 1 per cui (vedi teorema 5.3): dtd det γ = tr(γ −1 dγ ) = 0, e quindi dt 0 per t = 0 si ottiene trγ (0) = 0, e quindi T (SU (n)) ⊂ su(n) e allora dim SU (n) ≤ n2 − 1. Questo permette di concludere la dimostrazione, perch`e per il lemma 5.5 dim SU (n) ≥ n2 − 1.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
23
Osservazione 5.6 Si noti che dim SO(3) = dim SU (2) = 3 (so(3) e su(2) sono infatti spazi vettoriali isomorfi). Per quanto ne sappiamo fino ad ora SO(3) e SU (2) potrebbero quindi essere gruppi isomorfi. In realt`a non lo sono (hanno il centro diverso, Z(S(U 2)) il centro di SU (2) `e costituito dalle matrici I e −I, mentre il centro di SO(3) `e la sola matrice I (vedi gli esercizi pi` u sotto) e questo fatto suggerisce che si debba approfondire lo studio in varie direzioni. Esercizio 5.1 Sia U (2) il gruppo delle matrici 2 × 2 unitarie, iα e 0 con α, β ∈ R T = 0 eiβ `e un sottogruppo di U (2) isomorfo a U (1)×U (1). T `e massimale, cio`e ogni sottogruppo abeliano che lo contiene coincide con lui. iα e 0 Z(U (2)) = , α ∈ R = U (1) 0 eiα ±1 0 Z(SU (2)) = = Z2 . 0 ±1 Inoltre si ha:
U (2) U (1)
=
SU (2) . Z2
Prova. Le matrici di T appartengono a U (2) perch`e iα −1 −iα iα t e 0 e 0 e 0 = = 0 eiβ 0 e−iβ 0 eiβ L’isomorfismo richiesto `e:
eiα 0 0 eiβ
→ (eiα , eiβ )
Se A ∈ A ⊂U (2) con A abeliano e contenente T, A deve, in particolare, commutare con ogni matrice di T. Si ottiene quindi, ∀α, β: iα iα a b e 0 e 0 a b = c d 0 eiβ 0 eiβ c d iα ae beiβ aeiα beiα = ⇔b=c=0 iα iβ ceiβ deiβ ce de Ma A ∈ U (2) e quindi deve essere anche a¯ a = dd¯ = 1 e quindi A ∈ T. Per trovare il centro di U (2) si osservi che, dal calcolo precedente, Z(U (2)) ⊂ T , infatti gli elementi del centro devono commutare con tutti gli elementi di U (2) e quindi, in particolare, con gli elementi di T. ora che una matrice di T, per essere nel centro, deve commutare anche con Osserviamo 0 1 ∈ U (2) e quindi si ha: −1 0 iα 0 1 e 0 0 eiβ = −1 0 0 eiβ −eiα 0 iα e 0 0 1 0 eiα = 0 eiβ −1 0 −eiβ 0
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
24
eiα 0 Cio`e α = β. Osservato che le matrici del tipo commutano con tutte le matrici, si 0 eiα vede che non ci sono altre condizioni da imporre. Si ottiene quindi: iα e 0 Z(U (2)) = , α ∈ R = U (1) 0 eiα Il centro di SU (2) si trova ovviamente imponendo alle matrici del centro di U (2) l’ulteriore condizione che il determinante valga 1 : ±1 0 Z(SU (2)) = = Z2 0 ±1 Sia ora A ∈ U (2) e indichiamo con ±eiα/2 le due radici complesse di det A = eiα . L’applicazione ϕ : U (2) → SUZ2(2) data da ϕ(A) = eiα/2 A `e ben definita in SUZ2(2) , dove con le parentesi quadre abbiamo denotato la classe di equivalenza in SUZ2(2) , infatti la scelta del segno della radice `e ininfluente perch`e eiα/2 A = −eiα/2 A . L’applicazione `e un omomorfismo iα/2 ed `e anche ovviamente suriettivo. Il suo nucleo `e dato dallematrici A per cui ϕ(A) = ±e A = [±I] e −iα/2 e 0 quindi dalle matrici del tipo , α ∈ R = U (1). Il teorema di isomorfismo −iα/2 0 e (2) consente quindi di concludere che: UU (1) = SUZ2(2) Esercizio 5.2 Sia SO(3) il gruppo delle matrici 3 × 3 unitarie, cos t − sin t 0 T = sin t cos t 0 t ∈ R 0 0 1 `e un sottogruppo di SO(3) isomorfo a SO(2). T `e massimale, cio`e ogni sottogruppo abeliano che lo contiene coincide con lui e Z(SO(3)) = I. Prova. L’isomorfismo richiesto `e ovviamente: cos t − sin t 0 sin t cos t 0 → cos t − sin t sin t cos t 0 0 1 Se A ∈ A ⊂SO(3) con A abeliano e contenente T, A deve, in particolare, commutare con ogni matrice di T. Considerata la base canonica di R3 , T induce tutte le rotazioni del piano e1 , e2 . 2 2 2 Dimostriamo che Ae3 = ±e3 . Infatti posto Ae3 = ae1 + be2 + ce3 (con a + b + c = 1) 0 −1 0 consideriamo la matrice B = 1 0 0 ∈ T. Si ottiene subito: Be1 = e2 , Be2 = −e1 e 0 0 1 Be3 = e3 . Imponendo la commutativit`a ABe3 = BAe3 si ottiene subito c = ±1. La matrice A induce quindi una trasformazione ortogonale nel piano e1 , e2 che commuta con tutte le rotazioni
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
25
di questo piano. Il caso c = −1 per`o `e escluso perch`e `e immediato che una matrice di O(2) che commuta con tutte le matrice di SO(2) deve appartenere a SO(2) e quindi c = 1 perch`e altrimenti il determinante di A varrebbe −1. Abbiamo quindi A ∈ T. Per trovare il centro di SO(3) si osservi che, dal calcolo precedente, Z(SO(3)) ⊂ T , infatti gli elementi del centro devono commutare con tutti gli elementi di SO(3) e quindi, in particolare, con gli elementi di ora che una matrice di T, per essere nel centro, deve commutare anche con T. Osserviamo 0 0 1 0 1 0 ∈ SO(3) e quindi si ha: −1 0 0 0 0 1 cos t − sin t 0 0 0 1 0 1 0 sin t cos t 0 = sin t cos t 0 −1 0 0 0 0 1 − cos t sin t 0 cos t − sin t 0 0 0 1 0 − sin t cos t sin t cos t 0 0 1 0 = 0 cos t sin t 0 0 1 −1 0 0 −1 0 0 Cio`e t = 0 e quindi A = I. Osservazione 5.7 Mostreremo in seguito (vedi teorema 6.8 ) che
SU (2) Z2
= SO(3).
Osservazione 5.8 Gli spazi vettoriali reali so(n) e su(n) non sono chiusi rispetto al prodotto righe × colonne dei loro elementi. Si pu`o tuttavia introdurre in essi una operazione interna, chiamata commutatore, che gode di tutte le propriet`a sensate del prodotto salvo l’associativit` a. Definizione 5.3 Indicando come al solito con T (G) lo spazio tangente di un gruppo ortogonale o unitario G, siano A e B due suoi elementi. Si definisce commutatore di A e B la matrice: [A, B] = AB − BA Lemma 5.6 Siano A, B, C ∈ T (G), il commutatore gode delle seguenti propriet`a: 1. [A, B] ∈ T (G) 2. [A, B] = −[B, A] 3. [A, B + C] = [A, B] + [A, C] 4. [A + B, C] = [A, C] + [B, C] 5. ∀a ∈ R, [aA, B] = [A, aB] = a[A, B] 6. [A, [B, C]] + [C, [A, B]] + [B, [C, A]] = 0
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
26
Prova. Per il punto 1 si deve provare che: (AB − BA) + (AB − BA)∗ = AB − BA + B ∗ A∗ − A∗ B ∗ = 0 Basta scrivere: AB − BA + B ∗ A∗ − A∗ B ∗ = AB + (AB ∗ − AB ∗ ) − BA + (BA∗ − BA∗ ) + B ∗ A∗ − A∗ B ∗ = = A (B + B ∗ ) − (A + A∗ ) B ∗ + (B + B ∗ ) A∗ − B (A + A∗ ) = 0 Nel caso di su(n) occorre anche ricordarsi che, per ogni matrice, tr(AB) = tr(BA) e quindi tr[A, B] = tr (AB − BA) = tr (AB) − tr (BA) = 0.
Gli altri punti sono tutte banali verifiche basate solo sull’uso della definizione. Osservazione 5.9 La formula del punto 6 `e detta identit` a di Jacobi, e sostituisce l’associativit`a per il prodotto A ◦ B = [A, B]: A ◦ (B ◦ C) − (A ◦ B) ◦ C = (A ◦ C) ◦ B e non = 0 Osservazione 5.10 Nel punto 5 `e essenziale che a ∈ R, parliamo qui solo di Algebre di Lie reali. Definizione 5.4 Un qualsiasi spazio vettoriale reale V, dotato di un prodotto interno (denotato con [ , ]V anche nel caso astratto in cui lo spazio vettoriale non sia un sottospazio di Mn ) che soddisfa le propriet`a da 2 a 6 del lemma 5.6 `e detto Algebra di Lie. Definizione 5.5 Un omomorfismo di algebre di Lie `e una applicazione lineare ϕ tra i corrispondenti spazi vettoriali: ϕ:V →W che, inoltre, verifica: ϕ[A, B]V = [ϕ (A) , ϕ (B)]W Osservazione 5.11 Spazi vettoriali isomorfi come spazi vettoriali possono benissimo non essere isomorfi come Algebre di Lie. In altre parole, non tutti gli isomorfismi di spazi vettoriali sono isomorfismi di Algebre di Lie. (vedi l’esempio 5.4)
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
5.1
27
Algebre di Lie reali di dimensione due
In questo paragrafo denoteremo di verse strutture di algebre di Lie sullo stesso spazio vettoriale con la notazione: [, ]0 , [, ]1 , [, ]2 . Sia V = R2 con base e1 e e2; a parte la struttura di algebra di Lie banale: [e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0
(1)
[e1 , e1 ]1 = [e1 , e2 ]1 = 0 [e1 , e2 ]1 = ae1 + be2 = − [e2 , e1 ]1
(2) (3)
In generale si deve avere:
con a, b reali e non entrambi nulli. L’identit`a di Jacobi `e automaticamente soddisfatta. Possiamo supporre, senza perdita di generalit`a, che b 6= 0. Definiamo ora un endomorfismo ϕ di V :
la matrice associata:
ϕ(e1 ) = be1
(4)
1 ϕ(e2 ) = −ae1 + e2 b
(5)
b −a 0 1b
(6)
`e invertibile e quindi ϕ `e un isomorfismo di spazi vettoriali. Mostriamo ora che `e anche un isomorfismo di algebre di Lie tra la struttura data da [e1 , e2 ]1 = ae1 + be2 e la struttura con prodotto di Lie dato da [e1 , e2 ]2 = e2 . Si ha infatti: ϕ [e1 , e2 ]1 = ϕ (ae1 + be2 ) = abe1 − abe1 + e2 = e2 b 1 [ϕ (e1 ) , ϕ (e2 )]2 = be1 , −ae1 + e2 = −ab [e1 , e1 ] + [e1 , e2 ]2 = e2 b b 2
(7) (8)
Ovvero: ϕ [e1 , e2 ]1 = [ϕ (e1 ) , ϕ (e2 )]2
(9)
Abbiamo quindi dimostrato che, a meno di isomorfismi di algebre di Lie, su R2 ci sono solo due strutture di algebra di Lie: [e1 , e2 ]0 = [e1 , e1 ]0 = [e1 , e2 ]0 = 0
(10)
[e1 , e1 ]2 = [e1 , e2 ]2 = 0 [e1 , e2 ]2 = e2 = − [e2 , e1 ]2
(11) (12)
Queste due algebre di Lie ammettono, come ogni algebra di Lie (teorema di Ado), una rappresentazione (ovviamente non unica!) in cui gli elementi di R2 sono matrici, e la parentesi di Lie `e il commutatore.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
28
L’algebra con parentesi [, ]0 `e rappresentata, ad esempio, da: 1 0 0 0 0 0 e1 = , e2 = ,0 = 0 0 0 0 0 1
(13)
infatti:
1 0 0 0 0 0 1 0 0 0 [e1 , e2 ]0 = − = =0 0 0 0 1 0 1 0 0 0 0 x 0 2 Ovvero il punto (x, y) ∈ R `e rappresentato dalla matrice . 0 y L’algebra [, ]2 `e rappresentata, ad esempio, da: 1 0 0 1 0 0 e1 = , e2 = ,0 = 0 0 0 0 0 0 infatti:
(14)
(15)
0 1 0 1 1 0 0 1 [e1 , e2 ]0 = − = = e2 (16) 0 0 0 0 0 0 0 0 x y 2 Ovvero il punto (x, y) ∈ R `e rappresentato dalla matrice . 0 0 Possiamo anche identificare due gruppi di matrici di dimensione due tali che il loro spazio tangente sia isomorfo, come algebra di Lie, alle due algebre descritte sopra. Per l’algebra banale [, ]0 si ha: x 0 ∗ G= con x, y ∈ R > 0 (17) 0 y 1 0 0 0
Mentre per [, ]2 si ha:
H=
x y 0 1
∗
con x > 0 ∈ R e y ∈ R
(18)
Infatti: 0 0 0 x (0) 0 TG = con x (0), y (0) ∈ R 0 0 y (0) 0 0 0 0 x (0) y (0) TH = con x (0) ∈ R e y (0) ∈ R 0 0
Possiamo verificare che, in entrambi i casi, la mappa esponenziale `e suriettiva. Nel primo caso si ha: x 0 x e 0 0 y e = 0 ey
(19) (20)
(21)
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
29
a 0 ln a 0 e quindi, se ∈ G (e allora a, b > 0) esiste un elemento dell’algebra A = 0 b 0 ln b per cui: a 0 A e = (22) 0 b Nel secondo caso, invece, si ha:
x y 1 e 0 0 = 0 x e = 0
1 xn xn−1 y 1 x2 xy 0 x y + ... + + ... + + 0 1 0 0 2 0 0 n! 0 y(1 + 21 x + 3!1 x2 + ... + n!1 xn−1 + ...) 1
(23) (24)
Osserviamo ora che, se x 6= 0, abbiamo: 1 ex − 1 1 1 (1 + x + x2 + ... + xn−1 + ...) = 2 3! n! x
(25)
e allora:
x y ex e 0 0 = 0
y x (e x
− 1) 1
se x 6= 0
(26)
0 y 1 y 0 0 e = 0 1 ln a a b Se allora ∈ H (con a > 0) se a 6= 1 esiste un elemento dell’algebra A = 0 1 0 per cui: a b A e = 0 1 Mentre se a = 1 si ha:
(27) b a−1
ln a 0
(28)
0 b 1 b 0 0 e = 0 1
(29)
E quindi anche in questo caso l’esponenziale `e suriettivo come mappa tra lo spazio tangente e il gruppo. la classificazione delle algebre di Lie reali di dimensione tre `e gi`a molto pi` u complicata e ci limitiamo qui a dare alcuni esempi di algebre di Lie tridimensionali non banali e non isomorfe tra loro.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
5.2
30
Alcune algebre tridimensionali (so(3), su(2), sl(2, R), so(2, 1))
Esempio 5.3 In questo reale so(3) `e: 0 A1 = 0 0
esempio studiamo so(3) e su(2). Una base dello spazio vettoriale 0 0 0 0 1 0 −1 0 0 −1 , A2 = 0 0 0 , A3 = 1 0 0 . 1 0 −1 0 0 0 0 0
E’ facile verificare che la sua struttura di Algebra di Lie `e data da: [A1 , A2 ] = A3 , [A2 , A3 ] = A1 , [A3 , A1 ] = A2 . Una base dello spazio vettoriale reale su(2) `e: i 0 0 1 0 i U1 = , U2 = , U3 = . 0 −i −1 0 i 0 E’ facile verificare che la sua struttura di Algebra di Lie `e data da: [U1 , U2 ] = 2U3 , [U2 , U3 ] = 2U1 , [U3 , U1 ] = 2U2 . Un isomorfismo di Algebre di Lie (e non solo di spazi vettoriali) `e dato da: ϕ(Ui ) = 2Ai . Infatti, ad esempio, ϕ[U1 , U2 ]su(2) = ϕ(2U3 ) = 2ϕ(U3 ) = 4A3 ϕ[U3 , U1 ]su(2) = ϕ(2U2 ) = 2ϕ(U2 ) = 4A2 ϕ[U2 , U3 ]su(2) = ϕ(2U1 ) = 2ϕ(U1 ) = 4A1 ed anche: [ϕ (U1 ) , ϕ (U2 )]so(3) = [2A1 , 2A2 ]so(3) = 4 [A1 , A2 ]so(3) = 4A3 ed analoghe. Per cui: ϕ[Ui , Uj ]su(2) = [ϕ (Ui ) , ϕ (Uj )]so(3) . Esempio 5.4 (Un non esempio) L’isomorfismo ovvio ϕ(Ui ) = Ai non ` e un isomorfismo di Algebre di Lie (perch`e?). Esempio 5.5 Esponenziale degli elementi della base di so(3) e sottogruppi abeliani a un parametro di SO(3). Posto (vedi lemma 5.5 ed esempio 5.1): Ri (t) = etAi ,
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
31
si verifica facilmente che: 1 0 0 cos t 0 sin t cos t − sin t 0 1 0 , R3 (t) = sin t cos t 0 . R1 (t) = 0 cos t − sin t , R2 (t) = 0 0 sin t cos t − sin t 0 cos t 0 0 1 e che gli Ri = {Ri (t), t ∈ R} sono sottogruppi abeliani a un parametro di SO(3) (isomorfi x a SO(2)). Le matrici di Ri operano sui vettori di R3 , rappresentati da y come rotazioni z in senso antiorario attorno, rispettivamente, R1 all’asse x, R2 all’asse y, R3 all’asse z. E’ noto dall’algebra lineare (vedi pi` u sotto anche l’esempio 6.2) che per ogni matrice R di SO(3) esiste in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3). Ricordando che A ∈ R3 significa che A = etA3 per un certo t, ed il punto 3 del teorema 5.1, si ottiene −1 R = B −1 etA3 B = etB A3 B . Essendo B −1 = B t si verifica facilmente che B −1 A3 B ∈ so(3), cio`e l’esponenziale ` e suriettivo in grande: ogni matrice di SO(3) `e ottenuta esponenziando una matrice di so(3). Esempio 5.6 In questo esempio definiamo e studiamo i gruppi SL(2, R) e SO(2, 1) e le loro algebre di Lie. Dimostreremo che sono tridimensionali e isomorfe fra loro, e che non sono isomorfe alle algebre studiate nell’esempio precedente. Il gruppo SL(2, R) `e definito come l’insieme delle matrici reali 2 × 2 con determinante uguale a 1. L’algebra di Lie di SL(2, R) `e lo spazio sl(2, R) delle matrici reali 2 × 2 con traccia nulla. Infatti una curva in SL(2, R) `e data da una matrice a(t) b(t) A(t) = c(t) d(t) con det A(t) = 1 e a(0) = d(0) = 1 e b(0) = c(0) = 0. Quindi un vettore tangente nell’origine 0 0 a (0) b (0) `e dato da una matrice del tipo e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa, c0 (0) −a0 (0) a b t a b la matrice `e il vettore tangente alla curva e c −a che appartiene tutta a c −a SL(2, R) perch`e a b a b t ttr c −a = 1 det e c −a = e e quindi sl(2, R) ⊆ T (SL(2, R)) . Sia ora B : R3 × R3 → R3 la forma bilineare simmetrica non degenere di segnatura (2, 1) data da B(x, y) = x1 y1 + x2 y2 − x3 y3 . La matrice associata a B nella base standard di R3 `e: 1 0 0 Q= 0 1 0 0 0 −1
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
32
Il gruppo SO(2, 1) `e l’insieme delle matrici reali 3 × 3 con determinante 1 che conservano B, ovvero A ∈ SO(2, 1) se e solo se det A = 1 e B(Ax, Ay) = B(x, y) per ogni coppia di vettori x e y in R3 . Si verifica facilmente che A conserva B se e solo se AT QA = Q. L’algebra di Lie del gruppo SO(2, 1) `e lo spazio so(2, 1) delle matrici 3×3 reali X che soddisfano X T Q + QX = 0. Questa identit`a implica che le matrici di so(2, 1) sono tutte e sole le matrici del tipo 0 a b X = −a 0 c con a, b, c ∈ R b c 0 Una curva A(t) in SO(2, 1) verifica A(t)T QA(t) = Q e A(0) = I. La derivata A0 (0) verifica allora A0 (0)T Q + QA0 (0) = 0. Viceversa ogni matrice tale che X T Q + QX = 0 `e la derivata in zero di una curva in SO(2, 1). Posto A(t) = etX si ha infatti: det etX = ettrX = 1 perch`e trX = 0; inoltre si ha: −1 X T Q
T
Q−1 etX Q = etQ
= e−tX (perch`e Q2 = I)
e quindi: T
etX QetX = Qe−tX etX = Q Si ha poi il seguente fatto: le due algebre di Lie so(2, 1) e sl(2, R) sono isomorfe tra loro e non sono isomorfe a so(3) = su(2). Prova. Innanzi tutto osserviamo che le due algebre di Lie sono entrambe di dimensione 3 e che quindi sono isomorfe come spazi vettoriali. Una base di so(2, 1) `e data da 0 1 0 0 0 1 0 0 0 H = −1 0 0 , X = 0 0 0 , Y = 0 0 1 . 0 0 0 1 0 0 0 1 0 Calcoliamo le parentesi di Lie tra queste matrici. Ad esempio 0 1 0 0 0 1 0 0 1 0 1 0 [H, X] = −1 0 0 0 0 0 − 0 0 0 −1 0 0 = −Y 0 0 0 1 0 0 1 0 0 0 0 0 Analogamente si verifica che [H, Y ] = X
e [X, Y ] = H.
5 ESPONENZIALE, LOGARITMO E ALGEBRE DI LIE
33
Ora confrontiamo questo risultato con quello che accade su sl(2, R). Una base (molto usata) di sl(2, R) `e data da 1 0 0 1 0 0 L= , M= , N= . 0 −1 0 0 1 0 Si calcola facilmente che le parentesi di Lie sono date da [L, M ] = 2M,
[L, N ] = −2N,
[M, N ] = L.
Non pare esserci molta somiglianza tra queste relazioni e quelle trovate tra H, X e Y . Tuttavia notiamo che la matrice M − N assomiglia a H. Proviamo quindi come nuova base H 0 = M − N , X 0 = L e Y 0 = M + N . Si ottiene: [H 0 , X 0 ] = [M − N, L] = 2M + 2N = −2Y 0 , [H 0 , Y 0 ] = [M − N, M + N ] = 2L = 2X 0 , [X 0 , Y 0 ] = [L, M + N ] = 2M − 2N = 2H 0 .
(30) (31)
A parte le costanti moltiplicative queste relazioni sono quasi identiche a quelle tra H, X e Y . Infatti se ora prendiamo l’applicazione lineare ϕ tra so(2, 1) e sl(2, R) data da H0 2 X0 X 7→ 2 Y0 Y 7→ 2 H 7→
si vede subito che ϕ conserva le parentesi di Lie. Osserviamo ora che sl(2, R) non pu` o essere isomorfa a so(3); infatti dalle relazioni di commutazione di so(3) si vede che la parentesi di Lie di due vettori tangenti indipendenti `e indipendente da questi (l’algebra `e isomorfa a quella del prodotto vettoriale), mentre in sl(2, R) questo non `e vero in generale (ad esempio [L, M ] = 2M ).
5.3
Sottogruppi ad un parametro
Definizione 5.6 Un sottogruppo a un parametro in un gruppo di matrici G `e l’immagine di un omomorfismo differenziabile ϕ : ϕ: R→G Osservazione 5.12 Con abuso di notazione spesso ϕ stesso si dice sottogruppo a un parametro, tali sottogruppi sono abeliani, infatti ϕ(t)ϕ(s) = ϕ(t + s) = ϕ(s + t) = ϕ(s)ϕ(t)
6 CONSIDERAZIONI TOPOLOGICHE
34
Osservazione 5.13 Si noti che perconoscere definirlo in un piccolo intorno di t = 0, n ϕ basta 1 1 infatti, ∀t ∈ R, e per ogni intero n, ϕ( n t) = ϕ(n n t) = ϕ(t) e quindi ϕ( n1 t) determina ϕ(t). Esempio 5.7 ϕ(t) = etA con A matrice n × n `e un sottogruppo a un parametro di GL(n, R) e ϕ0 (0) = A. Questo esempio `e, in un certo senso, generale: Teorema 5.6 Sia ϕ(t) un sottogruppo a un parametro di GL(n, R), allora esiste una matrice A tale che ϕ(t) = etA . Prova. Per l’osservazione 5.13 basta limitarsi a un piccolo intorno di t = 0. Poniamo α(t) = log ϕ(t); questa `e una curva in Mn e ϕ(t) = eα(t) . Sia α0 (0) = A. Vogliamo mostrare che α(t) = tA. Infatti, per ogni t si ha: α(t + s) − α(t) log ϕ(t + s) − log ϕ(t) log [ϕ(t)ϕ(s)] − log ϕ(t) = lim = lim = s→0 s→0 s s s log ϕ(t) + log ϕ(s) − log ϕ(t) log ϕ(s) − log ϕ(0) = lim = α0 (0) = A = lim s→0 s→0 s s
α0 (t) = lim
s→0
Dove abbiamo usato il fatto che logϕ(0) = log I = 0 e che ϕ(t) e ϕ(s) commutano fra loro (vedi lemma 5.3. Si ha allora la tesi: α(t) = tA. Teorema 5.7 C’`e corrispondenza biunivoca tra i vettori tangenti a GL(n, R) e i suoi sottogruppi a un parametro. Prova. Sappiamo gi`a che ogni matrice n × n `e un vettore tangente a GL(n, R) e viceversa (vedi 4.3), e abbiamo gi`a osservato che ad ogni matrice corrisponde un sottogruppo a un parametro. Il teorema 5.6 dimostra anche che ad ogni sottogruppo corrisponde un vettore tangente. Osservazione 5.14 Lo stesso `e ovviamente vero anche per GL(n, C). Osservazione 5.15 Il teorema `e facilmente dimostrabile anche per SO(n), O(n), U (n) e SU (n). Basta osservare che a ogni vettore tangente A ad uno dei gruppi citati corrisponde il sottogruppo etA e che questo sottogruppo (vedi la dimostrazione del lemma 5.5) `e sottogruppo dei gruppi citati. Viceversa ad ogni sottogruppo dei gruppi citati corrisponde un vettore tangente ai gruppi citati (vedi teorema 5.6 e lemma 4.5).
6 6.1
Considerazioni topologiche Connessione e suriettivit` a dell’esponenziale
Ricordando che i gruppi di matrici sono sottoinsiemi di qualche Rn che sono spazi metrici, ad esempio con l’usuale distanza euclidea d, `e chiaro che sono essi stessi spazi metrici.
6 CONSIDERAZIONI TOPOLOGICHE
35
Definizione 6.1 Sia G un gruppo di matrici, la componente connessa con l’identit`a, (indicata con G0 ) `e l’insieme degli elementi di G che possono essere connessi all’identit`a tramite una curva (continua e tutta contenuta in G). In altre parole, g ∈ G0 se e solo se esiste una curva γ continua e tale che: γ(t) ∈ G, γ(0) = I, γ(1) = g. Definizione 6.2 G `e connesso se G0 = G. Osservazione 6.1 Questa definizione di connessione `e quella che in topologia `e usualmente chiamata connessione per archi. Teorema 6.1 G0 `e un sottogruppo normale di G. Il quoziente G/G0 ≡ π0 (G) `e detto gruppo delle componenti connesse di G. Prova. Dati h, k ∈ G0 indicheremo con h(t) e k(t), rispettivamente, le curve tali che: h(0) = k(0) = I e h(1) = h, k(1) = k G0 `e un sottogruppo perch`e la curva g(t) = h(t)k(t) `e tale che g(0) = I e g(1) = hk; inoltre la curva g(t) = (h(t))−1`e tale che g(0) = I e g(1) = h−1 . E’ anche normale, perch`e ∀a ∈ G e h ∈ G0 , la curva g(t) = ah(t)a−1 verifica g(0) = I e g(1) = aha−1 e quindi aha−1 ∈ G0 . Esempio 6.1 GL(n, R) non `e connesso. Il determinante `e una applicazione continua e suriettiva da GL(n, R) a R∗ , per cui se GL(n, R) fosse connesso, lo sarebbe anche R∗ , che per`o, ovviamente, non lo `e. Dimostreremo in seguito che GL0 (n, R) = {A| det A > 0}, e quindi π0 (GL(n, R)) contiene due elementi, rappresentati rispettivamente dalle matrici con determinante positivo o negativo. Osservazione 6.2 Nel caso di GL(n, C) il ragionamento precedente non si applica. Questa osservazione per`o non `e una dimostrazione del fatto (vedi pi` u sotto) che GL(n, C) `e connesso. Osservazione 6.3 O(n) non `e connesso. Anche qui basta considerare il determinante; pu` o essere solo 1 o −1 e quindi una curva continua tutta contenuta in O(n) non pu`o connettere I e una matrice di O(n) con determinante −1 (il determinante dovrebbe passare per il valore zero). Osservazione 6.4 Nel caso di SO(n) il ragionamento precedente non si applica. Questa osservazione per`o non `e una dimostrazione del fatto che SO(n) `e connesso (vedi pi` u sotto), anzi, `e proprio la componente connessa con l’identit`a di O(n). Esempio 6.2 SO(3) `e connesso. (Vedi anche esempio 5.5) Prova. Vogliamo mostrare che ogni elemento di SO(3) `e connesso all’identit`a da una curva tutta contenuta in SO(3). Dimostriamo prima di tutto che per ogni matrice R di SO(3) esiste in R3 una base ortonormale in cui R = B −1 AB, con A ∈ R3 e B ∈ O(3).
6 CONSIDERAZIONI TOPOLOGICHE
36
• R ∈ SO(n) con n dispari, ammette sempre l’autovalore 1; basta calcolare: det(R − I) = det(R − RRt ) = det R det(I − Rt ) = det(I − R) = (−1)n det(R − I) Si ottiene quindi det(R − I) = 0. • V , l’autospazio dell’autovalore 1, non pu`o avere dimensione 2. Infatti se ha dimensione 2, siano u, v ∈ V di lunghezza 1 e ortogonali tra loro, e sia w ∈ V 0 (il complemento ortogonale di V ) anch’esso di lunghezza 1. Si ottiene: (Rw, u) = (Rw, Ru) = (w, u) = 0 e (Rw, v) = (Rw, Rv) = (w, v) = 0. Ne segue allora Rw ∈ V 0 , (cio`e il sottospazio V 0 `e invariante sotto R) ma la dimensione di V 0 `e 1 e quindi Rw = ±w (si ricordi che gli autovalori possibili per R sono solo ±1). Il caso −1 `e impossibile perch`e allora la matrice R avrebbe come autovalori 1, 1, −1 e quindi il suo determinante non potrebbe essere uguale a 1. Nel caso +1, seguirebbe che V ha dimensione 3, e quindi V 0 sarebbe ridotto al solo vettore nullo. • Se V ha dimensione 3 non c’`e nulla da dimostrare: nella base u, v, w si ha R = I. • Nel caso in cui V ha dimensione 1, V 0 ha dimensione 2. Sia u, v, w una base ortonormale di R3 = V 0 ⊕ V . In questa base, essendo V 0 `e invariante sotto R, la matrice R assume la forma (abbiamo indicato con B ∈ O(3) la matrice di passaggio dalla base canonica di R3 alla base u, v, w): a b 0 A = BRB −1 = c d 0 . 0 0 1 a b cos α − sin α Essendo A ortogonale e di determinante 1, deve essere = (con c d sin α cos α α 6= 0) e quindi: R = B −1 AB = B −1 eαA3 B • Il gruppo SO(3) `e quindi connesso perch`e la curva: (vedi esempio 5.5) γ(t) = B −1 etαA3 B = etB
−1 αA
3B
∈ SO(3)
e verifica γ(0) = I e γ(1) = R.
Osservazione 6.5 La curva costruita sopra `e un sottogruppo a un parametro: abbiamo mostrato che SO(3) non solo `e connesso, ma `e anche connesso per sottogruppi a un parametro. Osservazione 6.6 Gli esempi 5.1 e 5.5 ci mostrano che la mappa esponenziale ` e suriettiva in grande. Ogni matrice di SO(2) e ogni matrice di SO(3) si ottengono quindi per esponenziazione di matrici di so(2) e so(3) rispettivamente. Dimostreremo pi` u sotto che lo stesso `e vero per SO(n).
6 CONSIDERAZIONI TOPOLOGICHE
37
Osservazione 6.7 Ricordiamo che la mappa esponenziale `e anche iniettiva in piccolo, perch`e in un intorno della matrice 0 ha un’inversa (il logaritmo), ma non pu`o essere iniettiva in grande, perch`e altrimenti SO(2) e SO(3) sarebbero diffeomorfi (tramite exp) ai loro spazi tangenti e questo `e ovviamente falso perch`e SO(2) e SO(3) sono compatti (nella usuale topologia metrica) mentre i loro spazi tangenti, essendo spazi vettoriali, non lo sono certamente. Esempio 6.3 SU (2) e U (2) sono connessi (per sottogruppi a un parametro). In particolare la mappa esponenziale `e suriettiva in grande. Prova. Mostriamo che ogni elemento R di SU (2) `e connesso all’identit`a da un sottogruppo a un parametro di SU (2) . Sappiamo che R ∈ SU (2), essendo normale, `e diagonalizzabile tramite matrici unitarie e che una sua forma diagonale D `e (vedi teorema 3.4; per la definizione di U1 vedi esempio 5.3): D = U RU ∗ con U ∈ U (2).
D=
eiα 0 0 e−iα
=e
iα 0 0 −iα
= eαU1
∗
Essendo R = U ∗ DU = U ∗ eαU1 U = eαU U1 U , abbiamo che il sottogruppo a un parametro ∗ R(t) = etαU U1 U soddisfa R(t)R(t)∗ = I, R(0) = I, e R(1) = R. Si ha inoltre: det R(t) = etr(tαU
∗U
1U )
= etαtr(U
∗U
1U )
= e0 = 1,
E quindi R(t) ∈ SU (2). Il caso di U (2) `e perfettamente analogo (vedi teorema 3.4):
D=
eiα 0 0 eiβ
Essendo
∗
∗
R = U DU = U e
iα 0 0 iβ
=e
iα 0 0 iβ
U ∗
U =e tU ∗
abbiamo che il sottogruppo a un parametro R(t) = e R(0) = I, R(1) = R.
iα 0 0 iβ
iα 0 0 iβ
U
U
soddisfa: R(t)R(t)∗ = I,
Teorema 6.2 SU (n) e U (n) sono connessi (per sottogruppi a un parametro). In particolare la mappa esponenziale `e suriettiva in grande. Prova. Essendo le matrici di SU (n) e U (n) diagonalizzabili mediante matrici unitarie, la dimostrazione `e perfettamente analoga a quella del caso n = 2. Osservazione 6.8 Il caso di SO(n) `e pi` u complicato. Infatti tali matrici non sono tutte diagonalizzabili perch`e non hanno sempre abbastanza autovalori reali. Si pu`o dimostrare per`o che, come nel caso di SO(3), possono essere messe in una forma a blocchi particolarmente semplice mediante matrici ortogonali.
6 CONSIDERAZIONI TOPOLOGICHE
6.2
38
Il caso di O(n) e SO(n)
Per dimostrare la connessione di SO(n) occorre descrivere un modo per mettere le matrici di O(n) in una forma particolarmente semplice. Sia A ∈ O(n), e consideriamo la matrice S = A + At . Si verifica immediatamente il seguente lemma: Lemma 6.1 S `e simmetrica, (A ± I)t (A ± I) = 2I ± S e inoltre: SA = AS. Come ogni matrice simmetrica, S ha autovalori reali ed `e diagonalizzabile tramite una matrice ortogonale (vedi teorema 3.6). Siano λi (i = 1, .., k) i suoi autovalori e Vi i corrispondenti autospazi; si ha Rn = V1 ⊕ V2 ⊕ ...Vk . Lemma 6.2 I Vi sono fra loro ortogonali e invarianti rispetto a A, cio`e A (Vi ) ⊆ Vi . Prova. I Vi sono ovviamente ortogonali fra loro perch`e autospazi di autovalori distinti. Sia ora v ∈ Vi , si ha: SAv = ASv = Aλi v = λi Av Quindi nella base ortogonale data dalla unione delle basi ortogonali dei singoli autospazi di S, la matrice A si presenter`a come una matrice a blocchi, perch`e la sua azione non mescola tra loro i Vi . Studiamo ora l’azione sui singoli blocchi. Ci sono due casi distinti: Lemma 6.3 Se λi = ±2, A opera su Vi come moltiplicazione per ∓1. Se invece λi 6= ±2, A non ha autovettori ∈ Vi . In particolare, v e Av, per λi 6= ±2 e v ∈ Vi , sono indipendenti. Prova. Se λi = ±2, (A ± I)t (A ± I) v = (2I ± S) v = 0. Segue che:
0 = (A ± I)t (A ± I) v, v = h(A ± I) v, (A ± I) vi e quindi (A ± I) v = 0, cio`e Av = ∓v. E’ noto (vedi teorema 3.5) che i possibili autovalori di una matrice ortogonale sono ±1, e quindi se A avesse autovettori ∈ Vi , sarebbe λi = ±2. Segue anche che v e Av, per v ∈ Vi , sono indipendenti perch`e se fossero dipendenti Av = αv e quindi v ∈ Vi sarebbe autovettore di A. Sia ora W = Span {v, Av} . Lemma 6.4 W `e invariante per A, cio`e A (W ) ⊆ W. Prova. Sia w ∈ W, w = av + bAv, con v ∈ Vi , cio`e Sv = (A + At ) v = λi v. Si ha: (A + At − λi ) v = 0, cio`e, moltiplicando per A : A2 + I − λi A v = 0 e quindi: A(av + bAv) = aAv + bA2 v = aAv − b (I − λi A) v ∈ W. Riassumendo, possiamo enunciare il seguente teorema:
6 CONSIDERAZIONI TOPOLOGICHE
39
Teorema 6.3 Per ogni matrice A di O(n) esiste una base ortogonale di Rn in cui la matrice `e a blocchi. La struttura dei blocchi `e la seguente: ci sono n1 blocchi 1 × 1 costituiti da 1, n2 blocchi 1 × 1 costituiti da −1, n3 blocchi 2 × 2 costituiti da matrici ortogonali Ri i = 1...n3 . (n = n1 + n2 + 2n3 ). Inoltre det Ri = 1, cio`e Ri ∈ SO(2). Prova. La struttura a blocchi si ricava direttamente dai precedenti lemmi. Per dimostrare che det Ri = 1, supponiamo che det Ri = −1, allora la matrice si pu`o scrivere: α β Ri = con α2 + β 2 = 1. β −α 2α − λi β t = 0. Sappiamo che, per v ∈ Vi , (Ri + Ri − λi ) v = 0 e quindi det β −2α − λi Questo implica λi = ±2 che `e assurdo, perch`e stiamo proprio considerando il caso λi 6= ±2. Se ora supponiamo A ∈ SO(n), il numero n2 (il numero di volte in cui appare −1) sulla diagonale deve essere pari (det A = 1) e quindi anche questi blocchi possono essere raggruppati a due a due per formare altri n2 /2 blocchi di tipo Ri . Analogamente, se n1 `e pari anche questi blocchi possono essere raggruppati a due a due per formare altri n1 /2 blocchi di tipo Ri ; se invece `e dispari sulla diagonale resta, per una sola volta un 1 che non fa parte di una matrice di tipo Ri . Riassumendo: Teorema 6.4 Per ogni matrice A di SO(n) esiste una base ortogonale di Rn in cui la matrice `e a blocchi. La struttura dei blocchi `e la seguente: se n `e pari ci sono n/2 blocchi 2 × 2 costituiti da matrici Ri ∈ SO(2), se n `e dispari c’`e in pi` u anche un blocco 1 × 1 costituito dal numero 1. Esempio 6.4 Se A ∈ SO(3) esiste una base ortonormale in cui: cos θ − sin θ 0 A = sin θ cos θ 0 0 0 1 Questo esempio `e gi`a stato trattato pi` u sopra. Esempio 6.5 Se A ∈ SO(4) esiste una base ortonormale in cui: cos θ − sin θ 0 0 sin θ cos θ 0 0 A= 0 0 cos ϕ − sin ϕ 0 0 sin ϕ cos ϕ Il teorema 6.4 ci consente di dimostrare: Teorema 6.5 SO(4) `e connesso per sottogruppi a un parametro.
6 CONSIDERAZIONI TOPOLOGICHE
40
Prova. Sia A ∈ SO(4), esiste allora, per il teorema 6.4, una matrice ortogonale B tale che: T = BAB −1 dove
cos θ − sin θ 0 0 sin θ cos θ 0 0 T = 0 0 cos ϕ − sin ϕ 0 0 sin ϕ cos ϕ
Allora posto:
0 −θ 0 0 θ 0 0 0 C= 0 0 0 −ϕ 0 0 ϕ 0 si ha: T = eC e quindi: γ(t) = B −1 etC B = etB
−1 CB
∈ SO(4)
e verifica γ(0) = I e γ(1) = A. Teorema 6.6 SO(n) `e connesso per sottogruppi a un parametro. In particolare exp : so(n) → SO(n) `e suriettivo in grande. Prova. In virt` u del teorema 6.4 la dimostrazione `e perfettamente analoga a quella dei casi n = 3 e n = 4. Possiamo ora riprendere l’osservazione 6.4 e dimostrare il seguente teorema: Teorema 6.7 SO(n) `e la componente connessa con l’identit`a di O(n). In particolare π0 (O(n)) = O(n)/SO(n) = Z2 Prova. E’ chiaro per il precedente teorema che SO(n) ⊆ O(n)0 . Per il viceversa, se g ∈ O(n)0 , esiste una curva γ(t) in O(n) tale che γ(0) = I e γ(1) = g; det γ(t) `e una funzione continua di t che pu`o assumere solo i valori ±1, e quindi non pu`o cambiare segno senza passare per lo 0, e allora det γ(t) = 1 per tutti i t (valendo 1 in t = 0). In particolare det γ(1) = det g = 1 e allora g ∈ SO(n).
6.3
Quaternioni e rotazioni: SU (2) → SO(3)
Abbiamo gi`a dimostrato (vedi osservazione 5.6) che sebbene SU (2) e SO(3) abbiano la stessa algebra, e quindi la stessa dimensione, essi non sono gruppi isomorfi perch`e hanno centri diversi; possiamo ora dire di pi` u su questa questione. Descriveremo infatti un importante omomorfismo tra SU (2) e SO(3) (detto omomorfismo di ricoprimento). Osservazione 6.9 Nel corso della dimostrazione illustreremo la relazione esistente tra i quaternioni e le rotazioni spaziali. Il metodo illustrato per trattare le rotazioni spaziali ha una notevolissima applicazione pratica: `e infatti l’algoritmo pi` u efficiente numericamente per eseguire calcoli con le matrici di rotazioni ed `e quello usato nei programmi di grafica 3D al computer, specialmente nei videogiochi.
6 CONSIDERAZIONI TOPOLOGICHE
41
Teorema 6.8
SU (2) Z2 Dove abbiamo identificato Z2 con {±I} ⊂ SU (2). SO(3) =
Prova. Ricordiamo che (vedi esempio 3.2) SU (2) = S 3 = Sp(1) (il gruppo moltiplicativo dei quaternioni di norma 1). L’isomorfismo `e dato esplicitamente da: a −b dove a¯ a + b¯b = 1 ⇐⇒ x + iy + jz + tk (dove a = x + iy e b = z + it) ¯b a ¯ Consideriamo ora lo spazio H1 dei quaternioni cosiddetti puri: H1 = {q ∈ H | q = −q} = {bi + cj + dk, b, c, d ∈ R} Lo spazio H dei quaternioni (isomorfo a R4 ) si spezza quindi in H = H0 ⊕ H1 , dove H0 `e costituito dai quaternioni reali, mentre H1 `e isomorfo come spazio vettoriale reale a R3 . Nel seguito considereremo l’isomorfismo che manda i, j, k nella corrispondente base di R3 ortonormale rispetto al prodotto scalare standard. Converremo anche di indicare il quaternione puro q e il corrispondente vettore con la stessa lettera. In completa analogia con i numeri complessi ¯ . chiameremo parte reale di un qualsiasi quaternione h ∈ H l’espressione Re {h} = 21 h + h Se q1 , q2 sono due quaternioni puri il prodotto scalare in R3 dei corrispondenti vettori `e dato da: (q1 , q2 ) = Re {q1 q2 } Dove al secondo membro il prodotto `e il prodotto di quaternioni. Infatti, ricordando che nei quaternioni si ha hk = k h,si trova che: Re {q1 q2 } = b1 b2 + c1 c2 + d1 d2 ¯ abbiamo per i quaternioni Ricordando che la norma quadrata di un quaternione h `e khk2 = hh puri: (q, q) = qq = kqk2 Quindi la lunghezza euclidea in R3 di un vettore corrisponde alla norma quaternionica del quaternione puro che lo rappresenta. Ricordiamo anche che se A ∈ Sp(1), essendo kAk = 1, si ha AqAq = qq Definiamo ora una mappa Ψ : SU (2) → GL(3, R) Ψ(A)(q) = AqA−1 Dove a sinistra pensiamo A come matrice di SU (2) , Ψ(A) come una matrice 3×3 , q un vettore di R3 e il prodotto `e il prodotto righe per colonne; a destra pensiamo invece A come elemento di Sp(1), q come un quaternione puro (usando gli isomorfismi citati sopra), e i prodotti sono i prodotti tra quaternioni. Notiamo anche che AqA−1 `e effettivamente un quaternione puro e quindi `e interpretabile come un vettore di R3 : AqA−1 = AqA−1 = −AqA−1
6 CONSIDERAZIONI TOPOLOGICHE
42
Dove abbiamo usato le relazioni: A = A−1 , q = −q. La mappa Ψ `e un omomorfismo: Ψ(AB)(q) = ABq (AB)−1 = A BqB −1 A−1 = [Ψ(A) ◦ Ψ(B)] (q) e inoltre preserva la lunghezza in R3 , infatti si ha: AqA−1 AqA−1 = AqA−1 A−1 qA = AqqA = AqAq = qq E’ quindi: (Ψ(A)q, Ψ(A)q) = (q, q) Abbiamo quindi scoperto che, in realt`a: Ψ(A) ∈ O(3). Con un lunghissimo ma elementare calcolo (basta infatti esprimere A come un quaternione unitario, eseguire nell’ordine i prodotti AiA−1 , AjA−1 , AkA−1 e poi scrivere la matrice 3 × 3 che ha come colonne le componenti i, j, k di questi prodotti) si potrebbe scrivere esplicitamente l’omomorfismo (vedi pi` u sotto dove lo facciamo con l’aiuto di un programma di computer algebra). Ad esempio: 1 0 0 i 0 Ψ = 0 −1 0 0 −i 0 0 −1 Infatti, nel caso in oggetto, A = i e quindi AiA−1 = i, AjA−1 = −j, AkA−1 = −k. Osserviamo ora che:
i 0 Ψ ∈ SO(3) 0 −i
Questo fatto `e generale, e un ragionamento topologico ci consente di evitare i calcoli espliciti: essendo Ψ continua e non costante ed essendo SU (2) connesso, l’immagine di Ψ deve essere connessa e quindi: Ψ (SU (2)) ⊆ SO(3) Il nucleo di Ψ `e formato da {±I} ⊂ SU (2), infatti A ∈ ker Ψ quando Ψ(A) `e l’identit`a, ovvero quando AqA−1 = q per ogni q ∈ H1 . Cio`e quando Aq = qA. Essendo q puro, `e immediato verificare che questo implica A = ±1 ∈ Sp(1), ovvero A = ±I ∈ SU (2). Occupiamoci ora della suriettivit` a di Ψ. Sia u un quaternione puro di norma 1 cio`e u¯ u= −uu = 1 e consideriamo il quaternione unitario A : A = cos θ + u sin θ `e facile verificare che u `e lasciato fisso dalla rotazione determinata da A : AuA−1 = (cos θ + u sin θ)u(cos θ − u sin θ) = u
6 CONSIDERAZIONI TOPOLOGICHE
43
Concludiamo che Ψ `e suriettiva su SO(3) perch`e gi`a sappiamo che ogni rotazione `e una rotazione di un certo angolo attorno ad un certo un asse (osserviamo che, fortunatamente, non `e qui necessario trovarli!). Possiamo allora applicare il teorema di isomorfismo, ottenendo: SO(3) =
SU (2) Z2
Dove abbiamo identificato Z2 con {±I} ⊂ SU (2). Osservazione 6.10 Anche la suriettivit`a potrebbe essere molto elegantemente dimostrata da argomenti topologici (ma un poco pi` u avanzati della sola connessione). Osservazione 6.11 Con un programma di computer algebra `e facile scrivere esplicitamente l’omomorfismo: 2 x + y 2 − z 2 − t2 2tx + 2yz 2ty − 2xz x + iy −z − it −2tx + 2yz x2 − y 2 + z 2 − t2 2tz + 2xy Ψ = z + it x − iy 2 2 2 2 2ty + 2xz 2tz − 2xy x −y −z +t Dove x2 + y 2 + z 2 + t2 = 1. Il determinante vale: t6 + x6 + y 6 + z 6 + 3t2 x4 + 3t4 x2 + 3t2 y 4 + 3t4 y 2 + 3t2 z 4 + 3t4 z 2 + 3x2 y 4 + 3x4 y 2 + 3x2 z 4 + 3x4 z 2 + 3y 2 z 4 + 3y 4 z 2 + 6t2 x2 y 2 + 6t2 x2 z 2 + 3 6t2 y 2 z 2 + 6x2 y 2 z 2 = (t2 + x2 + y 2 + z 2 ) = 1. Si conferma quindi che Ψ : SU (2) → SO(3). Osservazione 6.12 Osserviamo che applicando la formula al caso A = cos α2 − i sin α2 = cos − α2 + i sin − α2 otteniamo: −iα/2 1 0 0 e 0 = 0 cos α − sin α Ψ iα/2 0 e 0 sin α cos α Ovvero una rotazione antioraria di angolo α attorno all’asse x. La formula si pu`o applicare allora per trovare la matrice di rotazione corrispondente ad un angolo θ e ad un asse u rappresentato da u = ux i + uy j + uz k ponendo: θ θ θ θ x = cos , y = −ux sin , z = −uy sin , t = −uz sin 2 2 2 2 Si ottiene allora la famosa formula di rotazione di Eulero-Rodrigues. Osservando la matrice esplicita della prima osservazione si capisce subito perch`e il metodo dei quaternioni `e cosi efficiente: l’angolo e l’asse di rotazione si vedono immediatamente e non sono nascosti nei parametri di una complicata matrice ortogonale! Osservazione 6.13 L’introduzione dell’isomorfismo tra quaternioni puri e vettori di R3 `e alla base della teoria delle algebre di Clifford, uno strumento molto importante in fisica teorica e in geometria. Ad esempio si pu`o dare una interpretazione unificata del prodotto scalare e del prodotto vettoriale ∧ in R3 osservando che: q1 q2 = (q1 , q2 ) − q1 ∧ q2 Dove, come al solito, a sinistra abbiamo quaternioni puri e a destra vettori di R3 .
6 CONSIDERAZIONI TOPOLOGICHE
6.4
44
Il caso di GL(n, R) e GL(n, C)
I risultati ottenuti per U (n) e SO(n), e la scomposizione polare delle matrici di GL(n, R) e GL(n, C), (vedi teorema 3.3 e le osservazioni seguenti) ci consentono di dimostrare un importante risultato: Teorema 6.9 GL(n, C) `e connesso. Prova. Sia A ∈ GL(n, C), la sua scomposizione polare `e A = U H dove ricordiamo che U ∈ U (n) e H `e una matrice hermitiana definita positiva. Siccome U (n) `e connesso, esiste una curva u(t) ∈ U (n) tale che u(0) = I e u(1) = U. Consideriamo ora la curva in M (n, C) data da: h(t) = tH + (1 − t)I Che connette I a H. Per ogni t ∈ [0, 1] , la matrice h(t) `e hermitiana definita positiva. Infatti i suoi autovalori sono λi = tηi + (1 − t) > 0 (dove gli ηi sono gli autovalori, necessariamente reali, di H), perch`e ηi > 0 e t ∈ [0, 1] . Allora la curva γ(t) = u(t)h(t) appartiene a GL(n, C) (perch`e det γ(t) 6= 0) e verifica γ(0) = u(0)h(0) = I e γ(1) = u(1)h(1) = U H = A. Teorema 6.10 GL+ (n, R) = {A ∈ GL(n, R) con det A > 0} `e connesso. Prova. La dimostrazione `e analoga a quella del caso complesso. Sia A ∈ GL+ (n, R), la sua scomposizione polare `e A = RS dove ricordiamo che R ∈ SO(n) e S `e una matrice simmetrica definita positiva. Siccome SO(n) `e connesso, esiste una curva r(t) ∈ SO(n) tale che r(0) = I e r(1) = R. Consideriamo ora la curva in M (n, R) data da: s(t) = tS + (1 − t)I Che connette I a S. Per ogni t ∈ [0, 1] , la matrice s(t) `e simmetrica definita positiva. Infatti i suoi autovalori sono λi = tηi +(1 − t) > 0 perch`e ηi > 0 e t ∈ [0, 1] (gli ηi sono ora gli autovalori, necessariamente positivi, di S). Allora la curva γ(t) = r(t)s(t) appartiene a GL+ (n, R) (perch`e det γ(t) 6= 0) e verifica γ(0) = r(0)s(0) = I e γ(1) = r(1)s(1) = RS = A. Osservazione 6.14 Sappiamo gi`a (vedi l’esempio 6.1) che GL(n, R) non `e connesso (dove cade la dimostrazione precedente?). Teorema 6.11 GL0 (n, R) = GL+ (n, R), in particolare si ottiene che π0 (GL(n, R)) = GL(n, R)/GL+ (n, R) = Z2 . Prova. E’ chiaro per il precedente teorema che GL+ (n, R) ⊆ GL0 (n, R). Per il viceversa, se g ∈ GL0 (n, R), esiste una curva γ(t) in GL0 (n, R) tale che γ(0) = I e γ(1) = g; det γ(t) `e una funzione continua di t che non assume il valore 0. Allora det γ(t) > 0 per tutti i t (essendo positivo in t = 0). In particolare det γ(1) = det g > 0 e allora g ∈ GL+ (n, R).
6 CONSIDERAZIONI TOPOLOGICHE
45
L’ultima osservazione `e una conseguenza del teorema di isomorfismo applicato all’omomorfismo det A ϕ(A) = |det . A| La questione della suriettivit`a della mappa esponenziale per GL(n, C) e GL+ (n, R) `e pi` u complicata perch`e nei teoremi di connessione dimostrati pi` u sopra la curva costruita non `e un sottogruppo a un parametro. Osservazione 6.15 Nel caso di GL(n, C) la suriettivit`a della mappa esponenziale `e legata all’esistenza del logaritmo in grande, infatti se ogni matrice complessa invertibile avesse un logaritmo (non necessariamente unico!) allora sarebbe elog A = A e la suriettivit`a sarebbe provata. La nostra definizione di logaritmo d`a per`o solo l’esistenza in piccolo, infatti la serie converge solo per le matrici che differiscono poco dalla matrice I. Osservazione 6.16 Il caso di GL(1, C) = C∗ `e semplice: sia α = ρeiθ con ρ > 0 un numero complesso invertibile. Possiamo definire un logaritmo complesso di α, ponendo: log α = log ρ + iθ. Si ottiene quindi elog α = elog ρ+iθ = ρeiθ = α. Osservazione 6.17 E’ chiaro che ci sono infiniti logaritmi complessi di α, perch`e per ogni intero k, anche la definizione log α = log ρ + iθ + 2kπi andrebbe bene. Questa ambiguit` a `e dovuta al fatto che, contrariamente al caso reale, ez = 1 non implica necessariamente z = 0, ad esempio, e2πi = 1. Lo stesso fenomeno avviene per il logaritmo di una matrice complessa: abbiamo gi`a osservato infatti che eA = I non implica necessariamente A = 0. Ad esempio, 0 −2π 0 e 2π = I. L’ambiguit`a non si presenta ovviamente seci occupiamo solo dell’esistenza 0 −2π in piccolo; infatti, come 2πi non `e vicino a 0, cos`ı la matrice non `e vicina a I. 2π 0 Teorema 6.12 La mappa esponenziale exp : M (2 × 2, C) → GL(2, C) `e suriettiva. a 0 Prova. Sia A una matrice di GL(2, C), se A ` e diagonalizzabile, sia D = una 0 b sua forma diagonale: D = B −1 AB e poniamo log a 0 C= 0 log b dove log `e un qualsiasi logaritmo complesso. Allora si ottiene subito:
e
BCB −1
= Be
log a 0 0 log b
B −1 = BDB −1 = A
Se invece A non ` e diagonalizzabile, essendo complessa e 2 × 2, deve avere un autovalore doppio λ 6= 0 con autospazio monodimensionale. Sia v un autovettore dell’autovalore λ e w
6 CONSIDERAZIONI TOPOLOGICHE
46
un altro vettore indipendente da v. Nella base da v e w, la matrice A assume una costituita λ x forma triangolare superiore F = B −1 AB = con x 6= 0. Se poniamo: 0 λ log λ xλ−1 C= 0 log λ Si ottiene subito, applicando la definizione di esponenziale, che:
e
a b 0 a
=
ea bea 0 ea
E allora, ponendo a = log λ e b = xλ−1 :
e E quindi: eBCB
log λ xλ−1 0 log λ
−1
=
λ x 0 λ
= BeC B −1 = BF B −1 = A
Osservazione 6.18 Un procedimento analogo, ma pi` u complicato, si pu`o usare nel caso di GL(n, C) con n > 2, infatti si dimostra che tutte le matrici complesse si possono mettere in una particolare forma a blocchi in cui ogni blocco `e una matrice triangolare superiore (forma di Jordan), abbiamo quindi: Teorema 6.13 La mappa esponenziale exp : M (n × n, C) → GL(n, C) `e suriettiva. Osservazione 6.19 Il caso di GL(n, R) comporta ulteriori difficolt`a. Innanzi tutto la mappa esponenziale non pu`o essere suriettiva perch`e GL(n, R) non `e connesso. Inoltre, anche nella componente connessa, si presenta il problema della presenza possibile di autovalori negativi o addirittura complessi.
6.5
Il caso di SL(2, R)
Analizziamo, per capire il tipo di problemi, il caso di SL(2, R). Ricordiamo che SL(2, R) `e il sottogruppo di GL(2, R) costituito dalle matrici di determinante 1; il suo spazio tangente, denotato sl(2, R), `e l’algebra di Lie delle matrici reali nulla. Infatti 2 × 2 a traccia a(t) b(t) una curva in SL(2, R) `e data da una matrice A(t) = con det A(t) = 1 e c(t) d(t) a(0) = d(0) = 1 e b(0) = c(0) =0. Quindi un vettore tangente nell’origine `e dato da una a0 (0) b0 (0) e quindi T (SL(2, R)) ⊆ sl(2, R). Viceversa, la matrice matrice del tipo c0 (0) −a0 (0)
6 CONSIDERAZIONI TOPOLOGICHE
47
t
a b c −a
a b `e il vettore tangente alla curva e che appartiene tutta a SL(2, R) perch`e c −a a b a b t ttr c −a = 1 e quindi sl(2, R) ⊆ T (SL(2, R)) . det e c −a = e
Osservazione 6.20 Il gruppo SL(2, R) ` e connesso, infatti la mappa ϕ : GL+ (2, R) → A SL(2, R), data da ϕ(A) = √det A `e continua e suriettiva, e GL+ (2, R) `e connesso, vedi teorema 6.11. Teorema 6.14 Per ogni A ∈ sl(2, R) si ha tr eA ≥ −2. exp
In particolare, la mappa esponenziale sl(2, R) → SL(2, R) non `e suriettiva. Prova. Vogliamo mostrare che non tutte le matrici di SL(2, R) si possono ottenere per esponenziazionedi matricidella sua algebra di Lie, nonostante SL(2, R) sia un gruppo connesso. a b Sia infatti A = una matrice a traccia nulla. Si ha facilmente: c −a 2n a b 2 n = bc + a c −a 2n+1 a b 2 n = bc + a c −a
1 0 0 1
a b c −a
Si ha quindi: 2n n a b tr = 2 bc + a2 c −a 2n+1 a b tr =0 c −a
Osserviamo ora che dalla serie formale dell’esponenziale si ricava: √
e
x
√
+ e−
x
=2+x+
1 2 1 3 1 1 x + x + x4 + x5 + O x 6 12 360 20 160 1814 400
Quindi, ponendo x = bc + a2 , e prendendo la traccia della serie esponenziale di eA : treA = tr(I +A+A2 /2+A3 /3!+...) = 2+0+ Si ha finalmente:
tre
a b c −a
√ √ 2x 2x2 2x3 2x4 +0+ +0+ +0+ +.... = e x +e− x 2 4! 6! 8!
√
=e
bc+a2
+ e−
√
bc+a2
6 CONSIDERAZIONI TOPOLOGICHE
48
Ora si osservi che, se bc + a2 ≥ 0, allora tr eA ≥ 2, mentre se bc + a2 ≤ 0 : √ √ p ±`ı |bc+a2 | A ∓`ı |bc+a2 | tr e = e +e = 2 cos |bc + a2 | E quindi, in questo caso, −2 ≤ tr eA ≤ 2. Si ha quindi il risultato cercato: Per ogni A ∈ sl(2, R), allora tr eA ≥ −2 −2 3 Quindi, ad esempio, la matrice B = ∈ SL(2, R), avendo traccia −4 non si 1 −2 pu`o ottenere per esponenziazione di una matrice reale a traccia nulla. Invece la matrice 0 −π −1 0 π 0 ∈ SL(2, R) si pu`o ottenere, ad esempio, da e . 0 −1 Definizione 6.3 Indichiamo con exp sl(2, R) l’insieme delle matrici di SL(2, R) che si ottengono come esponenziali di elementi dell’algebra di Lie. Teorema 6.15 Sia M ∈ SL(2, R) con trM > −2, allora M ∈ exp sl(2, R). Prova. Sia M ∈ SL(2, R) e quindi con det M = 1; il suo polinomio caratteristico `e p(λ) = λ2 − τ λ + 1, dove τ = trM. Gli autovalori sono quindi: 1 1√ 2 λ± = τ ± τ −4 2 2 a) Se τ > 2 gli autovalori sono reali e distinti, la matrice `e diagonalizzabile tramite una matrice reale, ed inoltre deve essere λ+ λ− = 1. Si ha quindi λ± > 0, e allora log λ+ + log λ− = 0. La matrice M `e quindi esponenziale di una matrice reale a traccia nulla: X
M =e
log λ+ 0 0 log λ−
X −1
, con trX
log λ+ 0 0 log λ−
X −1 = 0.
b) Se −2 < τ < 2, gli autovalori sono complessi coniugati e di modulo 1; poniamo λ+ = a + ib con a2 + b2 = 1 e autovettore v. Allora si ottiene subito che λ− = a − ib con a2 + b2 = 1 e autovettore v¯. Si ottiene M v = (a + ib) v, M v¯ = (a − ib) v¯. Segue che: v + v¯ v − v¯ v + v¯ =a + ib M 2 2 2 v − v¯ v + v¯ v − v¯ M i = −b + ia 2 2 2 a −b v+¯ v v−¯ v 0 Allora nella base reale u = 2 , w = i 2 la matrice M assume la forma M = b a 0 0 con det M = 1 e quindi M ∈ SO(2). Sia ora X la matrice (reale!) del cambiamento di base:
6 CONSIDERAZIONI TOPOLOGICHE
49
M = XM 0 X −1 . Sappiamo per`o che su SO(2) la mappa esponenziale dall’algebra delle matrici antisimmetriche `e suriettiva e quindi si ha M 0 = eB con B ∈ so(2), allora: −1 M = eXBX , con tr XBX −1 = 0. c) Se τ = 2, si presenta solo l’autovalore reale doppio 1, e ci sono due casi. Se la matrice M `e diagonalizzabile, M = I = e0 . Se non `e diagonalizzabile, si pu`o mettere (comeabbiamo 1 a mostrato nella dimostrazione del teorema 6.12) in forma triangolare superiore F = 0 1 0 a con a 6= 0, mediante una matrice reale X; essendo F = e 0 0 (vedi ancora dimostrazione del teorema 6.12), si ha quindi: X
M =e
0 a 0 0
X −1
.
Osservazione 6.21 Il caso limite τ = −2 `e il pi` u interessante: se la matrice `e diagonalizzabile, 0 −π π 0 si pu`o mettere nella forma M = −I, e allora, come gi`a osservato, M . Se invece =e −1 a non `e diagonalizzabile, la sua forma triangolare superiore `e F = con a 6= 0. Si 0 −1 pu`o mostrare che matrici di questo tipo non sono esprimibili come esponenziali di matrici reali a traccia nulla. Si ha infatti: 0 ±π A Teorema 6.16 Sia A ∈ sl(2, R); se tre = −2 allora A = X X −1 . In particolare, ∓π 0 l’unica matrice di SL(2, R) con traccia −2 che sta nell’immagine dell’esponenziale `e −I. a b Prova. Sia A = ∈ sl(2, R); sappiamo allora (vedi dimostrazione del teorec −a ma 6.14) che deve essere p − det A = bc + a2 ≤ 0 (altrimenti si avrebbe treA ≥ 2). Si ha allora −2 = treA = 2 cos |bc + a2 | e quindi deve essere det A = −bc − a2 = π 2 . Allora il 2 2 polinomio caratteristico di A `e p(λ) = λ + π e la matrice A pu`o essere messa nella forma 0 ±π A=X X −1 . Infatti gli autovalori sono ±iπ e si pu`o applicare il ragionamento ∓π 0 svolto nel punto b) del teorema precedente. Si ha quindi: X
e
0 ±π ∓π 0
X −1
=X
−1 0 0 −1
X −1 = −I
6 CONSIDERAZIONI TOPOLOGICHE
50
−2 3 Osservazione 6.22 La matrice B = ∈ SL(2, R) si pu`o ovviamente ottenere 1 −2 invece, usando il procedimento seguito nella dimostrazione del teorema 6.12, come esponenziale di una matrice complessa. Osservazione 6.23 La matrice complessa citata nell’osservazione qui sopra `e necessariamente complessa, nel senso che se det A = 1 e trA < −2 non esiste nessuna matrice reale B per cui sia A = eB , infatti dovrebbe essere det eB = etrB = 1, per cui trB = 2kπi, ma essendo B reale, l’unica possibilit`a `e trB = 0, e quindi ricadremmo nel caso di sl(2, R). Osservazione 6.24 Se A ∈ SL(2, R) ha trA < −2 `e chiaro che tr(−1)A = tr (−A) > 2 e quindi (−1)A ∈ exp sl(2, R). Possiamo quindi riassumere i risultati ottenuti nei precedenti teoremi e osservazioni: Teorema 6.17 Sia A ∈ SL(2, R), e poniamo 40 = {X ∈ sl(2, R), det X = 0} e 4− = {X ∈ sl(2, R), det X < 0} . • Condizione necessaria e sufficiente perch`e una matrice A ∈ exp sl(2, R) `e che la sua traccia sia > −2, oppure A = −I. • trA > −2 se e solo se A ∈ interno di exp sl(2, R). • −2 < trA < 2 se e solo se A `e coniugata a una matrice R ∈ SO(2) e R 6= ±I. • trA = 2 se e solo se A ∈ exp 40 . In particolare, in questo caso si ha (A − I)2 = 0. • trA > 2 se e solo se A ∈ exp 4− . • SL(2, R) = exp sl(2, R)∪(−1)exp 4− = exp sl(2, R)∪(−1) exp (40 ∪ 4− ) (la barra indica la chiusura dell’insieme). • Per ogni A ∈ SL(2, R), A ∈ exp sl(2, R) oppure −A ∈ exp sl(2, R). L’unica matrice A per cui ±A ∈ exp sl(2, R) `e A = I. • Per ogni A ∈ SL(2, R), A2 ∈ exp sl(2, R). Infatti se A sta nell’immagine dell’esponenziale, anche A2 ci sta, mentre se A non sta nell’immagine dell’esponenziale allora −A ci sta e quindi anche A2 = (−A) (−A) ci sta. Possiamo anche dire qualcosa di pi` u preciso sulle matrici di GL+ (2, R) che stanno nell’immagine dell’esponenziale: Teorema 6.18 Se A ∈ GL+ (2, R) `e della forma eB , con B ∈ M (2 × 2, R), allora √
1 trA ≥ −2. det A exp
In particolare, la mappa esponenziale M (2 × 2, R) → GL+ (2, R) non `e suriettiva.
6 CONSIDERAZIONI TOPOLOGICHE
51
Prova. Sia A ∈ GL+ (2, R), e supponiamo che A = eB con B ∈ M (2 × 2, R). Allora = C ∈ SL(2, R). Si ottiene allora:
√A det A
C = eB e− log
√
det A
Si ha quindi:
√
= eB−log
√
det AI
tr(B−log
√
det AI ) =e 1 = det C = det e √ e allora tr B − log det AI = 0, perch`e nelle ipotesi fatte `e un numero reale. Quindi C `e B−log
det AI
exp
nell’immagine della mappa esponenziale sl(2, R) → SL(2, R). Dalla dimostrazione del teorema 6.14 si ricava allora: 1 trA ≥ −2 trC = √ det A −10 10 1 Ad esempio, la matrice A = ∈ GL+ (2, R), avendo √det trA = − 21 , non si pu`o 10 A 1 −11 ottenere per esponenziazione di una matrice reale. Osservazione 6.25 Abbiamo anche ottenuto una generalizzazione del teorema 6.14. Per ogni B ∈ M (2 × 2, R) si ha: √ tr eB ≥ −2 etrB Teorema 6.19 Ogni matrice di GL+ (n, R) si pu`o ottenere come prodotto di due esponenziali. Prova. Ricorriamo ancora alla decomposizione polare: A = RS con R ∈ SO(n) e S simmetrica definita positiva. Sappiamo (vedi teorema 6.6) che R = eB con B ∈ so(n); S `e diagonalizzabile e ha autovalori positivi. Si ha: D = C −1 SC con C ortogonale reale. Sia ora F la matrice diagonale che ha sulla diagonale i logaritmi degli autovalori (il logaritmo `e l’usuale logaritmo reale, infatti gli autovalori sono reali e positivi): D = eF . Si ottiene quindi che A = eB CeF C −1 = eB eCF C
6.6
−1
Introduzione all’omotopia dei gruppi
In questa breve sezione discutiamo alcuni aspetti della teoria dell’omotopia riferita ai nostri gruppi di matrici. Per la teoria dell’omotopia in generale si rimanda al corso di geometria 2. Definizione 6.4 Se G `e un gruppo di matrici si dice path space (spazio dei cammini) di G l’insieme P (G) : P (G) = {curve γ continue in G, γ : [0, 1] ⊂ R → G, con γ(0) = I} P (G) diventa a sua volta uno spazio metrico con la distanza d∗ indotta dalla distanza euclidea d in G ⊂ Rn : d∗ (σ, τ ) = sup d(σ(t), τ (t)) t∈[0,1]
6 CONSIDERAZIONI TOPOLOGICHE
52
La mappa ω : P (G) × (a, b) → G definita da ω(σ, t) = σ(t) `e chiaramente continua. P (G) `e un gruppo con la moltiplicazione indotta dal prodotto in G: (σ · τ )(t) = σ(t)τ (t) L’elemento neutro `e il cammino costante 1, dove 1(t) = I ∀t, e il cammino inverso del cammino δ `e δ −1 , dove δ −1 (t) = (δ(t))−1 . Consideriamo ora l’omomorfismo ρ : P (G) → G definito da ρ(σ) = σ(1). Chiaramente ρ `e suriettivo se G `e connesso. Definizione 6.5 Il loop space di G, indicato con Ω(G), `e il nucleo di ρ : Ω(G) = { γ : [0, 1] ⊂ R → G, con γ(0) = γ(1) = I} Osservazione 6.26 Essendo il nucleo di un omomorfismo, Ω(G) `e sottogruppo normale di P (G). Se G `e connesso, dal teorema di isomorfismo per l’omomorfismo ρ si ha: P (G) =G Ω(G) Definizione 6.6 Se invece G non `e connesso, sia G0 la componente connessa con l’identit` a (vedi definizione 6.1). Nel contesto di questa sezione il gruppo (vedi teorema 6.1) G/G0 ≡ π0 (G) `e detto zeresimo gruppo di omotopia G. Definizione 6.7 G si dice semplicemente connesso se `e connesso e anche Ω(G) lo `e. Se invece Ω(G) non `e connesso sia Ω(G)0 la sua componente connessa con l’identit`a. Teorema 6.20 Ω(G)0 `e un sottogruppo normale di P (G). Prova. Infatti, per definizione, Ω(G)0 = { γ : [0, 1] → G, γ(0) = γ(1) = I e ∃f : [0, 1] → Ω(G) tale che f (0) = 1 (il loop costante) e f (1) = γ}. Poniamo ora f (s)(t) = F (s, t). Questa `e una mappa continua F : [0, 1] × [0, 1] → G tale che: F (0, t) = f (0)(t) = 1(t) = I F (1, t) = f (1)(t) = γ(t) F (s, 0) = f (s)(0) = I F (s, 1) = f (s)(1) = I Sia ora σ = δγδ −1 con γ ∈ Ω(G)0 e δ ∈ P (G), vogliamo mostrare che anche σ ∈ Ω(G)0 , cio`e esiste una curva h (s) in Ω(G) che connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e h(1) = σ. Sia H : [0, 1] × [0, 1] → G H(s, t) = δ (t) F (s, t)δ −1 (t) = δ (t) F (s, t) (δ(t))−1
6 CONSIDERAZIONI TOPOLOGICHE
53
e poniamo: h(s)(t) = H(s, t). Questa `e la curva cercata: • h(s) `e un loop, ovvero h(s) ∈ Ω(G) per ogni s : h(s)(0) = δ (0) F (s, 0) (δ(0))−1 = I · F (s, 0) · I = f (s)(0) = I h(s)(1) = δ (1) F (s, 1) (δ(1))−1 = δ (1) · F (s, 1) · δ (1)−1 = δ (1) · I · δ (1)−1 = I • h (s) connette il loop costante 1(t) = I a σ, ovvero h(0) = 1 e h(1) = σ : h(0)(t) = δ (t) F (0, t) (δ(t))−1 = δ (t) · I · (δ(t))−1 = I h(1)(t) = δ (t) F (1, t) (δ(t))−1 = δ (t) · γ(t) · (δ(t))−1 = σ(t)
Definizione 6.8 Possiamo quindi considerare il gruppo quoziente: ˜ = P (G) G Ω(G)0 ˜ `e detto gruppo di ricoprimento universale di G. G ˜ `e connesso. Osservazione 6.27 Si pu`o mostrare che se G `e connesso anche G Osservazione 6.28 L’omomorfismo ρ : P (G) → G definito pi` u sopra da ρ(σ) = σ(1) induce una mappa ˜→G π:G data da: π [σ] = ρ(σ) = σ(1). Tale mappa `e ben definita perch`e tutti i cammini in [σ] hanno lo stesso punto finale essendo definiti a meno di moltiplicazione per un loop. Definizione 6.9 Osservato inoltre che la mappa π `e un omomorfismo, possiamo definire il primo gruppo di omotopia di G (π1 (G)): π1 (G) = ker π Osservazione 6.29 Applicando le definizioni si vede subito che G `e semplicemente connesso ˜ = G ⇐⇒ π1 (G) = {e} cio`e il gruppo banale; ⇐⇒ G Teorema 6.21 Siano G e G0 gruppi isomorfi, allora π1 (G) = π1 (G0 ).
6 CONSIDERAZIONI TOPOLOGICHE
54
Prova. Infatti se ϕ `e un omomorfismo tra due gruppi G e G0 , si definisce ϕ˜ : P (G) → P (G0 ) cos`ı: ϕ(γ)(t) ˜ = ϕ(γ(t)) e anche ϕ˜ `e un omomorfismo. Inoltre se γ ∈ Ω(G), anche ϕ(γ) ˜ ∈ Ω(G0 ) infatti: ϕ(γ)(0) ˜ = ϕ(γ(0)) = ϕ(IG ) = IG0 ϕ(γ)(1) ˜ = ϕ(γ(1)) = ϕ(IG ) = IG0 Chiaramente se ϕ `e un isomorfismo anche ϕ˜ lo `e. Teorema 6.22 π1 (G) = π0 (Ω(G)) =
Ω(G) (Ω(G))0
Prova. Basta osservare che [ω] ∈ π1 (G) = ker π ⊆ se ω ∈ Ω(G).
P (G) Ω(G)0
se e solo se ω(1) = I, cio`e se e solo
Teorema 6.23 Se G `e connesso π1 (G) `e abeliano. ˜ Fissato h ∈ π1 (G), consideriamo la mappa Prova. Mostreremo che π1 (G) ⊆ Centro di G. ˜ → π1 (G) definita da ψ(g) = ghg −1 . L’immagine ψ G ˜ ⊆ π1 (G) `e connessa continua ψ : G ˜ `e connesso, ma essendo π1 (G) discreto perch`e `e un gruppo di componenti connesse, perch`e G deve allora ridursi a un punto. Essendo ψ(e) = h deve essere anche ψ(g) = ghg −1 = h e quindi gh = hg. Osservazione 6.30 Il teorema precedente vale anche nel caso in cui G non sia connesso. Osservazione 6.31 Per il calcolo esplicito di π1 (G) in alcuni casi particolari interessanti si rimanda ad altri corsi pi` u avanzati. Ad esempio si ha: π1 (U (1)) = Z π1 (SO(3)) = Z2 π1 (SU (2)) = {0}