Discussione:
radice quadrata di matrici
(troppo vecchio per rispondere)
vmando
2007-05-26 13:53:59 UTC
Permalink
Salve a tutti.
Volevo chiedervi: in dimensione finita esiste la radice quadrata di
una matrice M? Cioè, una matrice H tale che M=H^2? Perchè con un
approccio diciamo così terra terra, cercare una tale H significa
risolvere un sistema di equazioni non troppo semplice (e non lineare).
Mentre mi pare ci siano altri approcci. Per l'unicità di H invece che
cosa si sa? E in dimensione infinita? Grazie
Vito
Tetis
2007-05-26 17:18:39 UTC
Permalink
Post by vmando
Salve a tutti.
Volevo chiedervi: in dimensione finita esiste la radice quadrata di
una matrice M?
Se la matrice ha una forma diagonale e la forma diagonale è
costituita di elementi positivi certamente. Nel caso generale
che sia diagonalizzabile ma gli elementi diagonali non fossero
positivi ne esiste la potenza 1/2. Da questa semplice osservazione
segue una definizione generale di funzione di matrice nel caso che
si applichino le ipotesi di validità di un teorema spettrale. Questo
è valido anche in dimensione infinita. Ovvero si riconduce la definizione
di una funzione operatoriale alla definizione di una funzione dallo
spettro al campo di definizione dello spazio vettoriale, o all'anello di
definizione del modulo.


Cioè, una matrice H tale che M=H^2? Perchè con un
Post by vmando
approccio diciamo così terra terra, cercare una tale H significa
risolvere un sistema di equazioni non troppo semplice (e non lineare).
Mentre mi pare ci siano altri approcci. Per l'unicità di H invece che
cosa si sa?
Ti basta riflettere sul caso della matrice identità.
Di soluzioni per l'equazione M = H^2 ne trovi facilmente
almeno 5 distinte. Tuttavia la definizione di cui sopra
restituisce univocamente l'unico operatore: H = M = Id.
Una condizione abbastanza generale perchè una matrice
in dimensione finita sia diagonalizzabile è che sia normale.

Si usa dare anche una definizione alternativa di radice quadrata
di un operatore semidefinito positivo, in tal caso: H* x H = M.
In dimensione finita se vale questa rappresentazione M
è normale ed ammette una forma spettrale che ammette
poi una radice quadrata. Ma in dimensione infinita vale anche
questo risultato: H* x H = M semidefinito positivo è un operatore
di cui esiste unico un operatore, associato alla forma spettrale,
che si dice radice quadrata. Vale inoltre questo risultato:

se H' è tale che H' * x H' = M allora esite una matrice unitaria U
tale che H' = M^(1/2) * U. Quindi
in particolare se H' è autoaggiunta e vale H' ^ 2 = M allora
H' = H * U. Puoi verificare che questa è la situazione a cui
soggiace il caso della matrice

0 1
1 0

il cui quadrato è la matrice identità. Infatti questa matrice è
un multiplo unitario dell'identità, che è la radice quadrata
nel senso della definizione vigente sotto le condizioni di
applicazione del teorema spettrale. Ricordiamo per completezza
che in dimensione finita M è diagonalizzabile unitariamente
se e solo se M è normale. Ovvero M* x M = M x M*.


E in dimensione infinita? Grazie
Post by vmando
Vito
--------------------------------
Inviato via http://arianna.libero.it/usenet/
Tetis
2007-05-26 17:32:35 UTC
Permalink
Post by vmando
E in dimensione infinita? Grazie
Devo precisare che le considerazioni che ho fatto, a parte
per l'appello al teorema spettrale in dimensione infinita,
sono solo considerazioni elementari. Sul piano delle stesse
considerazioni elementari si pongono spontaneamente un
gran numero di questioni a volte con soluzioni elementari
a volte con soluzioni più difficili. Una questione che si pone è:
se M a valori reali ha una forma diagonale, ma questa forma diagonale
contiene elementi negativi può esistere ugualmente una
soluzione di H^2 = M a valori reali? La risposta è si. Infatti se
consideriamo
la matrice

0 1
-1 0

il quadrato risulta opposto dell'identità.
Post by vmando
Vito
--------------------------------
Inviato viahttp://arianna.libero.it/usenet/
vmando
2007-05-27 14:43:29 UTC
Permalink
ok, grazie per la risposta

però a un certo punto dici
Post by Tetis
Se la matrice ha una forma diagonale e la forma diagonale è
costituita di elementi positivi certamente. Nel caso generale
che sia diagonalizzabile ma gli elementi diagonali non fossero
positivi ne esiste la potenza 1/2

ecco...cosa cambia tra radice quadrata e potenza 1/2? E nel caso sopra
descritto (matrice diagonale ma non definita positiva) quale sarebbe
la potenza 1/2?
Tetis
2007-05-28 13:08:05 UTC
Permalink
Post by vmando
ok, grazie per la risposta
però a un certo punto dici
Post by Tetis
Se la matrice ha una forma diagonale e la forma diagonale è
costituita di elementi positivi certamente. Nel caso generale
che sia diagonalizzabile ma gli elementi diagonali non fossero
positivi ne esiste la potenza 1/2
ecco...cosa cambia tra radice quadrata e potenza 1/2?
Questo è un argomento che si discute in algebra elementare.
La radice quadrata (di y) è un operazione definita dai reali non negativi
sui reali non negativi ed è l'unico numeo reale positivo z tale che
z^2 = y. La potenza 1/2 invece è definita per i numeri complessi in
forma di Eulero prendendo la radice quadrata dalla parte polare e
dividendo per due l'argomento. Questa definizione ha un grado di
convenzionalità che dipende dall'esistenza di automorfismi del campo
complesso (il coniugio). Ad ogni modo una volta scelta una convenzione
di Eulero per la rappresentazione dei numeri complessi la potenza
1/2 è univocamente definita.

E nel caso sopra
Post by vmando
descritto (matrice diagonale ma non definita positiva) quale sarebbe
la potenza 1/2?
Ad esempio nel caso (-1) ^(1/2) = ( 1 x exp (i \pi)) ^ (1/2) = exp( i \pi /
2) = i.





--------------------------------
Inviato via http://arianna.libero.it/usenet/
Tetis
2007-05-28 13:57:10 UTC
Permalink
Post by vmando
E nel caso sopra
Post by vmando
descritto (matrice diagonale ma non definita positiva) quale sarebbe
la potenza 1/2?
Ad esempio nel caso (-1) ^(1/2) = ( 1 x exp (i \pi)) ^ (1/2) = exp( i \pi /
2) = i.
Potrebbe non esser superfluo ricordare che un operatore M
che ammette la forma H* x H = M non ammette una forma
diagonale con autovalori negativi. La dimostrazione è semplice
in dimensione finita: se M ha una radice quadrata H allora M
è autoaggiunto. Quindi è unitariamente diagonalizzabile,
quindi esiste U in modo che (U* H* U) x (U* H U) = U* M U
è diagonale. Ma (U* H* U) = (U* H U)* ed in particolare gli
elementi diagonali saranno il prodotto di una riga per la
propria complessa coniugata ovvero sono non negativi.
E' per questa ragione che H viene chiamata radice quadrata
di M. Inoltre, ancora in dimensione finita, se M è autoaggiunto,
ovvero hermitiano (in dimensione finita le due definizioni coincidono)
ed è semi-definito positivo (ovvero per ogni vettore z di C^n z* M z =>0)
allora gli autovalori della forma diagonale sono reali non negativi,
ammettono radice quadrata e quindi esiste H in modo che H* H = M.
(basta tornare indietro dalla radice quadrata alla matrice H mediante
l'inversa della trasformazione unitaria che diagonalizza M), per questa
ragione si assume che l'esistenza di una radice quadrata H di M
tale che H* x H = M sia anche una definizione di semipositività di M.
In campo complesso: se M ha una radice quadrata non banale ne ha infinite.

Ad esempio sul campo complesso sia z un numero reale non negativo
allora ogni numero della forma: sqrt(z) x esp(i theta) è una radice
quadrata di z. Mentre esiste un unico numero positivo z^(1/2) = sqrt(z)
poichè z* = z (ovvero l'arbitrarietà della forma di Eulero non ha luogo).
In generale se M è semidefinito positivo tutte le radici quadrate
sono connesse da trasformazioni unitarie, se siamo in campo
complesso qualsiasi trasformazione unitaria preserva il carattere
di radice quadrata.
Post by vmando
--------------------------------
Inviato via http://arianna.libero.it/usenet/
--------------------------------
Inviato via http://arianna.libero.it/usenet/
Tetis
2007-05-28 16:30:06 UTC
Permalink
Post by vmando
Salve a tutti.
Volevo chiedervi: in dimensione finita esiste la radice quadrata di
una matrice M? Cioè, una matrice H tale che M=H^2? Perchè con un
approccio diciamo così terra terra, cercare una tale H significa
risolvere un sistema di equazioni non troppo semplice (e non lineare).
Qualche altra considerazione elementare.
Facciamo un esempio semplice che non rientra nei casi discussi
di operatori diagonalizzabili ma nel quale è ben definita la potenza (1/2),
pure se non è lecito chiamarla radice quadrata.

1 1
0 1

E' semplice vedere che

1 1/2
0 1

da per quadrato la matrice di cui sopra. Prova da solo
a vedere come si generalizza al caso

1 a
0 1

Dopo che fai un poco di prove per i casi a dimensione
tre, e più alta ti dovresti convincere che si può dimostrare
quel che segue:

Ricordiamo la forma di Taylor dello sviluppo in serie di
(1+x)^(1/2) = Somma_i = 0 ^ oo C(1/2,i) x^i
dove C(1/2,i) è il coefficiente binomiale generalizzato:
C(a,i) con i intero vale a x (a-1) x ... (a-i+1) / i!
Ovvero anche Gamma(a+1)/(Gamma(a-i+1) x Gamma(i+1))

In generale una matrice può essere ridotta alla sua forma di
Jordan ed il blocchetto di Jordan della matrice può essere
sempre scomposto nella forma seguente:



J = l ( Id + ( J/l - Id) )


Allora la serie di Taylor, per forme di Jordan
di dimensione finita converge ad una matrice il cui quadrato è la
forma di Jordan di partenza. Nota che non occorre che 1/l < 1 come
occorrerebbe
nel caso l + 1 = l( 1+ 1/l) per avere convergenza. Infatti tutto quel che
occorre è che J/l - Id è nilpotente. Come vedi, in dimensione infinita il
problema si ripropone. Per operatori compatti, però vale un teorema:
gli autovalori considerati con molteplicità possono essere ordinati in
una sequenza che tende a zero quando l'indice della sequenza
tende ad infinito. Per tanto non è possibile, per operatori compatti,
trovarsi nella situazione in cui un blocco di Jordan per un qualche
autovalore ha dimensione infinita, eccetto che non sia nullo.
Di conseguenza è sempre possibile
definire una funzione di un operatore compatto surgettivo (ovvero con
nucleo il solo elemento nullo) ricorrendo
alla serie di Taylor. Esprimendosi a livello molto terra-terra.

Per via del carattere nilpotente dei blocchetti di Jordan di dimensione
finita, su ogni sottospazio di Jordan di dimensione finita l'operatore
(J/l - Id) si comporta come un infinitesimo intorno all'identità. Basta
cioè che la funzione f sia un limite,
di funzioni analitiche con raggio di convergenza anche tendente
a zero, purchè opportunamente, intorno all'unità, perchè si possa definire
la funzione f ( M ) di un operatore compatto M invertibile. I casi non
invertibili
vanno trattati con menzione speciale. Nel caso in cui l'operatore si
annulli del tutto sul sottospazio invariante relativo all'autovalore nullo
è sufficiente che la funzione che vogliamo definire sia ben definita
in zero. Altrimendi occorre considerare se, detto J_0 il blocchetto di
Jordan dell'autovalore nullo, si può dare significato a f(a_k(J_0)^k)
ovvero oltre che l'intorno dell'unità occorre considerare l'intorno di zero
della funzione (ovvero della funzione che si vuole invertire).

Nel caso specifico si vede che il quadrato di una qualsiasi
sequenza (Sum_k a_k (J_o)^k) è diversa da J_o.

Quindi in breve abbiamo visto come trattare la radice quadrata
di operatori nel caso di: operatori diagonalizzabili e definiti positivi.
Abbiamo visto, inoltre, come dare significato all'elevamento a potenza 1/2
nel caso di operatori diagonalizzabili, e nel caso di operatori
compatti invertibili.

Abbiamo poi posto attenzione alla definizione alternativa di radice
quadrata H per operatori semidefiniti positivi, M: H* x H = M
abbiamo visto che data una trasformazione unitaria U risulta
H' = UH è ancora una radice quadrata ed abbiamo anche detto
che se H' ed H sono radici quadrate dello stesso operatore M
esiste una trasformazione unitaria che li lega. Nel caso speciale di
operatori reali è allora provvidenziale la possibilità di passare
per il caso complesso e per questo teorema per studiare l'insieme
di tutte le soluzioni reali. Infatti posto che H sia reale simmetrica
tale che H^2 = M tutte le altre soluzioni di H^2 = M
saranno della forma UH con U unitaria reale (ovvero ortogonale)
ed (UH)* = UH. In particolare ci si può ricondurre a risolvere l'equazione
H = U H U nel caso che H è diagonale.

Una classe immediata di soluzioni la otteniamo allora
considerando le matrici
U che implementano permutazioni cicliche di periodo due
fra autovettori relativi ad uno stesso autovalore. Nel caso
due per due si vede che per matrici diagonali ad autovalori
distinti si vede che la radice quadrata è unica.
Post by vmando
Mentre mi pare ci siano altri approcci. Per l'unicità di H invece che
cosa si sa? E in dimensione infinita? Grazie
Vito
--------------------------------
Inviato via http://arianna.libero.it/usenet/

Loading...