Una matrice hermitiana è diagnalizzata attraverso matrici unitarie, cioè
con
diagonale e
, cioè ho una base ortonormale di autovettori.
Allora in questo caso:


e pongo

e sostituendo questa scrittura nella formula

ottengo:

e tenendo conto che

mettendo in evidenza

:
![{\displaystyle \sigma _{k}={\frac {\lambda _{1}|\lambda _{1}^{k}|^{2}[{\bar {\alpha }}_{1}{\boldsymbol {y}}_{1}^{h}+\sum _{j=2}^{n}{\bar {\alpha }}_{j}{\bar {\frac {\lambda _{j}}{\lambda _{1}}}}^{k}{\boldsymbol {y}}_{j}^{h}]*[\alpha _{1}{\boldsymbol {y}}_{1}+\sum _{j}\alpha _{j}({\frac {\lambda _{j}}{\lambda _{1}}})^{k+1}{\boldsymbol {y}}_{j}]}{|\lambda _{1}^{k}|^{2}[{\bar {\alpha }}_{1}{\boldsymbol {y}}_{1}^{h}+\sum _{j}{\bar {\alpha }}_{j}{\bar {\frac {\lambda _{j}}{\lambda _{1}}}}^{k}{\boldsymbol {y}}_{j}^{h}]*[\alpha _{1}{\boldsymbol {y}}_{1}+\sum _{j=2}^{n}\alpha _{j}({\frac {\lambda _{j}}{\lambda _{1}}})^{k}{\boldsymbol {y}}_{j}]}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/74a40da124e36e9e7beb3c70654792451d09734b)
Si può semplificare

, inoltre, siccome gli autovettori costituiscono una base ortogonale, i prodotti misti del tipo

si annullano, e rimane solo:
![{\displaystyle \sigma _{k}={\frac {\lambda _{1}[|\alpha _{1}|^{2}{\boldsymbol {y}}_{1}^{h}{\boldsymbol {y}}_{1}+\sum _{j=2}^{n}|\alpha _{j}|^{2}({\frac {\lambda _{j}}{\lambda _{1}}})^{2k}{\frac {\lambda _{j}}{\lambda _{1}}}{\boldsymbol {y}}_{j}^{h}{\boldsymbol {y}}_{j}]}{\lambda _{1}*(\alpha _{1}^{2}{\boldsymbol {y}}_{1}^{h}{\boldsymbol {y}}_{1}+\sum _{j=2}^{n}|\alpha _{j}|^{2}({\frac {\lambda _{j}}{\lambda _{1}}})^{2k}{\boldsymbol {y}}_{j}^{h}{\boldsymbol {y}}_{j})}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/bf84d0b3e6ad99734a842fa766b0155539865805)
per l'ortonormalità

, allora

Al primo ordine, nella sommatoria sopravvive il termine per

(secondo autovalore più grande), quindi
![{\displaystyle \sigma ={\frac {\lambda _{1}[1+|\alpha _{2}/\alpha _{1}|^{2}|\lambda _{2}/\lambda _{1}|^{2k}|\lambda _{2}/\lambda _{1}|]}{[1+|\alpha _{2}/\alpha _{1}|^{2}|\lambda _{2}/\lambda _{1}|^{2k}]}}}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/59c764c6c92c369d8a7f8aa5f3085f62d15ce7b6)


![{\displaystyle \sigma _{k}=\lambda _{1}[1+|\alpha _{2}/\alpha _{1}|^{2}(\lambda _{2}/\lambda _{1})^{2k}(\lambda _{2}/\lambda _{1})]*[(1-|\alpha _{2}/\alpha _{1}|^{2}|\lambda _{2}/\lambda _{1}|^{2k}]}](//restbase.wikitolearn.org/it.wikitolearn.org/v1/media/math/render/svg/f43f333089f3d5fbe33217d3e8972859df575a01)

Allora

nel caso di matrici hermitiane:

A differenza del caso generale compare l'esponente

e la convergenza è più veloce.
Il metodo della potenza non converge su una matrice hermitiana quando la matrice ha autovalori
di moduli massimo. Escludo anche il caso di autovalori complessi
Considero
con
unitaria e
. Il caso
non può verificarsi, quindi su una matrice hermitiana definita positiva il metodo delle potenze converge sempre.
Risparmio del costo computazionale: Cerco
con il metodo delle potenze inverse.
Ad ogni iterazione si risolve il sistema lineare

con costo di fattorizzazione

. La fattorizzazione viene fatta una sola volta. Ad ogni iterazione, risolvo i sistemi triangolari. Se

è triangolare superiore piena il costo è

. Se invece

è a banda, il costo è

. Lo stesso vale se

è sparsa.
Siccome le iterazioni fatte sono numerose, si cerca di ridurre il costo di ogni iterazione a scapito del costo iniziale.
Trasformo la matrice
in una matrice tridiagonale
. A questo punto il costo della fattorizzazione di Cholesky è
, perché
è bidiagonale, e anche il costo delle singole operazioni si riduce.
Passo da
generica a
tridiagonale tramite trasformazioni di Hausolder:

La matrice di sinistra azzera la sottocolonna e quella di destra azzera la sottoriga di

in modo da ottenere una matrice tridiagonale. Questa operazione costa

.
Considero il caso in cui la fattorizzazione di Cholesky non può avvenire (cioè
molto piccolo e
definita positiva). Invece che considerare
, considero
, che è ancora hermitiana e definita positiva.
Si usa la tecnica di shift. Gli autovalori di
sono gli autovalori di
shiftati di
.
ed è grande, invece si ha


converge all'autovalore minimo di

, invece

e si ha come rischio l'errore di cancellazione. Bisogna bilanciare

rispetto a

.
Esercizio 3.1
Nel caso di matrici hermitiane, calcolare la velocità di convergenza nel caso di autovalore multiplo.
Sia
di molteplicità r.



si ritrova lo stesso risultato di prima con

che sostituisce

, cioè, al posto di

compare il primo valore diverso da

.