Matrice esponenziale

In algebra lineare, l'esponenziale di matrice è la funzione di matrice corrispondente alla funzione esponenziale di una matrice quadrata.

La matrice esponenziale compare ad esempio nella risoluzione dei sistemi lineari di equazioni differenziali. Ha quindi un'importante applicazione nella teoria dei sistemi e nella teoria dei controlli automatici.

Definizione

Sia A {\displaystyle A} una matrice quadrata n × n {\displaystyle n\times n} a coefficienti reali o complessi. La matrice esponenziale di A {\displaystyle A} , indicata con e A {\displaystyle e^{A}} , è una matrice quadrata n × n {\displaystyle n\times n} ottenuta con lo sviluppo in serie di potenze:

e A = k = 0 A k k ! . {\displaystyle e^{A}=\sum _{k=0}^{\infty }{\frac {A^{k}}{k!}}.}

Si tratta di una serie che è sempre convergente, quindi la matrice esponenziale è ben definita. Si nota che se A {\displaystyle A} è una matrice 1 × 1 {\displaystyle 1\times 1} (quindi A {\displaystyle A} è un numero reale o complesso), la serie della matrice esponenziale corrisponde alla definizione formale della funzione esponenziale.

Proprietà

La matrice esponenziale definisce una funzione:

exp : M n ( C ) G L ( n , C ) {\displaystyle \exp \colon M_{n}(\mathbb {C} )\to \mathrm {GL} (n,\mathbb {C} )}

dallo spazio delle matrici n × n {\displaystyle n\times n} al gruppo generale lineare di grado n {\displaystyle n} , ossia il gruppo delle matrici invertibili. Si tratta di una mappa suriettiva, infatti ogni matrice invertibile può essere scritta come l'esponenziale di qualche altra matrice (considerando il campo complesso).

Date due matrici X {\displaystyle X} e Y {\displaystyle Y} , si ha:

e X + Y e X Y e X e Y , {\displaystyle \|e^{X+Y}-e^{X}\|\leq \|Y\|e^{\|X\|}e^{\|Y\|},}

con {\displaystyle \|\cdot \|} la norma matriciale. Segue che la matrice esponenziale è continua e lipschitziana su sottoinsiemi compatti di M n ( C ) {\displaystyle M_{n}(\mathbb {C} )} .

Siano X {\displaystyle X} e Y {\displaystyle Y} due matrici complesse di dimensione n × n {\displaystyle n\times n} e siano a {\displaystyle a} e b {\displaystyle b} due numeri complessi. Si indica la matrice identità con I {\displaystyle I} e la matrice nulla con 0. La matrice esponenziale soddisfa le seguenti proprietà:

  • e 0 = I . {\displaystyle e^{0}=I.}
  • e a X e b X = e ( a + b ) X . {\displaystyle e^{aX}e^{bX}=e^{(a+b)X}.}
  • e X e X = I . {\displaystyle e^{X}e^{-X}=I.}
  • Se A B = B A {\displaystyle AB=BA} , allora e A e B = e A + B {\displaystyle e^{A}e^{B}=e^{A+B}} .
  • Se Y {\displaystyle Y} è invertibile allora e Y X Y 1 = Y e X Y 1 {\displaystyle e^{YXY^{-1}}=Ye^{X}Y^{-1}} .
  • det ( e X ) = e t r ( X ) . {\displaystyle \det(e^{X})=e^{\mathrm {tr} (X)}.}
  • e X T = ( e X ) T {\displaystyle e^{X^{T}}=(e^{X})^{T}} , dove X T {\displaystyle X^{T}} indica la matrice trasposta di X {\displaystyle X} . Ne segue che se X {\displaystyle X} è una matrice simmetrica allora e X {\displaystyle e^{X}} è simmetrica; inoltre se X {\displaystyle X} è una matrice antisimmetrica allora e X {\displaystyle e^{X}} è una matrice ortogonale.
  • e X = ( e X ) {\displaystyle e^{X^{*}}=(e^{X})^{*}} , dove X {\displaystyle X^{*}} indica la matrice trasposta coniugata di X {\displaystyle X} . Ne segue che se X {\displaystyle X} è una matrice hermitiana allora e X {\displaystyle e^{X}} è una matrice hermitiana; inoltre se X {\displaystyle X} è una matrice antihermitiana allora e X {\displaystyle e^{X}} è una matrice unitaria.
  • L'esponenziale di una matrice è sempre una matrice invertibile, in analogia con il fatto che l'esponenziale di un numero complesso non è mai nullo.

Derivata

La funzione:

t e t X t R {\displaystyle t\mapsto e^{tX}\qquad t\in \mathbb {R} }

definisce una curva liscia nel gruppo generale lineare che passa per l'identità se t = 0 {\displaystyle t=0} . La derivata in t {\displaystyle t} è data da:

d d t e t X = X e t X = e t X X . {\displaystyle {\frac {d}{dt}}e^{tX}=Xe^{tX}=e^{tX}X.}

Più in generale, per un esponente dipendente da t {\displaystyle t} :

d d t e X ( t ) = 0 1 e α X ( t ) d X ( t ) d t e ( 1 α ) X ( t ) d α . {\displaystyle {\frac {d}{dt}}e^{X(t)}=\int _{0}^{1}e^{\alpha X(t)}{\frac {dX(t)}{dt}}e^{(1-\alpha )X(t)}\,d\alpha .}

Portando e X ( t ) {\displaystyle e^{X(t)}} fuori dall'integrale, ed espandendo quest'ultimo tramite la formula di Baker-Campbell-Hausdorff, si ottiene l'espressione:

( d d t e X ( t ) ) e X ( t ) = d d t X ( t ) + 1 2 ! [ X ( t ) , d d t X ( t ) ] + 1 3 ! [ X ( t ) , [ X ( t ) , d d t X ( t ) ] ] + . {\displaystyle \left({\frac {d}{dt}}e^{X(t)}\right)e^{-X(t)}={\frac {d}{dt}}X(t)+{\frac {1}{2!}}[X(t),{\frac {d}{dt}}X(t)]+{\frac {1}{3!}}[X(t),[X(t),{\frac {d}{dt}}X(t)]]+\cdots .}

Determinante

Per ogni matrice quadrata sul campo dei numeri complessi si ha, grazie alla formula di Jacobi:

det ( e A ) = e tr ( A ) . {\displaystyle \det(e^{A})=e^{\operatorname {tr} (A)}.}

Tale formula mostra che una matrice esponenziale è sempre invertibile, dato che il termine a destra non è mai nullo e quindi il determinante non è mai nullo.

Nel campo dei numeri reali la mappa:

exp : M n ( R ) G L ( n , R ) {\displaystyle \exp \colon M_{n}(\mathbb {R} )\to \mathrm {GL} (n,\mathbb {R} )}

non è invece suriettiva.

Calcolo della matrice esponenziale

Per il calcolo della matrice esponenziale e A {\displaystyle e^{A}} non viene utilizzata la serie di potenze dato che è costituita da una sommatoria di infiniti addendi. Utilizzando gli autovettori si ricava una serie con un numero finito di termini.

Considerando la diagonalizzabilità della matrice A {\displaystyle A} si hanno due casi distinti.

Caso di matrice diagonalizzabile

Se la matrice A {\displaystyle A} è diagonalizzabile significa che ha n {\displaystyle n} autovettori linearmente indipendenti t 1 , t 2 , , t n {\displaystyle \mathbf {t} _{1},\mathbf {t} _{2},\dots ,\mathbf {t} _{n}} . Si può quindi scrivere:

A t 1 = t 1 λ 1 A t 2 = t 2 λ 2 A t n = t n λ n , {\displaystyle {\begin{matrix}A\mathbf {t} _{1}=\mathbf {t} _{1}\lambda _{1}\\A\mathbf {t} _{2}=\mathbf {t} _{2}\lambda _{2}\\\vdots \\A\mathbf {t} _{n}=\mathbf {t} _{n}\lambda _{n}\end{matrix}},}

con t i {\displaystyle \mathbf {t} _{i}} autovettore associato all'autovalore λ i {\displaystyle \lambda _{i}} . Si raggruppano tutti gli autovettori in un'unica matrice:

[ A t 1 A t n ] = [ t 1 λ 1 t n λ n ] {\displaystyle [{\begin{matrix}A\mathbf {t} _{1}&\dots &A\mathbf {t} _{n}\end{matrix}}]=[{\begin{matrix}\mathbf {t} _{1}\lambda _{1}&\dots &\mathbf {t} _{n}\lambda _{n}\end{matrix}}]}
A [ t 1 t n ] = [ t 1 t n ] [ λ 1 0 0 0 0 λ 2 0 0 0 0 λ 3 0 0 0 0 λ n ] . {\displaystyle A[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]=[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]{\begin{bmatrix}\lambda _{1}&0&0&0&\dots \\0&\lambda _{2}&0&0&\dots \\0&0&\lambda _{3}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &\lambda _{n}\\\end{bmatrix}}.}

Ponendo la matrice formata dagli autovettori pari a T {\displaystyle T} e la matrice diagonale degli autovalori pari a Λ {\displaystyle \Lambda } si ottiene:

A T = T Λ . {\displaystyle AT=T\Lambda .}

Introducendo la matrice S = T 1 {\displaystyle S=T^{-1}} , inversa di T {\displaystyle T} , si ottengono le seguenti relazioni:

S A T = Λ A = T Λ S S A = Λ S . {\displaystyle SAT=\Lambda \qquad A=T\Lambda S\qquad SA=\Lambda S.}

Dalla seconda relazione si ricava:

A k = ( T Λ S ) k = T Λ S T Λ S = T Λ k S . {\displaystyle A^{k}=(T\Lambda S)^{k}=T\cdot \Lambda \cdot S\cdot T\cdot \Lambda \cdot S\dots =T\Lambda ^{k}S.}

Quindi:

e A = k = 0 A k k ! = T [ k = 0 Λ k k ! ] S = T e Λ S . {\displaystyle e^{A}=\sum _{k=0}^{\infty }{\frac {A^{k}}{k!}}=T\left[\sum _{k=0}^{\infty }{\frac {\Lambda ^{k}}{k!}}\right]S=Te^{\Lambda }S.}

Si calcola e Λ {\displaystyle e^{\Lambda }} :

e Λ = k = 0 Λ k k ! = I + [ λ 1 0 0 0 λ 2 0 0 0 λ n ] 1 1 ! + [ λ 1 2 0 0 0 λ 2 2 0 0 0 λ n 2 ] 1 2 ! + = {\displaystyle e^{\Lambda }=\sum _{k=0}^{\infty }{\frac {\Lambda ^{k}}{k!}}=I+{\begin{bmatrix}\lambda _{1}&0&0&\dots \\0&\lambda _{2}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &\lambda _{n}\\\end{bmatrix}}{\frac {1}{1!}}+{\begin{bmatrix}\lambda _{1}^{2}&0&0&\dots \\0&\lambda _{2}^{2}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &\lambda _{n}^{2}\\\end{bmatrix}}{\frac {1}{2!}}+\dots =}
= [ 1 + λ 1 1 ! + λ 1 2 2 ! + 0 0 0 1 + λ 2 1 ! + λ 2 2 2 ! + 0 0 0 1 + λ n 1 ! + λ n 2 2 ! + ] = [ e λ 1 0 0 0 e λ 2 0 0 0 e λ n ] . {\displaystyle ={\begin{bmatrix}1+{\frac {\lambda _{1}}{1!}}+{\frac {\lambda _{1}^{2}}{2!}}+\dots &0&0&\dots \\0&1+{\frac {\lambda _{2}}{1!}}+{\frac {\lambda _{2}^{2}}{2!}}+\dots &0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &1+{\frac {\lambda _{n}}{1!}}+{\frac {\lambda _{n}^{2}}{2!}}+\dots \\\end{bmatrix}}={\begin{bmatrix}e^{\lambda _{1}}&0&0&\dots \\0&e^{\lambda _{2}}&0&\dots \\\vdots &\vdots &\ddots &\vdots \\0&0&\dots &e^{\lambda _{n}}\\\end{bmatrix}}.}

Si considera ora l'ultima relazione precedentemente ricavata e si applica la trasposta:

S A = Λ S ( S A ) T = ( Λ S ) T A T S T = S T Λ T A T S T = S T Λ . {\displaystyle SA=\Lambda S\Rightarrow (SA)^{T}=(\Lambda S)^{T}\Rightarrow A^{T}S^{T}=S^{T}\Lambda ^{T}\Rightarrow A^{T}S^{T}=S^{T}\Lambda .}

Si può quindi scrivere:

A T [ s 1 T s n T ] = [ s 1 T s n T ] [ λ 1 0 0 0 0 λ 2 0 0 0 0 λ 3 0 0 0 0 λ n ] . {\displaystyle A^{T}[{\begin{matrix}\mathbf {s} _{1}^{T}&\dots &\mathbf {s} _{n}^{T}\end{matrix}}]=[{\begin{matrix}\mathbf {s} _{1}^{T}&\dots &\mathbf {s} _{n}^{T}\end{matrix}}]{\begin{bmatrix}\lambda _{1}&0&0&0&\dots \\0&\lambda _{2}&0&0&\dots \\0&0&\lambda _{3}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &\lambda _{n}\\\end{bmatrix}}.}

Si nota quindi che gli s n T {\displaystyle \mathbf {s} _{n}^{T}} sono autovettori sinistri di A {\displaystyle A} . Si può quindi partizionare la matrice S {\displaystyle S} per righe:

S = [ s 1 T s 2 T s n T ] . {\displaystyle S=\left[{\begin{matrix}\mathbf {s} _{1}^{T}\\\mathbf {s} _{2}^{T}\\\vdots \\\mathbf {s} _{n}^{T}\end{matrix}}\right].}

In questo modo si ottiene:

e A = [ t 1 t n ] [ e λ 1 0 0 e λ n ] [ s 1 T s n T ] = t 1 e λ 1 s 1 T + t 2 e λ 2 s 2 T + + t n e λ n s n T . {\displaystyle e^{A}=[{\begin{matrix}\mathbf {t} _{1}&\dots &\mathbf {t} _{n}\end{matrix}}]{\begin{bmatrix}e^{\lambda _{1}}&0&\dots \\\vdots &\ddots &\vdots \\0&\dots &e^{\lambda _{n}}\\\end{bmatrix}}\left[{\begin{matrix}\mathbf {s} _{1}^{T}\\\vdots \\\mathbf {s} _{n}^{T}\end{matrix}}\right]=\mathbf {t} _{1}e^{\lambda _{1}}\mathbf {s} _{1}^{T}+\mathbf {t} _{2}e^{\lambda _{2}}\mathbf {s} _{2}^{T}+\dots +\mathbf {t} _{n}e^{\lambda _{n}}\mathbf {s} _{n}^{T}.}

In conclusione, nel caso A {\displaystyle A} sia diagonalizzabile, si ha:

e A = k = 1 n t k s k T e λ k , {\displaystyle e^{A}=\sum _{k=1}^{n}\mathbf {t} _{k}\cdot \mathbf {s} _{k}^{T}\cdot e^{\lambda _{k}},}

con t k {\displaystyle \mathbf {t} _{k}} autovettore destro e s k T {\displaystyle \mathbf {s} _{k}^{T}} autovettore sinistro, entrambi associati all'autovalore λ k . {\displaystyle \lambda _{k}.}

Il caso di A non diagonalizzabile

Lo stesso argomento in dettaglio: Forma canonica di Jordan.

Se A {\displaystyle A} non è diagonalizzabile si ricorre alla forma di Jordan. In questo caso si ha A = T J S {\displaystyle A=TJS} , con J {\displaystyle J} matrice diagonale a blocchi:

J = [ J 1 0 0 0 J 2 0 0 0 J k ] , {\displaystyle J={\begin{bmatrix}J_{1}&0&0&\cdots \\0&J_{2}&0&\cdots \\\vdots &\vdots &\ddots &\cdots \\0&0&\cdots &J_{k}\end{bmatrix}},}

dove il k {\displaystyle k} -esimo blocco è della forma:

J k = [ λ k 1 0 0 λ k 1 1 0 0 λ k ] = [ λ k 0 0 0 λ k 0 0 0 0 λ k ] + [ 0 1 0 0 0 1 1 0 0 0 ] = Λ k + J k 0 . {\displaystyle J_{k}={\begin{bmatrix}\lambda _{k}&1&0&\cdots \\0&\lambda _{k}&1&\cdots \\\vdots &\vdots &\ddots &1\\0&0&\cdots &\lambda _{k}\end{bmatrix}}={\begin{bmatrix}\lambda _{k}&0&0&\cdots \\0&\lambda _{k}&0&\cdots \\\vdots &\vdots &\ddots &0\\0&0&\cdots &\lambda _{k}\end{bmatrix}}+{\begin{bmatrix}0&1&0&\cdots \\0&0&1&\cdots \\\vdots &\vdots &\ddots &1\\0&0&\cdots &0\end{bmatrix}}=\Lambda _{k}+J_{k0}.}

Le matrici J k {\displaystyle J_{k}} vengono detti blocchi di Jordan. Utilizzando il procedimento seguito nel caso di A {\displaystyle A} diagonalizzabile si ottiene:

e A = T e J S , {\displaystyle e^{A}=Te^{J}S,}

dove:

e J = [ e J 1 0 0 0 e J 2 0 0 0 e J k ] . {\displaystyle e^{J}={\begin{bmatrix}e^{J_{1}}&0&0&\cdots \\0&e^{J_{2}}&0&\cdots \\\vdots &\vdots &\ddots &\cdots \\0&0&\cdots &e^{J_{k}}\end{bmatrix}}.}

Si nota che il prodotto delle matrici Λ k {\displaystyle \Lambda _{k}} e J k 0 {\displaystyle J_{k0}} è commutativo. Si può quindi scrivere:

e J k = e λ k I e J k 0 . {\displaystyle e^{J_{k}}=e^{\lambda _{k}I}e^{J_{k0}}.}

Si calcola ora e J k 0 {\displaystyle e^{J_{k0}}} :

e J k 0 = k = 0 J k 0 k k ! . {\displaystyle e^{J_{k0}}=\sum _{k=0}^{\infty }{\frac {J_{k0}^{k}}{k!}}.}

Si verifica facilmente che J k 0 k {\displaystyle J_{k0}^{k}} si calcola spostando in alto e a destra la diagonale formata dagli 1:

J k 0 = [ 0 1 0 0 0 0 1 0 0 0 0 1 1 0 0 0 0 ] , J k 0 2 = [ 0 0 1 0 0 0 0 1 0 0 0 0 0 0 0 ] , {\displaystyle J_{k0}={\begin{bmatrix}0&1&0&0&\dots \\0&0&1&0&\dots \\0&0&0&1&\dots \\\vdots &\vdots &\vdots &\ddots &1\\0&0&0&\dots &0\end{bmatrix}},\qquad J_{k0}^{2}={\begin{bmatrix}0&0&1&\dots &0\\0&0&0&1&\vdots \\0&0&0&\dots &\vdots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},}
J k 0 ν k 1 = [ 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 ] , J k 0 ν k = [ 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 ] , {\displaystyle J_{k0}^{\nu _{k}-1}={\begin{bmatrix}0&0&0&\dots &1\\0&0&0&\dots &0\\0&0&0&\dots &0\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},\qquad J_{k0}^{\nu _{k}}={\begin{bmatrix}0&0&0&\dots &0\\0&0&0&\dots &0\\0&0&0&\dots &0\\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &0\end{bmatrix}},}

dove ν k {\displaystyle \nu _{k}} è la dimensione di J k 0 {\displaystyle J_{k0}} . Per potenze superiori a ν k {\displaystyle \nu _{k}} si ha la matrice nulla. Quindi:

e J k 0 = k = 0 ν k 1 J k 0 k k ! . {\displaystyle e^{J_{k0}}=\sum _{k=0}^{\nu _{k}-1}{\frac {J_{k0}^{k}}{k!}}.}

Inoltre:

e λ k I = [ e λ k 0 0 0 0 e λ k 0 0 0 0 e λ k 0 0 0 0 e λ k ] = e λ k I . {\displaystyle e^{\lambda _{k}I}={\begin{bmatrix}e^{\lambda _{k}}&0&0&0&\dots \\0&e^{\lambda _{k}}&0&0&\dots \\0&0&e^{\lambda _{k}}&0&\dots \\\vdots &\vdots &\vdots &\ddots &\vdots \\0&0&0&\dots &e^{\lambda _{k}}\end{bmatrix}}=e^{\lambda _{k}}I.}

Quindi il k {\displaystyle k} -esimo blocco di e J {\displaystyle e^{J}} ha la seguente espressione:

e J k = e λ k I e J k 0 = k = 0 ν k 1 J k 0 k k ! e λ k . {\displaystyle e^{J_{k}}=e^{\lambda _{k}I}e^{J_{k0}}=\sum _{k=0}^{\nu _{k}-1}{\frac {J_{k0}^{k}}{k!}}e^{\lambda _{k}}.}

La matrice esponenziale vale:

e A = [ T 1 T s ] [ e J 1 0 0 e J n ] [ S 1 T S s T ] = k = 1 s [ T k e J k S k T ] = k = 1 s i = 1 ν k 1 T k J k 0 i S k T i ! e λ k , {\displaystyle e^{A}=[{\begin{matrix}T_{1}&\dots &T_{s}\end{matrix}}]{\begin{bmatrix}e^{J_{1}}&0&\dots \\\vdots &\ddots &\vdots \\0&\dots &e^{J_{n}}\\\end{bmatrix}}\left[{\begin{matrix}S_{1}^{T}\\\vdots \\S_{s}^{T}\end{matrix}}\right]=\sum _{k=1}^{s}[T_{k}e^{J_{k}}S_{k}^{T}]=\sum _{k=1}^{s}\sum _{i=1}^{\nu _{k}-1}{\frac {T_{k}J_{k0}^{i}S_{k}^{T}}{i!}}e^{\lambda _{k}},}

dove T k R n × ν k {\displaystyle T_{k}\in \mathbb {R} ^{n\times \nu _{k}}} e S k T R ν k × n {\displaystyle S_{k}^{T}\in \mathbb {R} ^{\nu _{k}\times n}} . La matrice T {\displaystyle T} non è costituita dagli autovettori di A {\displaystyle A} . Il calcolo della matrice di trasformazione T {\displaystyle T} è più complesso rispetto al caso di A {\displaystyle A} diagonalizzabile.

Caso di matrice 2x2

Se la matrice A {\displaystyle A} è 2 × 2 {\displaystyle 2\times 2} , può essere decomposta rispetto alle matrici di Pauli σ 1 = ( 0 1 1 0 ) , {\displaystyle \sigma _{1}={\bigl (}{\begin{smallmatrix}0&1\\1&0\end{smallmatrix}}{\bigr )},} σ 2 = ( 0 i i 0 ) , {\displaystyle \sigma _{2}={\bigl (}{\begin{smallmatrix}0&i\\-i&0\end{smallmatrix}}{\bigr )},} σ 3 = ( 1 0 0 1 ) , {\displaystyle \sigma _{3}={\bigl (}{\begin{smallmatrix}1&0\\0&-1\end{smallmatrix}}{\bigr )},} attraverso opportuni coefficienti complessi r 0 , r 1 , r 2 , r 3 {\displaystyle r_{0},r_{1},r_{2},r_{3}} nel modo seguente:

A = r 0 I + i = 1 3 r i σ i = ( r 0 + r 3 r 1 + i r 2 r 1 i r 2 r 0 r 3 ) . {\displaystyle A=r_{0}I+\sum _{i=1}^{3}r_{i}\sigma _{i}=\left({\begin{matrix}r_{0}+r_{3}&r_{1}+ir_{2}\\r_{1}-ir_{2}&r_{0}-r_{3}\end{matrix}}\right).}

Allora vale:

exp ( A ) = e r 0 ( cosh r + r ^ σ sinh r ) , {\displaystyle \exp(A)=e^{r_{0}}\left(\cosh r+{\hat {r}}\cdot {\vec {\sigma }}\sinh r\right),}

dove:

r = r 1 2 + r 2 2 + r 3 2 , r ^ = 1 r ( r 1 , r 2 , r 3 ) , σ = ( σ 1 , σ 2 , σ 3 ) , r ^ σ = r 1 r σ 1 + r 2 r σ 2 + r 3 r σ 3 . {\displaystyle r={\sqrt {r_{1}^{2}+r_{2}^{2}+r_{3}^{2}}},\quad {\hat {r}}={\frac {1}{r}}(r_{1},r_{2},r_{3}),\quad {\vec {\sigma }}=(\sigma _{1},\sigma _{2},\sigma _{3}),\quad {\hat {r}}\cdot {\vec {\sigma }}={\frac {r_{1}}{r}}\sigma _{1}+{\frac {r_{2}}{r}}\sigma _{2}+{\frac {r_{3}}{r}}\sigma _{3}.}

Dimostrazione

Sia r = ( r 1 , r 2 , r 3 ) . {\displaystyle {\vec {r}}=(r_{1},r_{2},r_{3}).} Utilizzando le proprietà delle matrici di Pauli

σ i 2 = I {\displaystyle \sigma _{i}^{2}=I}

e

σ i σ j + σ j σ i = 2 δ i j , {\displaystyle \sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i}=2\delta _{ij},}

dove δ i j {\displaystyle \delta _{ij}} è la funzione delta di Kronecker, si ha:

( r σ ) 2 = i = 1 3 r i 2 σ i 2 + i = 1 3 j i r i r j σ i σ j = i = 1 3 r i 2 I + i = 1 3 j i r i r j 1 2 ( σ i σ j + σ j σ i ) = r 2 I + 0. {\displaystyle ({\vec {r}}\cdot {\vec {\sigma }})^{2}=\sum _{i=1}^{3}r_{i}^{2}\sigma _{i}^{2}+\sum _{i=1}^{3}\sum _{j\not =i}r_{i}r_{j}\sigma _{i}\sigma _{j}=\sum _{i=1}^{3}r_{i}^{2}I+\sum _{i=1}^{3}\sum _{j\not =i}r_{i}r_{j}{\frac {1}{2}}(\sigma _{i}\sigma _{j}+\sigma _{j}\sigma _{i})=r^{2}I+0.}

Per cui:

exp ( A ) = e r 0 n = 0 1 n ! ( r σ ) n = e r 0 [ n = 0 r 2 n ( 2 n ) ! I + r σ r n = 0 r 2 n + 1 ( 2 n + 1 ) ! ] = e r 0 ( I cosh r + r ^ σ sinh r ) . {\displaystyle \exp(A)=e^{r_{0}}\sum _{n=0}^{\infty }{\frac {1}{n!}}({\vec {r}}\cdot {\vec {\sigma }})^{n}=e^{r_{0}}\,\left[\sum _{n=0}^{\infty }{\frac {r^{2n}}{(2n)!}}I+{\frac {{\vec {r}}\cdot {\vec {\sigma }}}{r}}\sum _{n=0}^{\infty }{\frac {r^{2n+1}}{(2n+1)!}}\right]=e^{r_{0}}(I\cosh r+{\hat {r}}\cdot {\vec {\sigma }}\sinh r).}

Applicazione ai sistemi di equazioni differenziali

La funzione esponenziale di una matrice viene frequentemente utilizzata per risolvere sistemi di equazioni differenziali. La soluzione del problema ai valori iniziali del primo ordine:

y ( t ) = A y ( t ) , y ( 0 ) = y 0 , {\displaystyle y'(t)=Ay(t),\qquad y(0)=y_{0},}

in cui A {\displaystyle A} è una matrice costante (cioè di coefficienti costanti), è data da:

y ( t ) = e A t y 0 . {\displaystyle y(t)=e^{At}y_{0}.}

Si può anche utilizzare la funzione esponenziale di una matrice per studiare l'equazione non omogenea:

y ( t ) = A y ( t ) + z ( t ) , y ( 0 ) = y 0 . {\displaystyle y'(t)=Ay(t)+z(t),\qquad y(0)=y_{0}.}

Non esiste invece nessuna soluzione in forma chiusa per equazioni del tipo:

y ( t ) = A ( t ) y ( t ) , y ( 0 ) = y 0 , {\displaystyle y'(t)=A(t)y(t),\qquad y(0)=y_{0},}

con A {\displaystyle A} non costante, tuttavia è possibile trovare una soluzione nella forma di somma infinita.

Bibliografia

  • (EN) Bhatia, R., Matrix Analysis, Graduate Texts in Mathematics, vol. 169, Springer, 1997, ISBN 978-0-387-94846-1.
  • (EN) Hermann Weyl, Space Time Matter, Dover, 1952, p. 142, ISBN 0-486-60267-2.
  • (EN) James D. Bjorken e Sidney D. Drell, Relativistic Quantum Mechanics, McGraw-Hill, 1964, p. 22.
  • (EN) Roger A. Horn e Charles R. Johnson, Topics in Matrix Analysis, Cambridge University Press, 1991, ISBN 978-0-521-46713-1.

Voci correlate

Collegamenti esterni

  • matrice esponenziale, in Enciclopedia della Matematica, Istituto dell'Enciclopedia Italiana, 2013. Modifica su Wikidata
  • matrice, esponenziale di una, in Enciclopedia della Matematica, Istituto dell'Enciclopedia Italiana, 2013. Modifica su Wikidata
  • (EN) Eric W. Weisstein, Matrice esponenziale, su MathWorld, Wolfram Research. Modifica su Wikidata
  • (EN) Module for the Matrix Exponential, su math.fullerton.edu. URL consultato l'11 gennaio 2015 (archiviato dall'url originale il 9 giugno 2007).
  • Esercizio svolto sulla forma canonica di Jordan (PDF), su mat.uniroma2.it.
  • Esercizi sulla forma di Jordan e sull’esponenziale di matrice (PDF), su ce.unipr.it.


  Portale Matematica: accedi alle voci di Wikipedia che trattano di matematica