Mathématiques : rappels
Matrices
- Mathématiques
- Mécanique quantique
- Modèle standard des particules
La symétrie, pour les physiciens, est la capacité à rester insensible à certaines transformations, ce qui permet de simplifier les lois, i.e. elles sont invariantes lorsqu’on applique certaines transformations.
Les matrices sont des tableaux de nombres qui servent à interpréter en termes calculatoires et donc opérationnels les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire.
Reportez-vous sur Wikipedia et autres pour en savoir plus sur les matrices.
Matrice hermitienne
Une matrice hermitienne (ou auto-adjointe) est une matrice carrée à nombres complexes qui est égale à sa propre matrice transposée conjuguée (matrice transconjuguée), écrit de manière concise par $ A=A^{\dagger}$.
$$A=\begin{pmatrix}0&-i&0\\i&1&1-i\\0&1+i&1\end{pmatrix}$$
- où, matrice carrée, i.e. matrice à même nombre de lignes que de colonnes : $\mathcal M_n(R)$ ou $\mathcal M_n(C)$ sont les espaces vectoriels des matrices carrées d'ordre $n$ à coefficients réels et complexes ;
- matrice transposée, i.e. obtenue en échangeant les lignes et les colonnes : $A^T=\begin{pmatrix}0&i&0\\-i&1&1+i\\0&1-i&1\end{pmatrix}$ ;
- matrice conjuguée, i.e. matrice dont les nombres complexes sont conjugués - le nombre imaginaire change de signe - : $A^\ast\;\text{ou}\;A^{\dagger}=\begin{pmatrix}0&-i&0\\i&1&1-i\\0&1+i&1\end{pmatrix}=A$.
- symétrique si elle est égale à sa transposée : $A=A^T$, i.e. ce qui impose que la matrice soit carrée: les matrices hermitiennes sont donc symétriques ;
- antisymétrique si elle est égale à l'opposé de sa transposée : $-A=A^T$
Remarque : une matrice est dite antihermitienne quand $A^\dagger=-A$ et est à l'oeuvre dans l'algèbre de Lie.
La trace - $tr(A)$ - d'une matrice hermitienne, somme de sa diagonale - ici, $0+1+1$ - est toujours réelle.
Les valeurs propres $\lambda$ sont réelles - $P_A(\lambda)=(1+\lambda)(-\lambda^2+3\lambda-1)$ - et les vecteurs propres sont orthogonaux (cf. calcul matriciel).
En algèbre linéaire, une matrice carrée $U$ à coefficients complexes est dite unitaire si son propre conjugué est son inverse : $U^\ast U=UU^\ast=I$, ou $U^\dagger U=UU^\dagger=I$,
- où la matrice adjointe de $U$ est notée $U^\ast$ ou $U^\dagger$,
- $I$ désigne la matrice identité ou matrice unité, i.e, matrice carré ayant des 1 sur la diagonale et des 0 partout ailleurs.
Attention à ne pas confondre matrice unitaire et unité !
Les matrices unitaires à coefficients réels sont des matrices orthogonales qui ont une importance essentielle en dans les groupes de symétrie en mécanique quantique.
L'ensemble des matrices unitaires de taille n forme le groupe unitaire $U(n)$, sous-groupe du groupe général linéaire $(GL(n,\mathbb C))$.
Le groupe $U(1)$, dans lequel $n=1$ et qui correspond au cercle unité ($T$), est le groupe de jauge de l'électromagnétisme
Exemples de matrices hermitiennes
Matrices de Pauli
Les matrices de Pauli forment, au facteur $ i$ près, une base de l'algèbre de Lie du groupe $ SU(2)$, qui dépend aussi des versors (quaternions de norme 1). Ce sont des matrices complexes de dimensions $2\times 2$ où $i$ est l'unité imaginaire.
- $\sigma_0=\begin{pmatrix}1&0\\0&1\end{pmatrix}\qquad\sigma_1=\sigma_x=\begin{pmatrix}0&1\\1&0\end{pmatrix}$
- $\sigma_2=\sigma_y=\begin{pmatrix}0&-i\\i&\phantom{-}0\end{pmatrix}\qquad\sigma_3=\sigma_z=\begin{pmatrix}1&\phantom{-}0\\0&-1\end{pmatrix}$.
- On écrit par commodité, $\sigma_0=I_2$, la matrice d'identité ou matrice unité, et $\sigma=(\sigma_1,\sigma_2,\sigma_3)=(\sigma_k)$.
On en déduit que :
- Le déterminant est $det(\sigma_k)=−1$.
Pour une matrice $2\times2$, $A$ , le déterminant det$(A)$ est : $|A|=\begin{vmatrix}a&b\\c&d\end{vmatrix}=ad-bc$.
- la trace est $tr(\sigma_k)=0$.
- Les valeurs propres sont $\pm1$.
-
Les vecteurs propres sont pour $\sigma_1$ : $\begin{pmatrix}1\\1\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-1\end{pmatrix}$,
pour $\sigma_2$ : $\begin{pmatrix}1\\i\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-i\end{pmatrix}$ et pour $\sigma_3$ : $\begin{pmatrix}1\\0\end{pmatrix}$ et $\begin{pmatrix}0\\1\end{pmatrix}$.
Les vecteurs propres sur l'axe $z$ ($\sigma_3$), axe classique de la projection en mécanique quantique serviront pour le calcul du spin et la définition des spineurs.
- En géométrie en la physique, les spineurs sont des éléments d'un espace vectoriel (complexe) qui peut être associé à l'espace euclidien.
- Paul Dirac utilisa les bispineurs pour sa fameuse équation de la fonction d'onde d'un fermion.
Les matrices de Pauli obéissent aux relations de commutation et d'anticommutation suivantes :
$[\sigma_i,\sigma_j]=2i\epsilon_{\displaystyle ijk}\sigma_k\qquad$ et $\qquad\{\sigma_i,\sigma_j\}=2\delta_{\displaystyle ij}\,\cdot I$
- où, $\{,\}$ est le symbole de l'anticommutateur $\left\{A,B\right\}=AB+BA$,
- $\epsilon_{\displaystyle ijk}$ est le symbole de Levi-Civita,
- $\delta_{\displaystyle ij}$ le symbole de Kronecker et $I$ la matrice identité ou matrice unité.
Le symbole de Kronecker, notée $\delta$ ou delta de Kronecker est une fonction de deux variables $i$ et $j$ telle que :
$$\delta_{i,j}=\delta_i^j=\delta^{i,j}=\left\{\begin{array}{11}1&si&i=j\\0&si&i\neq j\end{array}\right.$$
Le symbole de Levi-Civita représente une collection de nombres définie à partir d'une permutation des nombres naturels 1, 2, ..., n, pour un entier positif $n$.
- Pour $n=2$ :
$$\epsilon_{\displaystyle ij}={\begin{cases}+1&{\text{si}}\;(i,j)\;=\;(1,2)\\-1&{\text{si}}\;(i,j)\;=\;(2,1),\\\;\;\,0&{\text{si}}\;i\;=\;j\end{cases}}$$
Dans une matrice $2\times2$ antisymétrique ($A=-A^\ast$), on peut écrire : $\begin{pmatrix}\epsilon_{11}&\epsilon_{12}\\\epsilon_{21}&\epsilon_{22}\end{pmatrix}=\begin{pmatrix}0&1\\-1&0\end{pmatrix}$
- Pur $n=3$ :
$$\epsilon_{\displaystyle ijk}={\begin{cases}+1&{\text{si}}\;(i,j,k)\;{\text{est}}\;(1,2,3),\;(2,3,1)\;{\text{ou }}\;(3,1,2),\\-1&{\text{si}}\;(i,j,k)\;{\text{est}}\;(3,2,1),\;(1,3,2)\;{\text{ou}}\;(2,1,3),\\\;\;\,0&{\text{si}}\;i=j,\;{\text{ou}}\;j=k\;{\text{ ou}}\;k=i\end{cases}}$$
Si on multiplie ces matrices de Pauli $\sigma_k$ par le nombre imaginaire $i$, alors $i\sigma_k$ peut représenter les générateurs infinitésimaux du groupe de Lie correspondant SU(2).
En mécanique quantique, on peut remplacer les matrices de Pauli par des matrices définies par :
- $\sigma^+=\dfrac{1}{2}(\sigma_x+i\sigma_y)=\begin{pmatrix}0&1\\0&0\end{pmatrix}\qquad\sigma^-=\dfrac{1}{2}(\sigma_x-i\sigma_y)=\begin{pmatrix}0&0\\1&0\end{pmatrix}$
- Si, dans la base $\mathbb C^2$, on choisit les vecteurs $|\uparrow\rangle=\begin{pmatrix}1\\0\end{pmatrix}$ et $|\downarrow\rangle=\begin{pmatrix}0\\1\end{pmatrix}$, alors l'action des matrices $\sigma^+$ et $\sigma^-$ donnent : $\sigma^+|\uparrow\rangle=0$ et $\sigma^+|\downarrow\rangle=|\uparrow\rangle$ et $\sigma^-|\downarrow\rangle=0$ et $\sigma^-|\uparrow\rangle=|\downarrow\rangle$.
En mécanique quantique, les matrices de Pauli sont liées :
- à l'opérateur spin $(J=\frac{\hbar}{2}\sigma)$.
Les particules à spin $1/2$ (fermions) sont représentées comme des dipôles de la sphère $S^2$, alors qu'ils sont réellement représentés par des vecteurs orthogonaux dans l'espace de Hilbert complexe bidimensionnel : cela explique que leur rotation soit de $4\pi$ pour revenir à leur configuration originelle, au lieu de $2\pi$ pour une rotation normale.
Matrices de Gell-Mann
Les matrices de Gell-Mann, du physicien américain Murray Gell-Mann, sont des représentations des générateurs infinitésimaux du groupe unitaire spécial appelé SU(3).
Cet algèbre de Lie réelle utilise avec huit générateurs linéairement indépendants, $g_i$ avec $i=\{1,2,…8\}$.
Une des représentations est celles des matrices $ 3\times3$ car les éléments du groupe agissent alors sur des vecteurs complexes à 3 entrées.
Ces 8 matrices ($\lambda_1$ à $\lambda_8$ et $g_i=\lambda_i/2) sont (cf article) :
- hermitiennes,
- de trace nulle,
- sont orthonormales de trace supplémentaire $\mathrm{tr}(\lambda_i\lambda_j=2\delta_{ij}$, i.e. en multipliant deux des matrices Gell-Mann, la matrice résultante aura une trace égale au double du symbole de Kronecker.
Ces propriétés généralisent les matrices de Pauli pour $SU(2)$ et s'étendent à la SU(n), et en particulier à $SU(3)$ qui intervient dans les symétries de saveurs des fermions.
Matrices de Dirac
Les quatre matrices $4\times4$ de Dirac sont des matrices gamma, $\{\gamma^0,\;\gamma^1,\;\gamma^2,\;\gamma^3\}$, dans lesquelles $\gamma^0$ est une matrice temporelle et $\gamma^1,\;\gamma^2,\;\gamma^3$ des matrices spaciales.
Ces matrices :
- sont hermitiennes,
- anticommutatives,
- leur carré est égal à I, la matrice identité ou matrice unité.
L'algèbre de Clifford est une algèbre associative qui peut être construite à partir de l'espace euclidien et de son produit intérieur d'une manière indépendante de la base.
- Le groupe de spin et son algèbre de Lie sont incorporés dans l'algèbre de Clifford d'une manière naturelle et permet de simplifier les calculs.
- Les matrices $\gamma$ génèrent une représentation de l'algèbre de Clifford.
- Les spineurs sont les vecteurs colonnes sur lesquels agissent ces matrices, comme d'ailleurs dans les matrices de Pauli.
On utilise aussi la matrice $\gamma^5=i\gamma^0,\gamma^1,\gamma^2,\gamma^3$ pour construire différents types de combinaisons, que l'on utilise, entre autres, dans les parités ($\mathcal P$), pour définir :
- des vecteurs : $\bar\psi\gamma^\mu\psi$,
- des pseudovecteurs : $\bar\psi\gamma^5\gamma^\mu\psi$,
- des scalaires : $\bar\psi\psi$,
- des pseudoscalaires : $\bar\psi\gamma^5\psi$.
$\gamma^\mu$, les matrices de Dirac, sont à l'origine du slash de Feynman défini par : ${a\!\!\!/}:=\gamma^\mu a_\mu$ pour un quadrivecteur $a$ de l'espace de Minkowski.