La symétrie, pour les physiciens, est la capacité à rester insensible à certaines transformations, ce qui permet de simplifier les lois, i.e. elles sont invariantes lorsqu’on applique certaines transformations.
Les matrices sont des tableaux de nombres qui servent à interpréter en termes calculatoires et donc opérationnels les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire.
Groupe de Lie (E8)
(Figure : vetopsy.fr d'après Jgmoxness)
Reportez-vous sur Wikipedia et autres pour en savoir plus sur les matrices.
où, matrice carrée, i.e. matrice à même nombre de lignes que de colonnes : $\mathcal M_n(R)$ ou $\mathcal M_n(C)$ sont les espaces vectoriels des matrices carrées d'ordre $n$ à coefficients réels et complexes ;
matrice transposée, i.e. obtenue en échangeant les lignes et les colonnes : $A^T=\begin{pmatrix}0&i&0\\-i&1&1+i\\0&1-i&1\end{pmatrix}$ ;
matrice conjuguée, i.e. matrice dont les nombres complexes sont conjugués - le nombre imaginaire change de signe - : $A^\ast\;\text{ou}\;A^{\dagger}=\begin{pmatrix}0&-i&0\\i&1&1-i\\0&1+i&1\end{pmatrix}=A$.
Une matrice est dite :
symétrique si elle est égale à sa transposée : $A=A^T$, i.e. ce qui impose que la matrice soit carrée: les matrices hermitiennes sont donc symétriques ;
antisymétrique si elle est égale à l'opposé de sa transposée : $-A=A^T$
Remarque : une matrice est dite antihermitienne quand $A^\dagger=-A$ et est à l'oeuvre dans l'algèbre de Lie.
La trace - $tr(A)$ - d'une matrice hermitienne, somme de sa diagonale - ici, $0+1+1$ - est toujours réelle.
Matrice transposée
Les valeurs propres $\lambda$ sont réelles - $P_A(\lambda)=(1+\lambda)(-\lambda^2+3\lambda-1)$ - et les vecteurs propres sont orthogonaux (cf. calcul matriciel).
En algèbre linéaire, une matrice carrée $U$ à coefficients complexes est dite unitaire si son propre conjugué est son inverse : $U^\ast U=UU^\ast=I$, ou $U^\dagger U=UU^\dagger=I$,
où la matrice adjointe de $U$ est notée $U^\ast$ ou $U^\dagger$,
Les matrices de Pauli forment, au facteur $ i$ près, une base de l'algèbre de Lie du groupe $ SU(2)$, qui dépend aussi des versors (quaternions de norme 1). Ce sont des matrices complexes de dimensions $2\times 2$ où $i$ est l'unité imaginaire.
Les vecteurs propres sont pour $\sigma_1$ : $\begin{pmatrix}1\\1\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-1\end{pmatrix}$,
pour $\sigma_2$ : $\begin{pmatrix}1\\i\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-i\end{pmatrix}$ et pour $\sigma_3$ : $\begin{pmatrix}1\\0\end{pmatrix}$ et $\begin{pmatrix}0\\1\end{pmatrix}$.
Les vecteurs propres sur l'axe $z$ ($\sigma_3$), axe classique de la projection en mécanique quantique serviront pour le calcul du spin et la définition des spineurs.
En géométrie en la physique, les spineurs sont des éléments d'un espace vectoriel (complexe) qui peut être associé à l'espace euclidien.
Paul Dirac utilisa les bispineurs pour sa fameuse équation de la fonction d'onde d'un fermion.
Le symbole de Levi-Civita représente une collection de nombres définie à partir d'une permutation des nombres naturels 1, 2, ..., n, pour un entier positif $n$.
Dans une matrice $2\times2$ antisymétrique ($A=-A^\ast$), on peut écrire : $\begin{pmatrix}\epsilon_{11}&\epsilon_{12}\\\epsilon_{21}&\epsilon_{22}\end{pmatrix}=\begin{pmatrix}0&1\\-1&0\end{pmatrix}$
Si on multiplie ces matrices de Pauli $\sigma_k$ par le nombre imaginaire $i$, alors $i\sigma_k$ peut représenter les générateurs infinitésimaux du groupe de Lie correspondant SU(2).
En mécanique quantique, on peut remplacer les matrices de Pauli par des matrices définies par :
Si, dans la base $\mathbb C^2$, on choisit les vecteurs $|\uparrow\rangle=\begin{pmatrix}1\\0\end{pmatrix}$ et $|\downarrow\rangle=\begin{pmatrix}0\\1\end{pmatrix}$, alors l'action des matrices $\sigma^+$ et $\sigma^-$ donnent : $\sigma^+|\uparrow\rangle=0$ et $\sigma^+|\downarrow\rangle=|\uparrow\rangle$ et $\sigma^-|\downarrow\rangle=0$ et $\sigma^-|\uparrow\rangle=|\downarrow\rangle$.
En mécanique quantique, les matrices de Pauli sont liées :
Les particules à spin $1/2$ (fermions) sont représentées comme des dipôles de la sphère $S^2$, alors qu'ils sont réellement représentés par des vecteurs orthogonaux dans l'espace de Hilbert complexe bidimensionnel : cela explique que leur rotation soit de $4\pi$ pour revenir à leur configuration originelle, au lieu de $2\pi$ pour une rotation normale.
sont orthonormales de trace supplémentaire $\mathrm{tr}(\lambda_i\lambda_j=2\delta_{ij}$, i.e. en multipliant deux des matrices Gell-Mann, la matrice résultante aura une trace égale au double du symbole de Kronecker.
Les quatre matrices $4\times4$ de Dirac sont des matrices gamma, $\{\gamma^0,\;\gamma^1,\;\gamma^2,\;\gamma^3\}$, dans lesquelles $\gamma^0$ est une matrice temporelle et $\gamma^1,\;\gamma^2,\;\gamma^3$ des matrices spaciales.
Espace de Minkowski
(Figure : vetopsy.fr d'après Stib)
On utilise aussi la matrice $\gamma^5=i\gamma^0,\gamma^1,\gamma^2,\gamma^3$ pour construire différents types de combinaisons, que l'on utilise, entre autres, dans les parités ($\mathcal P$), pour définir :