• Comportement du chien et
    du chat
  • Celui qui connait vraiment les animaux est par là même capable de comprendre pleinement le caractère unique de l'homme
    • Konrad Lorenz
  • Biologie, neurosciences et
    sciences en général
  •  Le but des sciences n'est pas d'ouvrir une porte à la sagesse infinie,
    mais de poser une limite à l'erreur infinie
    • La vie de Galilée de Bertold Brecht

Mathématiques : rappels
Matrices

Sommaire

La symétrie, pour les physiciens, est la capacité à rester insensible à certaines transformations, ce qui permet de simplifier les lois, i.e. elles sont invariantes lorsqu’on applique certaines transformations.

définition

Les matrices sont des tableaux de nombres qui servent à interpréter en termes calculatoires et donc opérationnels les résultats théoriques de l'algèbre linéaire et même de l'algèbre bilinéaire.

Groupe de Lie
Groupe de Lie (E8)
(Figure : vetopsy.fr d'après Jgmoxness)

Reportez-vous sur Wikipedia et autres pour en savoir plus sur les matrices.

Matrice hermitienne

Une matrice hermitienne (ou auto-adjointe) est une matrice carrée à nombres complexes qui est égale à sa propre matrice transposée conjuguée (matrice transconjuguée), écrit de manière concise par $ A=A^{\dagger}$.

$$A=\begin{pmatrix}0&-i&0\\i&1&1-i\\0&1+i&1\end{pmatrix}$$

  • où, matrice carrée, i.e. matrice à même nombre de lignes que de colonnes : $\mathcal M_n(R)$ ou $\mathcal M_n(C)$ sont les espaces vectoriels des matrices carrées d'ordre $n$ à coefficients réels et complexes ;
  • matrice transposée, i.e. obtenue en échangeant les lignes et les colonnes : $A^T=\begin{pmatrix}0&i&0\\-i&1&1+i\\0&1-i&1\end{pmatrix}$ ;
  • matrice conjuguée, i.e. matrice dont les nombres complexes sont conjugués - le nombre imaginaire change de signe - : $A^\ast\;\text{ou}\;A^{\dagger}=\begin{pmatrix}0&-i&0\\i&1&1-i\\0&1+i&1\end{pmatrix}=A$.

Une matrice est dite :

  • symétrique si elle est égale à sa transposée : $A=A^T$, i.e. ce qui impose que la matrice soit carrée: les matrices hermitiennes sont donc symétriques ;
  • antisymétrique si elle est égale à l'opposé de sa transposée : $-A=A^T$

Remarque : une matrice est dite antihermitienne quand $A^\dagger=-A$ et est à l'oeuvre dans l'algèbre de Lie.

La trace - $tr(A)$ - d'une matrice hermitienne, somme de sa diagonale - ici, $0+1+1$ - est toujours réelle.

Matrice transposée
Matrice transposée

Les valeurs propres $\lambda$ sont réelles - $P_A(\lambda)=(1+\lambda)(-\lambda^2+3\lambda-1)$ - et les vecteurs propres sont orthogonaux (cf. calcul matriciel).

En algèbre linéaire, une matrice carrée $U$ à coefficients complexes est dite unitaire si son propre conjugué est son inverse : $U^\ast U=UU^\ast=I$, ou $U^\dagger U=UU^\dagger=I$,

  • où la matrice adjointe de $U$ est notée $U^\ast$ ou $U^\dagger$,
  • $I$ désigne la matrice identité ou matrice unité, i.e, matrice carré ayant des 1 sur la diagonale et des 0 partout ailleurs.

Attention à ne pas confondre matrice unitaire et unité !

bien

Les matrices unitaires à coefficients réels sont des matrices orthogonales qui ont une importance essentielle en dans les groupes de symétrie en mécanique quantique.

L'ensemble des matrices unitaires de taille n forme le groupe unitaire $U(n)$, sous-groupe du groupe général linéaire $(GL(n,\mathbb C))$.

Wolfgang Ernst Pauli
Wolfgang Ernst Pauli (1900 1958)

Le groupe $U(1)$, dans lequel $n=1$ et qui correspond au cercle unité ($T$), est le groupe de jauge de l'électromagnétisme

Exemples de matrices hermitiennes

Matrices de Pauli

Les matrices de Pauli forment, au facteur $ i$ près, une base de l'algèbre de Lie du groupe $ SU(2)$, qui dépend aussi des versors (quaternions de norme 1). Ce sont des matrices complexes de dimensions $2\times 2$ où $i$ est l'unité imaginaire.

  • $\sigma_0=\begin{pmatrix}1&0\\0&1\end{pmatrix}\qquad\sigma_1=\sigma_x=\begin{pmatrix}0&1\\1&0\end{pmatrix}$
  • $\sigma_2=\sigma_y=\begin{pmatrix}0&-i\\i&\phantom{-}0\end{pmatrix}\qquad\sigma_3=\sigma_z=\begin{pmatrix}1&\phantom{-}0\\0&-1\end{pmatrix}$.
  • On écrit par commodité, $\sigma_0=I_2$, la matrice d'identité ou matrice unité, et $\sigma=(\sigma_1,\sigma_2,\sigma_3)=(\sigma_k)$.

On en déduit que :

Pour une matrice $2\times2$, $A$ , le déterminant det$(A)$ est : $|A|=\begin{vmatrix}a&b\\c&d\end{vmatrix}=ad-bc$.

  • la trace est $tr(\sigma_k)=0$.
  • Leopold Kronecker
    Leopold Kronecker (1823-1891)
    Les valeurs propres sont $\pm1$.
  • Les vecteurs propres sont pour $\sigma_1$ : $\begin{pmatrix}1\\1\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-1\end{pmatrix}$,
    pour $\sigma_2$ : $\begin{pmatrix}1\\i\end{pmatrix}$ et $\begin{pmatrix}\phantom{-}1\\-i\end{pmatrix}$ et pour $\sigma_3$ : $\begin{pmatrix}1\\0\end{pmatrix}$ et $\begin{pmatrix}0\\1\end{pmatrix}$.

Les vecteurs propres sur l'axe $z$ ($\sigma_3$), axe classique de la projection en mécanique quantique serviront pour le calcul du spin et la définition des spineurs.

  • En géométrie en la physique, les spineurs sont des éléments d'un espace vectoriel (complexe) qui peut être associé à l'espace euclidien.
  • Paul Dirac utilisa les bispineurs pour sa fameuse équation de la fonction d'onde d'un fermion.

Les matrices de Pauli obéissent aux relations de commutation et d'anticommutation suivantes :

$[\sigma_i,\sigma_j]=2i\epsilon_{\displaystyle ijk}\sigma_k\qquad$ et $\qquad\{\sigma_i,\sigma_j\}=2\delta_{\displaystyle ij}\,\cdot I$

Symbole de Levy-civita
Symbole de Levy-civita ($n=3$)
(Figure : vetopsy.fr d'après Arian Kriesch)

Le symbole de Kronecker, notée $\delta$ ou delta de Kronecker est une fonction de deux variables $i$ et $j$ telle que :

$$\delta_{i,j}=\delta_i^j=\delta^{i,j}=\left\{\begin{array}{11}1&si&i=j\\0&si&i\neq j\end{array}\right.$$

Le symbole de Levi-Civita représente une collection de nombres définie à partir d'une permutation des nombres naturels 1, 2, ..., n, pour un entier positif $n$.

  • Pour $n=2$ :

$$\epsilon_{\displaystyle ij}={\begin{cases}+1&{\text{si}}\;(i,j)\;=\;(1,2)\\-1&{\text{si}}\;(i,j)\;=\;(2,1),\\\;\;\,0&{\text{si}}\;i\;=\;j\end{cases}}$$

Tullio Levy-civita
Tullio Levy-Civita (1873-1941)

Dans une matrice $2\times2$ antisymétrique ($A=-A^\ast$), on peut écrire : $\begin{pmatrix}\epsilon_{11}&\epsilon_{12}\\\epsilon_{21}&\epsilon_{22}\end{pmatrix}=\begin{pmatrix}0&1\\-1&0\end{pmatrix}$

  • Pur $n=3$ :

$$\epsilon_{\displaystyle ijk}={\begin{cases}+1&{\text{si}}\;(i,j,k)\;{\text{est}}\;(1,2,3),\;(2,3,1)\;{\text{ou }}\;(3,1,2),\\-1&{\text{si}}\;(i,j,k)\;{\text{est}}\;(3,2,1),\;(1,3,2)\;{\text{ou}}\;(2,1,3),\\\;\;\,0&{\text{si}}\;i=j,\;{\text{ou}}\;j=k\;{\text{ ou}}\;k=i\end{cases}}$$

Si on multiplie ces matrices de Pauli $\sigma_k$ par le nombre imaginaire $i$, alors $i\sigma_k$ peut représenter les générateurs infinitésimaux du groupe de Lie correspondant SU(2).

En mécanique quantique, on peut remplacer les matrices de Pauli par des matrices définies par :

  • $\sigma^+=\dfrac{1}{2}(\sigma_x+i\sigma_y)=\begin{pmatrix}0&1\\0&0\end{pmatrix}\qquad\sigma^-=\dfrac{1}{2}(\sigma_x-i\sigma_y)=\begin{pmatrix}0&0\\1&0\end{pmatrix}$
  • Si, dans la base $\mathbb C^2$, on choisit les vecteurs $|\uparrow\rangle=\begin{pmatrix}1\\0\end{pmatrix}$ et $|\downarrow\rangle=\begin{pmatrix}0\\1\end{pmatrix}$, alors l'action des matrices $\sigma^+$ et $\sigma^-$ donnent : $\sigma^+|\uparrow\rangle=0$ et $\sigma^+|\downarrow\rangle=|\uparrow\rangle$ et $\sigma^-|\downarrow\rangle=0$ et $\sigma^-|\uparrow\rangle=|\downarrow\rangle$.

En mécanique quantique, les matrices de Pauli sont liées :

Les particules à spin $1/2$ (fermions) sont représentées comme des dipôles de la sphère $S^2$, alors qu'ils sont réellement représentés par des vecteurs orthogonaux dans l'espace de Hilbert complexe bidimensionnel : cela explique que leur rotation soit de $4\pi$ pour revenir à leur configuration originelle, au lieu de $2\pi$ pour une rotation normale.

Matrices de Gell-Mann

Les matrices de Gell-Mann, du physicien américain Murray Gell-Mann, sont des représentations des générateurs infinitésimaux du groupe unitaire spécial appelé SU(3).

Cet algèbre de Lie réelle utilise avec huit générateurs linéairement indépendants, $g_i$ avec $i=\{1,2,…8\}$.

Une des représentations est celles des matrices $ 3\times3$ car les éléments du groupe agissent alors sur des vecteurs complexes à 3 entrées.

Schrödinger et Dirac
Erwin Schrödinger et Paul Dirac

Ces 8 matrices ($\lambda_1$ à $\lambda_8$ et $g_i=\lambda_i/2) sont (cf article) :

Ces propriétés généralisent les matrices de Pauli pour $SU(2)$ et s'étendent à la SU(n), et en particulier à $SU(3)$ qui intervient dans les symétries de saveurs des fermions.

Matrices de Dirac

Les quatre matrices $4\times4$ de Dirac sont des matrices gamma, $\{\gamma^0,\;\gamma^1,\;\gamma^2,\;\gamma^3\}$, dans lesquelles $\gamma^0$ est une matrice temporelle et $\gamma^1,\;\gamma^2,\;\gamma^3$ des matrices spaciales.

Paul Dirac
Espace de Minkowski
(Figure : vetopsy.fr d'après Stib)

Ces matrices :

L'algèbre de Clifford est une algèbre associative qui peut être construite à partir de l'espace euclidien et de son produit intérieur d'une manière indépendante de la base.

On utilise aussi la matrice $\gamma^5=i\gamma^0,\gamma^1,\gamma^2,\gamma^3$ pour construire différents types de combinaisons, que l'on utilise, entre autres, dans les parités ($\mathcal P$), pour définir :

$\gamma^\mu$, les matrices de Dirac, sont à l'origine du slash de Feynman défini par : ${a\!\!\!/}:=\gamma^\mu a_\mu$ pour un quadrivecteur $a$ de l'espace de Minkowski.

Symétries