[Table des matières]

Agrégation Interne de Mathématiques

Première preuve 2017

7037

Corrigé par Alain Tissier

Comité de Rédaction de la RMS

Préliminaires

1. L’argument central d’un complexe non nul z est l’unique réel θ tel que - π < θ π et z⁄|z| = e  ; on le note Argz.

Ici z vérifie : - π < Argz < π.

Les éléments u de O+ sont caractérisés par : - π⁄2 < Argu < π⁄2.

La condition u2 = z équivaut à |u|2 = |z| et 2Argu = Argz (les deux membres de cette égalité ne sortent pas de l’intervalle ] - π,π[).

Ainsi l’unique solution de l’équation en u ∈O+ : u2 = z est : √-
 z = • ---
  |z|eiθ⁄2 .

2. a) Soit z - 1. Comme |1 + z|2 -|1 - z|2 = 4Re(z), le signe de |g(z)|- 1 est le même que celui de Re (z). On a ainsi prouvé l’équivalence demandée : (z ∈O+) (g(z) ∈D).

b) Soit w un complexe ; le seul complexe z autre que - 1 tel que z-z+11 = w est 11+-ww-, sa condition d’existence étant w1. Ainsi g est une bijection de C \{-1} sur C \{1}, la bijection inverse étant g-1 : w↦→ 1+w1-w.

D’après l’équivalence montrée en 2.a), g-1 induit une bijection de D sur O+.

3. Pour toute matrice M, la notation M[i,j] désigne le coefficient de M situé à la ie ligne et la je colonne. On notera en colonnes les éléments de Kn. Le produit scalaire canonique sur Rn est donné par : (x|y) = t  xy.

a) Soit H une matrice symétrique réelle. Posons Φ(x) = t xHx = (x|Hx) ; Φ est une forme quadratique sur R n ; par définition cette forme quadratique est positive si elle ne prend que des valeurs positives. Les valeurs propres de H sont réelles ; soit λ l’une d’elles, et soit v un vecteur propre de H selon λ ; alors Φ(x) = λ(x|x) ; donc si Φ est positive alors λ est positive. Ainsi si t xHx est positif pour tout x, alors H est positive au sens donné dans l’énoncé. La réciproque est vraie car, (ei) étant une base orthonormale de vecteurs propres de H, il vient t xHx = ∑n

i=1λi(ei|x)2 (λi est la valeur propre relative à ei ).

Posons H = t  MM. On vérifie : t H = H. Pour tout x de Rn, t xHx = (Mx|Mx) ; donc t xHx 0 pour tout x et t MM est positive. Si M est inversible, toutes ses valeurs propres sont strictement positives et t MM est définie positive ; sinon 0 est valeur propre de M et aussi de t MM ; H est positive non définie.

b) Posons < M,H >   = Tr(t MH) pour toutes M,H de Mn(R). D’abord
N(M) =   < M,M >. On obtient l’expression : < M,H >   =  ∑

1≤i,j≤nM[i,j]H[i,j]. On reconnaît le produit scalaire sur Mn(R) pour lequel la base canonique est orthonormale.

4. C’est une répétition de 3.b). Posons < M,H >   = Tr(M*H) pour toutes M,H de Mn(C). D’abord N(M) =   < M,M >. On obtient l’expression :
< M, H >   =  ∑
1≤i,j≤nM[i,j]H[i,j]. On reconnaît le produit hermitien sur Mn(C) pour lequel la base canonique est orthonormale.

I. Matrices de carré In

5. a) Le polynôme X2 - 1 est scindé à racines simples ; il en résulte que L est diagonalisable et Kn= F G F = Ker(L - In) et G = Ker(L + In).

Ainsi Lx = x si x ∈ F et Lx = -x si x ∈ G.

b) En utilisant une base adaptée à la décomposition vue en 5a), on voit que la matrice L est semblable à la matrice diagonale Diag(Ip,-Iq) p = dimF et q = dimG. Donc Tr(L) = dim F - dimG.

6. a) La similitude entre matrices est une relation d’équivalence dans Mn(K).

Toute matrice M qui est semblable à une matrice L de In est elle-même dans In ; en effet pour toute matrice P inversible, (PLP-1)2 = (PL2P-1)2 = In.

Ainsi la similitude entre matrices induit dans In une relation d’équivalence.

b) D’après 5.b) la trace d’un élément L de In est p-q p et q sont des entiers naturels de somme n. Ainsi Tr (L) = n - 2q q est un entier compris entre 0 et n. La condition Tr(L) = n - 2q revient à : L ~ diag(In-q,-Iq). On en déduit que L et M, éléments de In, sont semblables si et seulement leurs traces sont égales.

c) Dans In , le nombre de classes d’équivalence pour la relation de similitude est n + 1, le nombre d’entiers entre 0 et n.

II. Si Sp (A) est inclus dans D alors (Al) tend vers 0

7. a) La matrice B n’a que 0 pour valeur propre. Le polynôme caractéristique unitaire de B est Xn puisque sa seule racine est 0. Donc Bn = 0 d’après le théorème de Cayley-Hamilton.

b) La formule du binôme s’applique : (B + αIn)l =  l
∑
i=0(l i) αl-iBi. Compte tenu de Bn = 0, en convenant : ( l i) = 0 si l < i, il vient : Al = n∑-1

i=0ci,lBi, ci,l = (l i) αl-i.

c) Si α = 0 alors Al = 0 pour l n. Le résultat est évident dans ce cas. Supposons désormais α non nul.

L’égalité de b) exprime Al comme combinaison linéaire à coefficients variables ci,l des n matrices In , B, , Bn-1 . Il suffit de montrer que chaque ci,l tend vers 0 quand l tend vers + . Or pour l i, ci,l+1 ⁄ci,l = αl-i
i+1, qui tend vers α quand l tend vers + . Puisque |α| < 1, la règle de d’Alembert montre que (ci,l)l tend vers 0.

8. Les notations qui suivent seront conservées dans la suite.

Notons E1 , . . ., Ek les sous-espaces caractéristiques de A, les valeurs propres associées étant α1, . . ., αk . Notons ni la dimension de Ei.

Pour tout x de Ei , Ax est dans Ei. Ainsi x↦→Ax induit dans Ei un endomorphisme dont l’unique valeur propre est αi. Choisissons une base Bi de Ei telle que la matrice de cet endomorphisme est

Ai = αiIni + Ti,

Ti est triangulaire supérieure stricte. En fait ce choix restrictif de Bi n’est pas ici nécessaire, mais il sera utile dans des questions ultérieures.

En réunissant les bases Bi on construit une matrice inversible Ω telle que

 -1
Ω  A Ω = Diag (A1, A2,...,Ak).

On en déduit Ω-1 AlΩ = Diag(Al
1,Al
2,,Al
k). D’après 7c), comme |αi| < 1, la suite (Al
i) tend vers 0. Ainsi Ω-1 AlΩ tend vers la matrice nulle quand l tend vers + .

L’application M↦→ΩMΩ-1 est continue (c’est un endomorphisme linéaire d’un espace vectoriel de dimension finie). On en déduit que (Al)l tend vers 0.

III. tude des suites récurrentes ul+1 = f(ul)

9. Si α = ±i alors f(α) = 0 et la suite uα n’est pas définie pour l’indice 2.

10. La fonction f est impaire. Donc si uα est définie, il en est de même de u-α et de plus, si uα = (ul )l∈N alors u-α = (-ul)l∈N ; si uα converge, alors u-α converge et s-α = -sα .

Supposons α réel et strictement positif. La fonction f stabilise ]0,+[, donc la suite uα est bien définie et tous les ul sont strictement positifs.

Calculons : f(x) - 1 = (1-x)2
 2x ; donc f(x) 1 pour tout x > 0 ; ainsi un 1 pour tout n 1. Puis : f(x) - x = 1-x2-
2x et f(x) x pour tout x 1 ; ainsi ul+1 ul pour tout n 1. La suite uα est minorée par 1 ; elle décroît à partir de l’indice 1 ; elle converge donc vers un réel x 1. Comme f est continue sur ]0,+[, f(x) = x et x = 1. Ainsi sα = 1 si α est un réel strictement positif.

Supposons α réel et strictement négatif. Alors d’après la parité de f, la suite uα est croissante à partir de l’indice 1 et converge vers - 1. Ainsi sα = -1 si α est un réel strictement négatif.

11. a) Chacune des parties O+ et O- est stable par passage à l’inverse, addition, multiplication par réel strictement positif. Il en résulte que f stabilise O+ comme O- ; si α est dans O+ ou dans O- , uα est bien définie. Pour que la suite uα ne soit pas définie, il faut que α ne soit ni dans O+ ni O- , donc que α soit imaginaire pur.

b) Revenons à la fonction g apparue dans 2) du préambule. Elle est une bijection de C \{-1} sur C\ {1}, la bijection inverse étant g-1 : w↦→11+-ww-. On a vu que le signe de |g(z)|- 1 est le même que celui de Re (z). Une partition de C \{-1} est (O+,O-\{-1},O0) O0 est la droite des imaginaires purs. L’image par g de cette partition est (D,Dʹ,D0 \{1}) Dʹ est le complémentaire du disque fermé unité et D0 est le cercle trigonométrique.

En particulier g induit une bijection de O+ sur D et une bijection de O-\{-1} sur Dʹ.

Nous avons wl = g-1(β2l ). Si |β| < 1 (resp. > 1) alors la suite (β2l ) est à valeurs dans D (resp. Dʹ) et est bien définie.

Pour z 1 : f(g-1(z)) = 12(         )
 zz+-11 + z-z+11 =  2
zz2+-11 = g-1(z2).

Si z = β2l alors z2 = β2l+1  ; ainsi f(wl) = wl+1.

Si |β| < 1 alors la suite (β2l ) tend vers 0 et la suite (wl) tend vers 1.

Si |β| > 1| alors on écrit : wl =    - 2l
-1+1+ββ-2l, la suite (β-2l ) tend vers 0 et la suite (wl) tend vers - 1.

c) Posons β = g(α). Selon que α est dans O+ ou dans O-, β est dans D ou Dʹ. Puis : α = g-1 (β).

En utilisant la relation : f(g-1(z)) = g-1(z2), on montre par récurrence, partant de u0 = α = g-1 (β) : un = g-1(β2n ). D’après b), la suite uα converge et si α est dans O+ (resp. O- alors sα = 1 (resp. - 1).

IV. tude des suites récurrentes de matrices : Ul+1 = 1
2(Ul + U-1
l)

12. Dans ce qui suit on notera fl la puissance le de f au sens de la composition.

a) Notons λ1 , , λn les valeurs propres de A comptées avec leurs multiplicités. On suppose que les p premières sont dans O+ et les n-p dernières dans O-. Soit, pour tout i, ei un vecteur propre de A selon la valeur propre λi. Notons Ω la matrice dont les colonnes sont les ei. Par construction : Ω-1 AΩ = diag (λ1,n).

Pour tout i, Aei = λiei ; puis : A-1ei = (1⁄λi)ei et 1
2(A + A-1)e i = f(λi)ei.

De la même façon, par récurrence sur l, Ul est bien définie et :

  -1           ℓ         ℓ
Ω   UℓΩ = diag(f (λ1),...,f (λn)).

b) La suite (fl (λi)) tend vers 1 pour 1 i p et - 1 pour p + 1 i n. Donc
-1 Ul Ω)l ) tend vers Diag(Ip,In-p). On en déduit (comme à la fin de II 7)) que (Ul)l tend vers LA , où LA = ΩDiag(Ip,In-p-1.

La matrice LA est diagonalisable (dans la même base que A) et ses valeurs propres sont ± 1. C’est dire que (LA )2 = In.

c) La suite (Tr (Ul)) tend vers Tr(LA). Comme LA est semblable à Diag(Ip,-In-p), sa trace est 2p - n. De plus 12(Tr(Ul) + Tr(U-l1)) n’est autre que Tr(Ul+1). La limite demandée est donc 2p - n, où p est le nombre de valeurs propres de partie réelle strictement positive.

13. a) On a U1 = 12(A + A-1). Cette définition est licite car 0 n’est pas valeur propre de A.

Reprenons les notations de la solution de II 8).

Les notations Ti , Tʹi, Tʹʹi désignent certaines matrices triangulaires supérieures strictes.

On part de : Ω-1 AΩ = Diag(A1,A2,,Ak), où Ai = αiIni + Ti. Puis :
Ω-1 AΩ = Diag (A-1
1,A-1
2,,A-1
k), et Ω-1U 1Ω = Diag(U1,1,U1,2,,U1,k), où pour tout i, U1,i = 1
2(Ai + A-1
i).

De Ai = αi Ini + Ti, on tire A-i 1 = (1⁄αi)Ini + Tʹi puis U1,i = f(αi)Ini + Tʹʹi.

Par récurrence sur l, la suite UA est bien définie, et, pour tout l :
Ω-1 Ul Ω = Diag (Ul,1,Ul,2,,Ul,k) où pour tout i, Ul,i = fl(αi)Ini + Tl,iTl,i est triangulaire supérieure stricte.

Les valeurs propres de Ul sont les images par fl des valeurs propres de A. Comme f stabilise O+ et que A vérifie (P+), chaque Ul vérifie (P+).

b) Posons ici B = (A-In)(A + In)-1 ; cette définition est licite car - 1 n’est pas valeur propre de A. On peut inverser la relation : B -In = -2(A + In)-1. On voit que 1 n’est pas valeur propre de B ; B - In est inversible et A = 2(In - B)-1 - In = (In + B)(In - B)-1.

Soit β une valeur propre de B : Bv = βv pour un certain vecteur v non nul, puis Av = αv α = 1+β
1-β = g-1(β).

Il existe bien, pour toute valeur propre β de B, une valeur propre α de A telle que β = g(α). (Les notations α et β de l’énoncé ont été inversées ici).

c) Posons Wl = (Ul - In)(Ul + In)-1.

La matrice Ul - In commute avec Ul + In et aussi (Ul + In)-1 ; on peut donc écrire : W2l = (Ul - In )2(Ul + In)-2.

D’autre part : Wl+1 = (Ul+1 - In)(Ul+1 + In)-1.

Or : Ul+1 -In = (Ul-In)2U-1
l et Ul+1 +In = (Ul+In)2U-1
l, puis (Ul+1 +In)-1 = U l(Ul+In)-2. Enfin : Wl+1 = (Ul - In)2(Ul + In)-2 = W2l.

Comme W0 = B, il vient : Wl = B2l .

d) On a vu en b) que toute valeur propre de B est du type g(α) α est une valeur propre de A. Comme Sp A est inclus dans O+, SpB est inclus dans D. D’après II 8), B2l tend vers 0 quand l tend vers + .

e) Comme cela a été fait pour A en fonction de B, on écrit : Ul = 2(In - Wl)-1 - In.

De c) et d) on déduit : (Wl) tend vers 0.

L’application M↦→M-1 de GLn(C) dans Mn(C) est continue : en effet les coefficients de M-1 sont des fonctions rationnelles, bien définies sur GLn(C), des coefficients de M. Il en résulte que Ul tend vers In quand l tend vers + .

Ainsi lorsque A vérifie (P+), la suite UA converge et LA = In.

14. La matrice -A vérifie (P+) et U-A = -UA. On déduit de cette remarque et de 13) que si A vérifie (P-) alors UA converge et LA = -In.

15. a) On reprend à nouveau les notations de II 8) mais on suppose de plus que les Ei ont été ordonnés de telle façon que les h premiers soient associés à des valeurs propres situées dans O+ et les k - h derniers à des valeurs propres situées dans O-. On note F = E1 + ⋅⋅⋅ + Eh et G = Eh+1 + ⋅⋅⋅ + Ek.

Ainsi Ω-1 AΩ = Diag(C,D) C (resp. D) vérifie (P+) (resp. (P-)).

b) D’après 13) et 14), les suites UC et UD sont bien définies et tendent respectivement vers Ip et In-p p est la dimension de F et n - p celle de G. Il en résulte que UA est bien définie et que LA = ΩDiag (Ip ,In-p-1. Les valeurs propres de LA sont 1 et - 1 avec pour multiplicités respectives p et n - p, où p (resp. n - p) est le nombre de valeurs propres de A de partie réelle strictement positive (resp. strictement négative).

V. Une méthode itérative conduisant au calcul de √A--

16. Lister les valeurs propres d’une matrice M de Mn(C) et leurs multiplicités revient à calculer χM , le polynôme caractéristique unitaire : χM(z) = det(zIn - M).

Exprimons χB à l’aide de χA.

On part de : zI2n - B = ( zIn   - A )
 - In  zIn .

Multiplions à gauche par U = (In   zIn)
  0   In puis par V = (0   - In)
 In   0 .

Il vient : V U(zI2n - B) = (I     - zI  )
  n0  z2I -nA
        n .

Le déterminant de V est (-1)nε ε est la signature du produit des n transpositions [n + i,i] pour 1 i n : detV = 1. Les formes triangulaires par blocs donnent detU = 1 et ||In-zIn||
||0z2In-A|| = det(z2In - A). On a montré : χB(z) = χA(z2).

Les valeurs propres de A sont α12,k les valeurs propres de A, avec pour ordres de multiplicités n1 , n2,,nk. Ainsi : χB(z) = ∏k

i=1(z2 - αi)ni.

Chaque αi est dans C \ R- ; en appliquant la définition de la racine carrée définie sans ambiguïté dans 1), on obtient :

        k
        ∏     √ --ni    √ --ni
χB (z) =   (z -  αi) (z +  αi)  .
        i=1

Les 2k nombres complexes ±√ αi sont distincts (deux d’entres eux sont opposés ou ont des carrés distincts). Les valeurs propres de B sont, pour i = 1,2,,k, ±√ αi avec ni pour ordre de multiplicité.

17. Pour tout i, √--
 αi est dans O+ et -√ --
  αi est dans O-. La matrice B vérifie (P) puisqu’elle ne possède aucune valeur propre imaginaire pure. Les conclusions de la partie IV s’appliquent : la suite UB converge et, puisqu’il y a autant de valeurs propres de B dans O- que dans O+, LB est semblable à Diag(In,-In).

18. Commençons par deux préliminaires.

  • Notons C [A] la sous-algèbre de Mn(C) engendrée par A, ou algèbre de A ; ses éléments sont les R(A) R est un polynôme complexe. Cette algèbre est de dimension finie et commutative. Notons C[A]* l’ensemble des Y de C[A] qui sont inversibles dans Mn(C).

    Montrons que si Y est dans C[A]* alors Y -1 est dans C[A]. En effet l’application M↦→ Y M est linéaire et injective et stabilise C[A] ; comme C[A] est de dimension finie, elle induit une bijection de C[A] sur C[A] et il existe Z dans C[A] telle que Y Z = In  : Z n’est autre que Y -1.

  • Soit M une matrice du type (        )
  0   M1
 M2    0M1 et M2 sont dans Mn(C). Posons Jn = (   )
0 In
In  0 . La matrice Jn est inversible, son carré étant I2n. On a MJn = Diag(M1 , M2). Ainsi M est inversible si et seulement si M1 et M2 sont inversibles. Dans ce cas (MJn)-1 = Diag(M-11,M-2 1), puis M-1 = J nDiag(M-11,M-21) = (  )
0M-21
M-110 .

Soit Y dans C [A]*. Posons U = (       )
  0  AY
 Y    0 .

Les matrices Y et AY sont dans C[A]*. La matrice U est inversible et
U-1 = (     )
0  Y-1
(AY)-1   0 . Posons W = (AY )-1 ; avec la commutativité dans C[A]*, W = A-1 Y -1 , et U-1 = ( 0   AW )
  W    0 .

On déduit de ce calcul : 1
2(U + U-1) = V V = ( 0  AZ )
 Z    0 , avec Z = 1
2(Y + A-1Y -1).

Ainsi, par récurrence sur l, on voit que les termes de la suite UB s’écrivent Ul = ( 0  AYl)
 Yl   0 , où la suite (Y l ) est donnée par :

Y 0 = In  ; puis, pour tout l de N, Y l+1 = 12(Y l + A-1Y -1
l).

Tous les Y l sont dans l’algèbre de A.

19. On sait que la suite UB converge. Il en résulte que la suite (Y l) converge et notons L sa limite. Ainsi LB = (   )
0AL
L 0 . Comme C[A] est un sous-espace vectoriel d’un espace vectoriel de dimension finie, il est fermé ; les Y l sont tous dans C[A] ; donc L est dans C[A]. En particulier LA = AL.

20. Plusieurs étapes dans cette question.

  • (i) La matrice L est inversible et L-1 est un élément de l’algèbre de A dont le carré est A. En effet, d’après IV 15), vu que B vérifie (P), LB est une matrice semblable à une matrice diagonale dont les valeurs propres sont 1 et - 1. Ainsi L2
B = In. Or (LB )2 = (AL2    0  )
  0   LAL ; donc AL2 = In. Ainsi L est inversible ; L2 = A-1 puis (L-1 )2 = A. Comme L est dans C[A]*, L-1 est dans C[A].
  • (ii) On doit montrer que L-1 vérifie (P+).

    Ceci passe par la réduction simultanée des Y l. Il existe un polynôme Rl tel que Y l = Rl (A).

    Dans ce qui suit les notation Tx, Tʹx, Sx, Sʹx désignent des matrices triangulaires supérieures strictes.

    Avec les notations de II 8) : Ω-1Y lΩ = Diag(Rl(A1),,Rl(Ak)). Comme Ai = αi Ini + Ti , Rl(Ai) = R(αi)Ini + Tʹi.

    Ainsi : Ω-1Y lΩ = Diag(Y l,1,,Y l,k) où pour tout i, Y l,i = λl,iIni + Tʹl,i, pour certains complexes λl,i. Les λl,i sont toutes les valeurs propres de Y l.

    D’après la définition par récurrence établie dans 18), Y 0,i = Ini, puis Y l+1,i = 1
2(Y l,i+A-1
iY -1
l,i). Ceci se traduit en particulier par :

    λi,0 = 1 ; pour tout l de N, λi,l+1 = 1
2(         )
 λi,l +--1-
      αiλi,l.

    Posons pour tous i,l : μi,l = √ --
  αiλi,l. La suite (μi,l)l est donnée par :

    μi,0 = √α
i ; puis, pour tout l de N, μi,l+1 = f(μi,l).

    Comme √α
 i est dans O+, d’après III 11c), la suite (μ i,l)l tend vers 1.

    Donc la suite (λ(li))l tend vers 1√ --
  αi.

    Il en résulte : Ω-1LΩ = Diag(Lʹ1,,Lʹk) Lʹi = (1√--
 αi)Ini + Sʹi. Puis : Ω-1 L-1 Ω = Diag(Rl(L1),,Rl(Lk)) Li = (√ --
  αiIni + Si). Les valeurs propres de L-1 sont les √
αi et sont bien dans O+.

    Ainsi L-1 est dans l’algèbre de A, de carré A et vérifie (P+).

  • (iii) On montre à présent que L-1 est la seule matrice vérifiant (P+) et dont le carré est A.

    Soit donc M une telle matrice. Comme M2 = A elle commute avec A ; de ce fait elle stabilise KerR(A) pour tout polynôme R et en particulier chacun des Ei. Ainsi Ω-1 MΩ = Diag(M1,,Mk) où pour tout i, Mi est une matrice carrée d’ordre ni dont le carré est αi Ini + Ni. Toute valeur propre de Mi a pour carré αi mais c’est une valeur propre de M ; comme M vérifie (P+), cette valeur propre est   --
√ αi. Ainsi Mi possède  --
√αi comme unique valeur propre ; donc Mi =   --
√ αiIni + HiHi est nilpotente. La matrice Hi doit vérifier : 2 --
√αiHi + H2i = Ti.

    Il reste à résoudre le problème suivant : dans Mm(C) soit T une matrice nilpotente, il existe une seule matrice H nilpotente telle que H + H2 = T . On appliquera ceci à m = ni, H = 1(2√αi)Hi et T = 1(4αi)Ti.

    D’abord Hm = Tm = 0. Soit q un entier compris entre 1 et m- 1. On a : Hq(In + H)q = Tq ; ceci se réécrit : Hq = Tq -m -q-1
  ∑

  i=1(q i) Hq+i. En particulier Hm-1 = Tm-1. Supposons acquis, pour q + 1 i m - 1, Hi = TiRi(T) Ri est un polynôme. Alors Hq = Tq Rq(T), où Rq = 1 -m-∑ q- 1

  i=1(q i) Rq+i. Ainsi, avec la récurrence descendante, on prouve l’existence d’un polynôme R tel que H = TR(T). Ce polynôme R est R1, où (Rq) est la suite telle que Rm-1 = 1, puis Rq = 1 - qRq+i -⋅⋅⋅-( q m-q-1) Rm-1. La définition de R dépend de la taille m mais pas de T . Il y a donc unicité de H.

    On a montré, pour le problème considéré, l’unicité des matrices Mi, puis celle de M.

21. Notons Sn (resp. Hn) l’ensemble des matrices symétriques réelles (resp. hermitiennes) d’ordre n. Ces deux ensembles sont des R-sous-espaces vectoriels de Mn(C). De plus si M et H sont dans Sn (resp. Hn ) et commutent, alors MH est dans Sn (resp. Hn) ; si M est inversible et dans Sn (resp. Hn ), il en est de même de M-1.

Soit A une matrice hermitienne définie positive. Comme ses valeurs propres sont des réels strictement positifs, elle vérifie (Q) ; l’existence de √ --
  A au sens de 20) est assurée ; ses valeurs propres sont de partie réelle strictement positive.

L’inverse L de √-
A est la limite de la suite (Y l)l construite dans 18).

La matrice Y 0 , qui est In, est hermitienne. Supposons Y l hermitienne ; alors, puisque Y l commute avec A, AY l est hermitienne ; l’inverse de AY l aussi ; la demi-somme de Y l et de (AY l )-1 aussi et Y l+1 est hermitienne. On a ainsi établi par récurrence que tous les Y l sont hermitiennes.

Comme Hn est un sous-R-espace vectoriel d’un espace vectoriel de dimension finie, la limite L de (Y l ) est hermitienne ; son inverse aussi ; les valeurs propres sont à la fois réelles et dans O+  : elles sont réelles strictement positives donc √ --
  A est hermitienne définie positive.

On peut dans tout ce qui précède remplacer hermitienne  par symétrique réelle . Donc si A est symétrique réelle définie positive, il en est de même de √--
 A.

VI. Projection orthogonale sur le groupe orthogonal

L’espace R n est euclidien, le produit scalaire étant donné par : (x|y) = t xy.

L’espace Mn (R ) est euclidien, le produit scalaire étant donné par :
< M, L >   =  Trt ML.

22. Les matrices P de Un(R) sont celle qui vérifient t PP = In. La matrice In est orthogonale ; Un (R ) n’est donc pas vide.

Toute matrice orthogonale vérifie < P,P >   = n ; étant inclus dans la sphère de centre 0 et de rayon √
n , U n(R) est borné.

L’application P↦→t PP est continue : Un(R), l’image réciproque d’un singleton par cette application, est fermé.

Ainsi Un (R ) est un compact non vide.

23. Dans un espace métrique (E,d), K étant un compact non vide et a un point, il existe au moins b de K qui minimise x↦→d(a,x);x ∈ K. On applique pour cela le principe du minimum à la fonction x↦→ d(a,x) (qui est continue).

Ici l’application (M,L)↦→• ---------
  N (M  - L) est la distance (euclidienne) dans Mn(R) et Un(R) est un compact non vide. Minimiser • ---------
  N (M - L) revient à minimiser N(M - L). Il y a bien existence de P0 dans Un (R ) tel que N(M - P0) N(M - P) pour toute matrice orthogonale P.

24. Les équivalences entre elles des trois assertions se déduisent des égalités :

N(M - P) - N(M - P0) = 2(< P0,M > - < P,M >) = N(M + P0) - N(M + P).

Ainsi minimiser P↦→N(M - P) revient à maximiser P↦→ < M,P >.

25. La matrice M est orthogonalement semblable à une matrice D diagonale à éléments strictement positifs. Résolvons d’abord le problème pour une telle matrice D.

Pour toute matrice orthogonale P , < P,D >   = ∑n

 i=1P[i,i]D[i,i]. Tous les P[i,i] sont majorés par 1, donc < P, D >     < In,D >. L’égalité revient à : P[i,i] = 1 pour tout i ce qui force P[i, j] = 0 pour tous ij (puisque la somme  n
∑
i=1P[i,j]2 vaut 1). Ainsi In est la seule matrice orthogonale maximisant P↦→ < P,D >.

On utilisera dans la suite une propriété d’invariance de < A,B > par multiplication par une matrice orthogonale Q à gauche ou à droite : < QA,QB >   =   < AQ,BQ >   =   < A,B >.

Preuve directe : < QA,QB >= Tr(tAt QQB >=< A,B > car t QQ = In ; < AQ, BQ >= Tr(t QABQ) = Tr(Qt QAB) =< A,B > car Qt Q = In.

Revenons à la matrice initiale M. Il existe une matrice orthogonale Q telle que M = QDt Q D est diagonale à éléments strictement positifs.

Pour tout matrice orthogonale P :

< P, M >   =< P,QDt Q >   =   < t QP,Dt Q >   =   < t QPQ,D >   =   < R,D >R est la matrice t QPQ, qui est orthogonale.

Ainsi < P, M >     < In,D > avec égalité si et seulement si t QPQ = In ; ceci revient à P = In . De plus < In,D >   =  Tr(D) = Tr(M) =   < In,M >.

Ainsi In est la seule matrice orthogonale maximisant P↦→Tr(t PM).

26. On note (Ei,j) la base canonique de Mn(R). La matrice M est telle que < P, M >     < In,M > pour toute matrice orthogonale P .

a) Une matrice de rotation plane s’écrit, pour certains indices u,v distincts,
P = In - (1 - cosθ)(Eu,u + Ev,v) + sinθ(Ev,u - Eu,v).

On en tire :

< P, M > - < In,M >= sinθ(M[v,u] - M[u,v]) - (1 - cosθ)(M[u,u] + M[v,v]).

Si M n’est pas symétrique, il existe u,v distincts tels que M[v,u] -M[u,v] est strictement positif. Le second membre de l’égalité est une fonction de θ qui est nulle en 0 et dont la dérivée en 0 est M[v, u] - M[u, v]. Il existe donc θ > 0 assez petit pour que
< P, M > - < In,M > soit strictement positif. Ainsi M est symétrique.

b) (i) Pour tout x tel que (v|x) = 0, Pv(x) = 0 ; de plus Pv(v) = v - 2v = -v car t vv = (v|v) = 1. Ainsi Pv est orthogonale puisque c’est la symétrie par rapport à l’hyperplan orthogonal de v.

(ii) Calculons : < Pv,M >   =   < In,M > -2 < vt v,M >. Or < vt  v, M >   = Tr(vt vM) = Tr(t vMv) = (v|Mv) (la trace d’un scalaire lui est égale).

Ainsi < In , M > - < Pv,M >= 2(v|Mv).

c) Comme < P,M >     < In,M > pour toute P orthogonale, (v|Mv) 0 pour tout vecteur unitaire v ; on en déduit (x|Mx) 0 pour tout vecteur x. Ainsi M est positive.

d) Soit v non nul tel que Mv = 0. Quitte à faire une homothétie sur v, on peut le supposer unitaire. Alors < In , M >   =   < Pv,M > ; In n’est donc pas la seule matrice orthogonale maximisant P↦→   < P,M >. Par contraposition M est symétrique et inversible donc définie positive.

27. a) La matrice M étant inversible, t MM est symétrique réelle définie positive ; d’après 21), √
tMM est une matrice symétrique réelle définie positive que l’on note H. Posons Q0 = MH-1. Calculons : t  Q0 Q0 = H-1t MMH-1 = H-1H2H-1 = In. On vient de montrer que Q0 est orthogonale.

b) Pour une matrice orthogonale Q :

< Q, M >   =   < t Q0Q,t Q0M >   =   < t Q0Q,H >.

Mais H est symétrique réelle définie positive et t Q0Q est orthogonale, donc
< Q, M >     < In,H > avec égalité si et seulement si t Q0Q = In, soit Q = Q0.

On a montré l’unicité du projeté orthogonal de M sur Un(R), ce projeté étant M(√ ------
  t M M)-1.

28. Soit v un vecteur unitaire. L’identité < In,M > - < Pv,M >   = 2(v|Mv) vue en 26b) pour M symétrique est en fait vraie pour toute matrice.

Comme M n’est pas inversible, il existe v unitaire tel que Mv = 0.

Soit P0 une matrice maximisant < P,M > sur l’ensemble des matrices orthogonales.

On transforme : < P0 , M >   =   < In,t P0M >   =   < Pv,t P0M > +2(v|tP0Mv) =   < Pv,t P0M >   =   < P0Pv,M >.

Ainsi P0 Pv est une autre matrice orthogonale qui minimise la distance de M au groupe orthogonal. Il y a toujours unicité de la projection orthogonale de M sur U(n, R) quand M est inversible, jamais quand elle ne l’est pas.

VII. Projection orthogonale sur le groupe unitaire

Le préambule qui suit n’a aucune utilité pour la résolution de cette partie ; il ne fait que renseigner sur la démarche. L’espace vectoriel complexe M(n, C) est muni du produit hermitien donné par < A, B >   =  Tr(A*B). La distance hermitienne entre les matrices A et B est •N(A-B). Le groupe unitaire U(n, C) est un compact non vide. Pour tout M de M(n, C) il existe au moins une matrice unitaire V 0 qui minimise V ↦→N(M - V ) sur U(n, C). Mais N(M - V ) - N(M -V 0) = 2Re(< V 0,M >) - 2Re(< V,M >). Il revient au même de dire que V 0 maximise V ↦→Re(< V,M >).

29. La matrice tA0 est antihermitienne : (tA0)* = -tA0. Pour toute matrice carrée complexe M, (eM )* = eM*  ; eM est inversible, son inverse étant e-M. On déduit de tout ceci : (etA0 )* = (etA0 )-1. C’est dire que etA0 est une matrice unitaire.

Comme V 0 est unitaire, γ(t) = V 0etA0 est unitaire pour tout t.

Pour toute M, t↦→etM est indéfiniment dérivable, sa dérivée étant t↦→MetM.

On en déduit que γ est indéfiniment dérivable, et γ(p)(0) = V 0Ap0 pour tout entier naturel p.

30. On aura besoin pour b) de précisions sur les matrices hermitiennes et antihermitiennes. Tout d’abord A est antihermitienne si et seulement si A = iH H est hermitienne. D’autre part toute matrice carrée complexe M se décompose de façon unique H + A H est hermitienne et A antihermitienne : H = 12(M + M*) ; A = 12(M - M*). En réunissant ces deux résultats on voit que M se décompose de façon unique : M = H1 + iH2H1 et H2 sont hermitiennes.

Pour toutes matrices H1 et H2 hermitiennes d’ordre n, < H1,H2 > est un nombre réel ; en effet < H1 , H2 >  =   < H2,H1 > et dans ce cas < H1,H2 >   = Tr(H1H2) = Tr(H2H1).

a) Avec les notations de 29), nécessairement : t↦→η(γ(t)) se maximise en 0 ; il y présente donc un maximum local. Toujours nécessairement : (η γ)ʹ(0)) = 0 et (η γ)ʹʹ(0)) 0. Comme η est linéaire, η(γʹ(0)) = 0 et η(γʹʹ(0)) 0. Ainsi Re(< M,V 0A0 >)  = 0 et Re(< M, V 0 A2
0 >)  0. Ce sont les relations i) et ii) annoncées.

b) Notons L la matrice V *0M. Produit de deux matrices inversibles, L est inversible.

On a < M, V 0 K >   =   < L,K > pour toute matrice K de Mn(C).

D’après a) : Re (< L,A >) = 0 et Re(< L,A2 >) 0 pour toute matrice antihermitienne A. Cela revient à : Im(< L,H >) = 0 et Re(< L,H2 >) 0 pour toute matrice hermitienne H.

Décomposons : L = H1 + iH2H1 et H2 sont hermitiennes. Les conditions précédentes deviennent, avec la réalité de < K,Kʹ > quand K et Kʹ sont hermitiennes : < H2,H >   = 0 et < H1 , H2 >   0 pour toute H hermitienne.

En choisissant H = H2 il vient < H2,H2 >   = 0 donc H2 = 0. Ainsi L = H1 : L est hermitienne.

Soit u un vecteur unitaire. La matrice uu* est une matrice hermitienne H qui représente la projection orthogonale sur Cu car uu*x = 0 si u*x = 0 (i.e. x est orthogonal à u) et uu*u = u. En particulier H2 = H.

Par conséquent, pour tout u unitaire, < L,uu* >   0.

Or < L, uu* >   = Tr(Luu*) = Tr(u*Lu) = u*Lu. Dans le cas particulier d’un vecteur propre unitaire u, u* Lu est la valeur propre associée à u. Ainsi toute valeur propre de L est positive et L est hermitienne positive.

On a supposé M inversible ; on en déduit que L est inversible. Finalement L est définie positive. Ainsi M = V 0 L L est hermitienne définie positive.

31. Gardons les notations de 30b). Nécessairement M*M = LV *0V 0L = L2. Comme L est hermitienne définie positive, la seule possibilité est L = √-----
 M *M et V 0 = M(√ -----
  M *M)-1.

Le problème d’unicité est résolu. Le problème d’existence se résout en remarquant qu’il s’agit de la distance d’un point à un compact non vide dans un espace métrique, le compact en question étant U(n, C ).
[Table des matières]