[Table des matières]
Agrégation Interne de Mathématiques
Première preuve 2017
7037
Corrigé par Alain Tissier
Comité de Rédaction de la RMS
1. L’argument central d’un complexe non nul z est l’unique réel θ tel que - π < θ ≤ π et z⁄|z| = eiθ ; on le note Argz.
Ici z vérifie : - π < Argz < π.
Les éléments u de + sont caractérisés par : - π⁄2 < Argu < π⁄2.
La condition u2 = z équivaut à |u|2 = |z| et 2Argu = Argz (les deux membres de cette égalité ne sortent pas de l’intervalle ] - π,π[).
Ainsi l’unique solution de l’équation en u + : u2 = z est :
=
eiθ⁄2
.
2. a) Soit z≠ - 1. Comme |1 + z|2 -|1 - z|2 = 4Re(z), le signe de |g(z)|- 1 est le même que
celui de Re (z). On a ainsi prouvé l’équivalence demandée : (z +) ⇔ (g(z)
).
b) Soit w un complexe ; le seul complexe z autre que - 1 tel que = w est
, sa condition
d’existence étant w≠1. Ainsi g est une bijection de C \{-1} sur C \{1}, la bijection inverse étant
g-1 : w
.
D’après l’équivalence montrée en 2.a), g-1 induit une bijection de sur
+.
3. Pour toute matrice M, la notation M[i,j] désigne le coefficient de M situé à la ie ligne et la je colonne. On notera en colonnes les éléments de Kn. Le produit scalaire canonique sur Rn est donné par : (x|y) = t xy.
a) Soit H une matrice symétrique réelle. Posons Φ(x) = t xHx = (x|Hx) ; Φ est une forme
quadratique sur R n ; par définition cette forme quadratique est positive si elle ne prend que
des valeurs positives. Les valeurs propres de H sont réelles ; soit λ l’une d’elles, et
soit v un vecteur propre de H selon λ ; alors Φ(x) = λ(x|x) ; donc si Φ est positive
alors λ est positive. Ainsi si t xHx est positif pour tout x, alors H est positive au sens
donné dans l’énoncé. La réciproque est vraie car, (ei) étant une base orthonormale de
vecteurs propres de H, il vient t xHx = λi(ei|x)2 (λi est la valeur propre relative à
ei ).
Posons H = t MM. On vérifie : t H = H. Pour tout x de Rn, t xHx = (Mx|Mx) ; donc t xHx ≥ 0 pour tout x et t MM est positive. Si M est inversible, toutes ses valeurs propres sont strictement positives et t MM est définie positive ; sinon 0 est valeur propre de M et aussi de t MM ; H est positive non définie.
b) Posons < M,H > = Tr(t MH) pour toutes M,H de n(R). D’abord
N(M) = < M,M >. On obtient l’expression : < M,H > = M[i,j]H[i,j]. On
reconnaît le produit scalaire sur
n(R) pour lequel la base canonique est orthonormale.
4. C’est une répétition de 3.b). Posons < M,H > = Tr(M*H) pour toutes M,H de n(C).
D’abord N(M) = < M,M >. On obtient l’expression :
< M, H > = M[i,j]H[i,j]. On reconnaît le produit hermitien sur
n(C) pour lequel
la base canonique est orthonormale.
5. a) Le polynôme X2 - 1 est scindé à racines simples ; il en résulte que L est diagonalisable et Kn= F ⊕ G où F = Ker(L - In) et G = Ker(L + In).
Ainsi Lx = x si x F et Lx = -x si x
G.
b) En utilisant une base adaptée à la décomposition vue en 5a), on voit que la matrice L est semblable à la matrice diagonale Diag(Ip,-Iq) où p = dimF et q = dimG. Donc Tr(L) = dim F - dimG.
6. a) La similitude entre matrices est une relation d’équivalence dans n(K).
Toute matrice M qui est semblable à une matrice L de n est elle-même dans
n ; en effet pour
toute matrice P inversible, (PLP-1)2 = (PL2P-1)2 = In.
Ainsi la similitude entre matrices induit dans n une relation d’équivalence.
b) D’après 5.b) la trace d’un élément L de n est p-q où p et q sont des entiers naturels de somme
n. Ainsi Tr (L) = n - 2q où q est un entier compris entre 0 et n. La condition Tr(L) = n - 2q
revient à : L ~ diag(In-q,-Iq). On en déduit que L et M, éléments de
n, sont semblables si et
seulement leurs traces sont égales.
c) Dans n , le nombre de classes d’équivalence pour la relation de similitude est n + 1, le nombre
d’entiers entre 0 et n.
II. Si Sp (A) est inclus dans alors (Al) tend vers 0
7. a) La matrice B n’a que 0 pour valeur propre. Le polynôme caractéristique unitaire de B est Xn puisque sa seule racine est 0. Donc Bn = 0 d’après le théorème de Cayley-Hamilton.
b) La formule du binôme s’applique : (B + αIn)l = (l
i)
αl-iBi. Compte tenu de Bn = 0, en
convenant : ( l
i)
= 0 si l < i, il vient : Al =
ci,lBi, où ci,l = (l
i)
αl-i.
c) Si α = 0 alors Al = 0 pour l ≥ n. Le résultat est évident dans ce cas. Supposons désormais α non nul.
L’égalité de b) exprime Al comme combinaison linéaire à coefficients variables ci,l des n matrices
In , B, … , Bn-1 . Il suffit de montrer que chaque ci,l tend vers 0 quand l tend vers + ∞. Or pour
l ≥ i, ci,l+1 ⁄ci,l = α, qui tend vers α quand l tend vers + ∞. Puisque |α| < 1, la règle de
d’Alembert montre que (ci,l)l tend vers 0.
8. Les notations qui suivent seront conservées dans la suite.
Notons E1 , . . ., Ek les sous-espaces caractéristiques de A, les valeurs propres associées étant α1, . . ., αk . Notons ni la dimension de Ei.
Pour tout x de Ei , Ax est dans Ei. Ainsi xAx induit dans Ei un endomorphisme dont l’unique
valeur propre est αi. Choisissons une base
i de Ei telle que la matrice de cet endomorphisme
est

où Ti est triangulaire supérieure stricte. En fait ce choix restrictif de i n’est pas ici nécessaire,
mais il sera utile dans des questions ultérieures.
En réunissant les bases i on construit une matrice inversible Ω telle que

On en déduit Ω-1 AlΩ = Diag(A,A
,…,A
). D’après 7c), comme |αi| < 1, la suite (A
) tend
vers 0. Ainsi Ω-1 AlΩ tend vers la matrice nulle quand l tend vers + ∞.
L’application MΩMΩ-1 est continue (c’est un endomorphisme linéaire d’un espace vectoriel de
dimension finie). On en déduit que (Al)l tend vers 0.
III. tude des suites récurrentes ul+1 = f(ul)
9. Si α = ±i alors f(α) = 0 et la suite uα n’est pas définie pour l’indice 2.
10. La fonction f est impaire. Donc si uα est définie, il en est de même de u-α et de
plus, si uα = (ul )lN alors u-α = (-ul)l
N ; si uα converge, alors u-α converge et
s-α = -sα .
Supposons α réel et strictement positif. La fonction f stabilise ]0,+∞[, donc la suite uα est bien définie et tous les ul sont strictement positifs.
Calculons : f(x) - 1 = ; donc f(x) ≥ 1 pour tout x > 0 ; ainsi un ≥ 1 pour tout n ≥ 1.
Puis : f(x) - x =
et f(x) ≤ x pour tout x ≥ 1 ; ainsi ul+1 ≤ ul pour tout n ≥ 1. La suite
uα est minorée par 1 ; elle décroît à partir de l’indice 1 ; elle converge donc vers un réel x ≥ 1.
Comme f est continue sur ]0,+∞[, f(x) = x et x = 1. Ainsi sα = 1 si α est un réel strictement
positif.
Supposons α réel et strictement négatif. Alors d’après la parité de f, la suite uα est croissante à partir de l’indice 1 et converge vers - 1. Ainsi sα = -1 si α est un réel strictement négatif.
11. a) Chacune des parties + et
- est stable par passage à l’inverse, addition, multiplication
par réel strictement positif. Il en résulte que f stabilise
+ comme
- ; si α est dans
+ ou dans
- , uα est bien définie. Pour que la suite uα ne soit pas définie, il faut que α ne soit ni dans
+ ni
- , donc que α soit imaginaire pur.
b) Revenons à la fonction g apparue dans 2) du préambule. Elle est une bijection de C \{-1} sur
C\ {1}, la bijection inverse étant g-1 : w. On a vu que le signe de |g(z)|- 1 est le même
que celui de Re (z). Une partition de C \{-1} est (
+,
-\{-1},
0) où
0 est la droite des
imaginaires purs. L’image par g de cette partition est (
,
ʹ,
0 \{1}) où
ʹ est le complémentaire
du disque fermé unité et
0 est le cercle trigonométrique.
En particulier g induit une bijection de + sur
et une bijection de
-\{-1} sur
ʹ.
Nous avons wl = g-1(β2l
). Si |β| < 1 (resp. > 1) alors la suite (β2l
) est à valeurs dans (resp.
ʹ) et est bien définie.
Pour z≠ 1 : f(g-1(z)) = =
= g-1(z2).
Si z = β2l alors z2 = β2l+1 ; ainsi f(wl) = wl+1.
Si |β| < 1 alors la suite (β2l ) tend vers 0 et la suite (wl) tend vers 1.
Si |β| > 1| alors on écrit : wl = , la suite (β-2l
) tend vers 0 et la suite (wl) tend vers
- 1.
c) Posons β = g(α). Selon que α est dans + ou dans
-, β est dans
ou
ʹ. Puis :
α = g-1 (β).
En utilisant la relation : f(g-1(z)) = g-1(z2), on montre par récurrence, partant de
u0 = α = g-1 (β) : un = g-1(β2n
). D’après b), la suite uα converge et si α est dans + (resp.
- alors sα = 1 (resp. - 1).
IV. tude des suites récurrentes de matrices : Ul+1 = (Ul + U
)
12. Dans ce qui suit on notera fl la puissance le de f au sens de la composition.
a) Notons λ1 , … , λn les valeurs propres de A comptées avec leurs multiplicités. On suppose que les
p premières sont dans + et les n-p dernières dans
-. Soit, pour tout i, ei un vecteur propre de
A selon la valeur propre λi. Notons Ω la matrice dont les colonnes sont les ei. Par construction :
Ω-1 AΩ = diag (λ1,…,λn).
Pour tout i, Aei = λiei ; puis : A-1ei = (1⁄λi)ei et (A + A-1)e
i = f(λi)ei.
De la même façon, par récurrence sur l, Ul est bien définie et :

b) La suite (fl (λi)) tend vers 1 pour 1 ≤ i ≤ p et - 1 pour p + 1 ≤ i ≤ n. Donc
(Ω-1 Ul Ω)l ) tend vers Diag(Ip,In-p). On en déduit (comme à la fin de II 7)) que (Ul)l tend vers
LA , où LA = ΩDiag(Ip,In-p)Ω-1.
La matrice LA est diagonalisable (dans la même base que A) et ses valeurs propres sont ± 1. C’est dire que (LA )2 = In.
c) La suite (Tr (Ul)) tend vers Tr(LA). Comme LA est semblable à Diag(Ip,-In-p), sa
trace est 2p - n. De plus (Tr(Ul) + Tr(U
)) n’est autre que Tr(Ul+1). La limite
demandée est donc 2p - n, où p est le nombre de valeurs propres de partie réelle strictement
positive.
13. a) On a U1 = (A + A-1). Cette définition est licite car 0 n’est pas valeur propre de
A.
Reprenons les notations de la solution de II 8).
Les notations Ti , Tʹi, Tʹʹi désignent certaines matrices triangulaires supérieures strictes.
On part de : Ω-1 AΩ = Diag(A1,A2,…,Ak), où Ai = αiIni + Ti. Puis :
Ω-1 AΩ = Diag (A,A
,…,A
), et Ω-1U
1Ω = Diag(U1,1,U1,2,…,U1,k), où pour tout i,
U1,i =
(Ai + A
).
De Ai = αi Ini + Ti, on tire A = (1⁄αi)Ini + Tʹi puis U1,i = f(αi)Ini + Tʹʹi.
Par récurrence sur l, la suite UA est bien définie, et, pour tout l :
Ω-1 Ul Ω = Diag (Ul,1,Ul,2,…,Ul,k) où pour tout i, Ul,i = fl(αi)Ini + Tl,i où Tl,i est
triangulaire supérieure stricte.
Les valeurs propres de Ul sont les images par fl des valeurs propres de A. Comme f stabilise + et
que A vérifie (P+), chaque Ul vérifie (P+).
b) Posons ici B = (A-In)(A + In)-1 ; cette définition est licite car - 1 n’est pas valeur propre de A. On peut inverser la relation : B -In = -2(A + In)-1. On voit que 1 n’est pas valeur propre de B ; B - In est inversible et A = 2(In - B)-1 - In = (In + B)(In - B)-1.
Soit β une valeur propre de B : Bv = βv pour un certain vecteur v non nul, puis Av = αv où
α = = g-1(β).
Il existe bien, pour toute valeur propre β de B, une valeur propre α de A telle que β = g(α). (Les notations α et β de l’énoncé ont été inversées ici).
c) Posons Wl = (Ul - In)(Ul + In)-1.
La matrice Ul - In commute avec Ul + In et aussi (Ul + In)-1 ; on peut donc écrire :
W = (Ul - In )2(Ul + In)-2.
D’autre part : Wl+1 = (Ul+1 - In)(Ul+1 + In)-1.
Or : Ul+1 -In = (Ul-In)2U et Ul+1 +In = (Ul+In)2U
, puis (Ul+1 +In)-1 = U
l(Ul+In)-2.
Enfin : Wl+1 = (Ul - In)2(Ul + In)-2 = W
.
Comme W0 = B, il vient : Wl = B2l .
d) On a vu en b) que toute valeur propre de B est du type g(α) où α est une valeur propre de A.
Comme Sp A est inclus dans +, SpB est inclus dans
. D’après II 8), B2l
tend vers 0 quand l
tend vers + ∞.
e) Comme cela a été fait pour A en fonction de B, on écrit : Ul = 2(In - Wl)-1 - In.
De c) et d) on déduit : (Wl) tend vers 0.
L’application MM-1 de GLn(C) dans
n(C) est continue : en effet les coefficients de M-1
sont des fonctions rationnelles, bien définies sur GLn(C), des coefficients de M. Il en résulte que
Ul tend vers In quand l tend vers + ∞.
Ainsi lorsque A vérifie (P+), la suite UA converge et LA = In.
14. La matrice -A vérifie (P+) et U-A = -UA. On déduit de cette remarque et de 13) que si A vérifie (P-) alors UA converge et LA = -In.
15. a) On reprend à nouveau les notations de II 8) mais on suppose de plus que les Ei ont été
ordonnés de telle façon que les h premiers soient associés à des valeurs propres situées dans + et
les k - h derniers à des valeurs propres situées dans
-. On note F = E1 +
+ Eh et
G = Eh+1 +
+ Ek.
Ainsi Ω-1 AΩ = Diag(C,D) où C (resp. D) vérifie (P+) (resp. (P-)).
b) D’après 13) et 14), les suites UC et UD sont bien définies et tendent respectivement vers Ip et In-p où p est la dimension de F et n - p celle de G. Il en résulte que UA est bien définie et que LA = ΩDiag (Ip ,In-p)Ω-1. Les valeurs propres de LA sont 1 et - 1 avec pour multiplicités respectives p et n - p, où p (resp. n - p) est le nombre de valeurs propres de A de partie réelle strictement positive (resp. strictement négative).
V. Une méthode itérative conduisant au calcul de
16. Lister les valeurs propres d’une matrice M de n(C) et leurs multiplicités revient à calculer
χM , le polynôme caractéristique unitaire : χM(z) = det(zIn - M).
Exprimons χB à l’aide de χA.
On part de : zI2n - B = .
Multiplions à gauche par U = puis par V =
.
Il vient : V U(zI2n - B) = .
Le déterminant de V est (-1)nε où ε est la signature du produit des n transpositions [n + i,i]
pour 1 ≤ i ≤ n : detV = 1. Les formes triangulaires par blocs donnent detU = 1 et
= det(z2In - A). On a montré : χB(z) = χA(z2).
Les valeurs propres de A sont α1,α2,…,αk les valeurs propres de A, avec pour ordres de
multiplicités n1 , n2,…,nk. Ainsi : χB(z) = (z2 - αi)ni.
Chaque αi est dans C \ R- ; en appliquant la définition de la racine carrée définie sans ambiguïté dans 1), on obtient :

Les 2k nombres complexes ± sont distincts (deux d’entres eux sont opposés ou ont des carrés
distincts). Les valeurs propres de B sont, pour i = 1,2,…,k, ±
avec ni pour ordre de
multiplicité.
17. Pour tout i, est dans
+ et -
est dans
-. La matrice B vérifie (P) puisqu’elle ne
possède aucune valeur propre imaginaire pure. Les conclusions de la partie IV s’appliquent : la
suite UB converge et, puisqu’il y a autant de valeurs propres de B dans
- que dans
+, LB est
semblable à Diag(In,-In).
18. Commençons par deux préliminaires.
- Notons C [A] la sous-algèbre de
n(C) engendrée par A, ou algèbre de A ; ses éléments sont les R(A) où R est un polynôme complexe. Cette algèbre est de dimension finie et commutative. Notons C[A]* l’ensemble des Y de C[A] qui sont inversibles dans
n(C).
Montrons que si Y est dans C[A]* alors Y -1 est dans C[A]. En effet l’application M
Y M est linéaire et injective et stabilise C[A] ; comme C[A] est de dimension finie, elle induit une bijection de C[A] sur C[A] et il existe Z dans C[A] telle que Y Z = In : Z n’est autre que Y -1.
- Soit M une matrice du type
où M1 et M2 sont dans
n(C). Posons Jn =
. La matrice Jn est inversible, son carré étant I2n. On a MJn = Diag(M1 , M2). Ainsi M est inversible si et seulement si M1 et M2 sont inversibles. Dans ce cas (MJn)-1 = Diag(M
,M
), puis M-1 = J nDiag(M
,M
) =
.
Soit Y dans C [A]*. Posons U = .
Les matrices Y et AY sont dans C[A]*. La matrice U est inversible et
U-1 = . Posons W = (AY )-1 ; avec la commutativité dans C[A]*,
W = A-1 Y -1 , et U-1 =
.
On déduit de ce calcul : (U + U-1) = V où V =
, avec Z =
(Y + A-1Y -1).
Ainsi, par récurrence sur l, on voit que les termes de la suite UB s’écrivent Ul = , où
la suite (Y l ) est donnée par :
Y 0 = In ; puis, pour tout l de N, Y l+1 = (Y l + A-1Y
).
Tous les Y l sont dans l’algèbre de A.
19. On sait que la suite UB converge. Il en résulte que la suite (Y l) converge et notons L sa limite.
Ainsi LB = . Comme C[A] est un sous-espace vectoriel d’un espace vectoriel de
dimension finie, il est fermé ; les Y l sont tous dans C[A] ; donc L est dans C[A]. En particulier
LA = AL.
20. Plusieurs étapes dans cette question.
- (i) La matrice L est inversible et L-1 est un élément de l’algèbre de A dont le carré
est A. En effet, d’après IV 15), vu que B vérifie (P), LB est une matrice semblable
à une matrice diagonale dont les valeurs propres sont 1 et - 1. Ainsi L
= In. Or (LB )2 =
; donc AL2 = In. Ainsi L est inversible ; L2 = A-1 puis (L-1 )2 = A. Comme L est dans C[A]*, L-1 est dans C[A].
- (ii) On doit montrer que L-1 vérifie (P+).
Ceci passe par la réduction simultanée des Y l. Il existe un polynôme Rl tel que Y l = Rl (A).
Dans ce qui suit les notation Tx, Tʹx, Sx, Sʹx désignent des matrices triangulaires supérieures strictes.
Avec les notations de II 8) : Ω-1Y lΩ = Diag(Rl(A1),…,Rl(Ak)). Comme Ai = αi Ini + Ti , Rl(Ai) = R(αi)Ini + Tʹi.
Ainsi : Ω-1Y lΩ = Diag(Y l,1,…,Y l,k) où pour tout i, Y l,i = λl,iIni + Tʹl,i, pour certains complexes λl,i. Les λl,i sont toutes les valeurs propres de Y l.
D’après la définition par récurrence établie dans 18), Y 0,i = Ini, puis Y l+1,i =
(Y l,i+A
Y
). Ceci se traduit en particulier par :
λi,0 = 1 ; pour tout l de N, λi,l+1 =
.
Posons pour tous i,l : μi,l =
λi,l. La suite (μi,l)l est donnée par :
μi,0 =
; puis, pour tout l de N, μi,l+1 = f(μi,l).
Comme
est dans
+, d’après III 11c), la suite (μ i,l)l tend vers 1.
Donc la suite (λ
)l tend vers 1⁄
.
Il en résulte : Ω-1LΩ = Diag(Lʹ1,…,Lʹk) où Lʹi = (1⁄
)Ini + Sʹi. Puis : Ω-1 L-1 Ω = Diag(Rl(L1),…,Rl(Lk)) où Li = (
Ini + Si). Les valeurs propres de L-1 sont les
et sont bien dans
+.
Ainsi L-1 est dans l’algèbre de A, de carré A et vérifie (P+).
- (iii) On montre à présent que L-1 est la seule matrice vérifiant (P+) et dont le carré est
A.
Soit donc M une telle matrice. Comme M2 = A elle commute avec A ; de ce fait elle stabilise KerR(A) pour tout polynôme R et en particulier chacun des Ei. Ainsi Ω-1 MΩ = Diag(M1,…,Mk) où pour tout i, Mi est une matrice carrée d’ordre ni dont le carré est αi Ini + Ni. Toute valeur propre de Mi a pour carré αi mais c’est une valeur propre de M ; comme M vérifie (P+), cette valeur propre est
. Ainsi Mi possède
comme unique valeur propre ; donc Mi =
Ini + Hi où Hi est nilpotente. La matrice Hi doit vérifier : 2
Hi + H
= Ti.
Il reste à résoudre le problème suivant : dans
m(C) soit T une matrice nilpotente, il existe une seule matrice H nilpotente telle que H + H2 = T . On appliquera ceci à m = ni, H = 1⁄(2
)Hi et T = 1⁄(4αi)Ti.
D’abord Hm = Tm = 0. Soit q un entier compris entre 1 et m- 1. On a : Hq(In + H)q = Tq ; ceci se réécrit : Hq = Tq -
(q i) Hq+i. En particulier Hm-1 = Tm-1. Supposons acquis, pour q + 1 ≤ i ≤ m - 1, Hi = TiRi(T) où Ri est un polynôme. Alors Hq = Tq Rq(T), où Rq = 1 -
(q i) Rq+i. Ainsi, avec la récurrence descendante, on prouve l’existence d’un polynôme R tel que H = TR(T). Ce polynôme R est R1, où (Rq) est la suite telle que Rm-1 = 1, puis Rq = 1 - qRq+i -
-( q m-q-1) Rm-1. La définition de R dépend de la taille m mais pas de T . Il y a donc unicité de H.
On a montré, pour le problème considéré, l’unicité des matrices Mi, puis celle de M.
21. Notons n (resp.
n) l’ensemble des matrices symétriques réelles (resp. hermitiennes) d’ordre
n. Ces deux ensembles sont des R-sous-espaces vectoriels de
n(C). De plus si M et H sont dans
n (resp.
n ) et commutent, alors MH est dans
n (resp.
n) ; si M est inversible et dans
n
(resp.
n ), il en est de même de M-1.
Soit A une matrice hermitienne définie positive. Comme ses valeurs propres sont des réels
strictement positifs, elle vérifie (Q) ; l’existence de au sens de 20) est assurée ; ses valeurs
propres sont de partie réelle strictement positive.
L’inverse L de est la limite de la suite (Y l)l construite dans 18).
La matrice Y 0 , qui est In, est hermitienne. Supposons Y l hermitienne ; alors, puisque Y l commute avec A, AY l est hermitienne ; l’inverse de AY l aussi ; la demi-somme de Y l et de (AY l )-1 aussi et Y l+1 est hermitienne. On a ainsi établi par récurrence que tous les Y l sont hermitiennes.
Comme n est un sous-R-espace vectoriel d’un espace vectoriel de dimension finie, la limite L
de (Y l ) est hermitienne ; son inverse aussi ; les valeurs propres sont à la fois réelles
et dans
+ : elles sont réelles strictement positives donc
est hermitienne définie
positive.
On peut dans tout ce qui précède remplacer ≪ hermitienne ≫ par ≪ symétrique réelle ≫. Donc si A
est symétrique réelle définie positive, il en est de même de .
VI. Projection orthogonale sur le groupe orthogonal
L’espace R n est euclidien, le produit scalaire étant donné par : (x|y) = t xy.
L’espace n (R ) est euclidien, le produit scalaire étant donné par :
< M, L > = Trt ML.
22. Les matrices P de n(R) sont celle qui vérifient t PP = In. La matrice In est orthogonale ;
n (R ) n’est donc pas vide.
Toute matrice orthogonale vérifie < P,P > = n ; étant inclus dans la sphère de centre 0 et de
rayon ,
n(R) est borné.
L’application Pt PP est continue :
n(R), l’image réciproque d’un singleton par cette
application, est fermé.
Ainsi n (R ) est un compact non vide.
23. Dans un espace métrique (E,d), K étant un compact non vide et a un point, il existe au moins
b de K qui minimise xd(a,x);x
K. On applique pour cela le principe du minimum à la
fonction x
d(a,x) (qui est continue).
Ici l’application (M,L) est la distance (euclidienne) dans
n(R) et
n(R) est un
compact non vide. Minimiser
revient à minimiser N(M - L). Il y a bien existence
de P0 dans
n (R ) tel que N(M - P0) ≤ N(M - P) pour toute matrice orthogonale
P.
24. Les équivalences entre elles des trois assertions se déduisent des égalités :
N(M - P) - N(M - P0) = 2(< P0,M > - < P,M >) = N(M + P0) - N(M + P).
Ainsi minimiser PN(M - P) revient à maximiser P
< M,P >.
25. La matrice M est orthogonalement semblable à une matrice D diagonale à éléments strictement positifs. Résolvons d’abord le problème pour une telle matrice D.
Pour toute matrice orthogonale P , < P,D > = P[i,i]D[i,i]. Tous les P[i,i] sont majorés
par 1, donc < P, D > ≤ < In,D >. L’égalité revient à : P[i,i] = 1 pour tout i ce qui force
P[i, j] = 0 pour tous i≠j (puisque la somme
P[i,j]2 vaut 1). Ainsi In est la seule matrice
orthogonale maximisant P
< P,D >.
On utilisera dans la suite une propriété d’invariance de < A,B > par multiplication par une matrice orthogonale Q à gauche ou à droite : < QA,QB > = < AQ,BQ > = < A,B >.
Preuve directe : < QA,QB >= Tr(tAt QQB >=< A,B > car t QQ = In ; < AQ, BQ >= Tr(t QABQ) = Tr(Qt QAB) =< A,B > car Qt Q = In.
Revenons à la matrice initiale M. Il existe une matrice orthogonale Q telle que M = QDt Q où D est diagonale à éléments strictement positifs.
Pour tout matrice orthogonale P :
< P, M > =< P,QDt Q > = < t QP,Dt Q > = < t QPQ,D > = < R,D > où R est la matrice t QPQ, qui est orthogonale.
Ainsi < P, M > ≤ < In,D > avec égalité si et seulement si t QPQ = In ; ceci revient à P = In . De plus < In,D > = Tr(D) = Tr(M) = < In,M >.
Ainsi In est la seule matrice orthogonale maximisant PTr(t PM).
26. On note (Ei,j) la base canonique de n(R). La matrice M est telle que
< P, M > ≤ < In,M > pour toute matrice orthogonale P .
a) Une matrice de rotation plane s’écrit, pour certains indices u,v distincts,
P = In - (1 - cosθ)(Eu,u + Ev,v) + sinθ(Ev,u - Eu,v).
On en tire :
< P, M > - < In,M >= sinθ(M[v,u] - M[u,v]) - (1 - cosθ)(M[u,u] + M[v,v]).
Si M n’est pas symétrique, il existe u,v distincts tels que M[v,u] -M[u,v] est strictement positif.
Le second membre de l’égalité est une fonction de θ qui est nulle en 0 et dont la dérivée en 0 est
M[v, u] - M[u, v]. Il existe donc θ > 0 assez petit pour que
< P, M > - < In,M > soit strictement positif. Ainsi M est symétrique.
b) (i) Pour tout x tel que (v|x) = 0, Pv(x) = 0 ; de plus Pv(v) = v - 2v = -v car t vv = (v|v) = 1. Ainsi Pv est orthogonale puisque c’est la symétrie par rapport à l’hyperplan orthogonal de v.
(ii) Calculons : < Pv,M > = < In,M > -2 < vt v,M >. Or < vt v, M > = Tr(vt vM) = Tr(t vMv) = (v|Mv) (la trace d’un scalaire lui est égale).
Ainsi < In , M > - < Pv,M >= 2(v|Mv).
c) Comme < P,M > ≤ < In,M > pour toute P orthogonale, (v|Mv) ≥ 0 pour tout vecteur unitaire v ; on en déduit (x|Mx) ≥ 0 pour tout vecteur x. Ainsi M est positive.
d) Soit v non nul tel que Mv = 0. Quitte à faire une homothétie sur v, on peut le supposer unitaire.
Alors < In , M > = < Pv,M > ; In n’est donc pas la seule matrice orthogonale
maximisant P < P,M >. Par contraposition M est symétrique et inversible donc définie
positive.
27. a) La matrice M étant inversible, t MM est symétrique réelle définie positive ; d’après 21),
est une matrice symétrique réelle définie positive que l’on note H. Posons Q0 = MH-1.
Calculons : t Q0 Q0 = H-1t MMH-1 = H-1H2H-1 = In. On vient de montrer que Q0 est
orthogonale.
b) Pour une matrice orthogonale Q :
< Q, M > = < t Q0Q,t Q0M > = < t Q0Q,H >.
Mais H est symétrique réelle définie positive et t Q0Q est orthogonale, donc
< Q, M > ≤ < In,H > avec égalité si et seulement si t Q0Q = In, soit Q = Q0.
On a montré l’unicité du projeté orthogonal de M sur n(R), ce projeté étant M(
)-1.
28. Soit v un vecteur unitaire. L’identité < In,M > - < Pv,M > = 2(v|Mv) vue en 26b) pour M symétrique est en fait vraie pour toute matrice.
Comme M n’est pas inversible, il existe v unitaire tel que Mv = 0.
Soit P0 une matrice maximisant < P,M > sur l’ensemble des matrices orthogonales.
On transforme : < P0 , M > = < In,t P0M > = < Pv,t P0M > +2(v|tP0Mv) = < Pv,t P0M > = < P0Pv,M >.
Ainsi P0 Pv est une autre matrice orthogonale qui minimise la distance de M au groupe orthogonal.
Il y a toujours unicité de la projection orthogonale de M sur (n, R) quand M est inversible, jamais
quand elle ne l’est pas.
VII. Projection orthogonale sur le groupe unitaire
Le préambule qui suit n’a aucune utilité pour la résolution de cette partie ; il ne fait que renseigner
sur la démarche. L’espace vectoriel complexe (n, C) est muni du produit hermitien donné
par < A, B > = Tr(A*B). La distance hermitienne entre les matrices A et B est
. Le groupe unitaire
(n, C) est un compact non vide. Pour tout M de
(n, C) il
existe au moins une matrice unitaire V 0 qui minimise V
N(M - V ) sur
(n, C). Mais
N(M - V ) - N(M -V 0) = 2Re(< V 0,M >) - 2Re(< V,M >). Il revient au même de dire
que V 0 maximise V
Re(< V,M >).
29. La matrice tA0 est antihermitienne : (tA0)* = -tA0. Pour toute matrice carrée complexe M, (eM )* = eM* ; eM est inversible, son inverse étant e-M. On déduit de tout ceci : (etA0 )* = (etA0 )-1. C’est dire que etA0 est une matrice unitaire.
Comme V 0 est unitaire, γ(t) = V 0etA0 est unitaire pour tout t.
Pour toute M, tetM est indéfiniment dérivable, sa dérivée étant t
MetM.
On en déduit que γ est indéfiniment dérivable, et γ(p)(0) = V 0A pour tout entier naturel
p.
30. On aura besoin pour b) de précisions sur les matrices hermitiennes et antihermitiennes. Tout
d’abord A est antihermitienne si et seulement si A = iH où H est hermitienne. D’autre part toute
matrice carrée complexe M se décompose de façon unique H + A où H est hermitienne et A
antihermitienne : H = (M + M*) ; A =
(M - M*). En réunissant ces deux résultats
on voit que M se décompose de façon unique : M = H1 + iH2 où H1 et H2 sont
hermitiennes.
Pour toutes matrices H1 et H2 hermitiennes d’ordre n, < H1,H2 > est un nombre réel ; en effet < H1 , H2 > = < H2,H1 > et dans ce cas < H1,H2 > = Tr(H1H2) = Tr(H2H1).
a) Avec les notations de 29), nécessairement : tη(γ(t)) se maximise en 0 ; il y présente donc
un maximum local. Toujours nécessairement : (η • γ)ʹ(0)) = 0 et (η • γ)ʹʹ(0)) ≤ 0.
Comme η est linéaire, η(γʹ(0)) = 0 et η(γʹʹ(0)) ≤ 0. Ainsi Re(< M,V 0A0 >) = 0 et
Re(< M, V 0 A
>) ≤ 0. Ce sont les relations i) et ii) annoncées.
b) Notons L la matrice V M. Produit de deux matrices inversibles, L est inversible.
On a < M, V 0 K > = < L,K > pour toute matrice K de n(C).
D’après a) : Re (< L,A >) = 0 et Re(< L,A2 >) ≤ 0 pour toute matrice antihermitienne A. Cela revient à : Im(< L,H >) = 0 et Re(< L,H2 >) ≥ 0 pour toute matrice hermitienne H.
Décomposons : L = H1 + iH2 où H1 et H2 sont hermitiennes. Les conditions précédentes deviennent, avec la réalité de < K,Kʹ > quand K et Kʹ sont hermitiennes : < H2,H > = 0 et < H1 , H2 > ≥ 0 pour toute H hermitienne.
En choisissant H = H2 il vient < H2,H2 > = 0 donc H2 = 0. Ainsi L = H1 : L est hermitienne.
Soit u un vecteur unitaire. La matrice uu* est une matrice hermitienne H qui représente la projection orthogonale sur Cu car uu*x = 0 si u*x = 0 (i.e. x est orthogonal à u) et uu*u = u. En particulier H2 = H.
Par conséquent, pour tout u unitaire, < L,uu* > ≥ 0.
Or < L, uu* > = Tr(Luu*) = Tr(u*Lu) = u*Lu. Dans le cas particulier d’un vecteur propre unitaire u, u* Lu est la valeur propre associée à u. Ainsi toute valeur propre de L est positive et L est hermitienne positive.
On a supposé M inversible ; on en déduit que L est inversible. Finalement L est définie positive. Ainsi M = V 0 L où L est hermitienne définie positive.
31. Gardons les notations de 30b). Nécessairement M*M = LV V 0L = L2. Comme L est
hermitienne définie positive, la seule possibilité est L =
et V 0 = M(
)-1.
Le problème d’unicité est résolu. Le problème d’existence se résout en remarquant qu’il s’agit de la
distance d’un point à un compact non vide dans un espace métrique, le compact en question étant
U(n, C ).
[Table des matières]