© Éditions H&K
X/ENS Maths PC 2020 -- Corrigé
Ce corrigé est proposé par Quentin Guilmant (ENS de Lyon) ; il a été relu par
Angèle Niclas (ENS de Lyon) et Benjamin Monmege (enseignant-chercheur à
l'université).
Ce sujet propose l'étude d'une méthode d'interpolation, différente de celle
habituellement rencontrée en classe préparatoire utilisant les polynômes de
Lagrange.
La construction est nettement plus technique et fait l'objet de cinq parties.
L'énoncé
prend (gentiment) la peine de préciser que les parties I et II sont
indépendantes des
parties III et IV, tandis que la partie V utilise tout ce qui précède.
· Dans la partie I, on commence par étudier l'espace Sym+ (p) des matrice
symétriques réelles positives de taille p. Le but de cette partie est
principalement de
montrer que l'ensemble de ces matrices est stable par le produit de Hadamard
qui consiste, contrairement au produit matriciel usuel, à effectuer un produit
coefficient par coefficient.
· La partie II poursuit sur cette lancée en démontrant que l'exponentielle d'une
matrice symétrique positive reste symétrique positive. On en déduit en toute fin
2
de partie qu'une matrice de la forme (e-(xi -xj ) /2 )i,j[[ 1 ; p ]] où les (xi
)i[[ 1 ; p ]]
sont des réels quelconques et > 0, est un élément de Sym+ (p), ce qui est en
fait l'objectif visé par ces deux premières parties.
· La partie III introduit l'espace vectoriel E des fonctions à décroissance
rapide
en +
- . On étudie notamment sa structure euclidienne et un endomorphisme C,
à base de convolution, dont l'utilité est encore à ce stade un peu obscure.
· En partie IV, on s'intéresse au sous-espace vectoriel G de E engendré par les
translations et les dilatations de la fonction gaussienne x 7- exp(-x2 ). On en
profite pour définir un produit scalaire spécifique sur l'image H de G par
l'endomorphisme C de la partie précédente.
· C'est dans la partie V que la notion d'interpolation fait surface. Les
éléments de
l'ensemble H de la partie précédente prennent maintenant le nom de fonctions
interpolantes. C'est parmi ces fonctions que l'on cherche, pour deux p-uplets
fixés (xi )i[[ 1 ; p ]] et (ai )i[[ 1 ; p ]] , un élément h de norme minimale
qui prend la
valeur i en xi pour tout i (les (xi )i[[ 1 ; p ]] étant bien entendu supposés
deux à
deux distincts). On montre notamment qu'un tel élément existe et est unique.
Le sujet permettait de vérifier que les candidats maîtrisaient l'algèbre
linéaire, en
particulier l'inégalité de Cauchy-Schwarz afin d'établir des majorations. Les
questions
portant sur l'intégrabilité des fonctions sur R sont également omniprésentes.
© Éditions H&K
Indications
Partie I
3.c On pensera à utiliser le théorème spectral sur A et sur B.
Partie II
4.b Montrer par récurrence que pour tout k N, on a A(k) Sym+ (p).
6.c Trouver une matrice B et un vecteur v tels que K = exp[B]
appliquer la question 5.c.
vv T pour
Partie III
7 Utiliser la définition de E pour majorer |f g| par une fonction intégrable
sur R.
8.b Fixer > 0 et trouver µ > 0 tel que pour tout
y R r ] x - ; x + [ on ait la
majoration exp -(y - x)2 / 6 exp -y 2 /µ . Pour y [ x - ; x + ], on peut
se rendre compte qu'au voisinage de x, la fonction y 7 exp -y 2 /µ admet un
minimum strictement positif.
Partie IV
11.a Utiliser l'indication puis le changement de variable z = y - (x + x0 )/2.
12.a Pour l'hérédité, penser à dériver la fonction et remarquer que l'on peut
simplifier
l'écriture.
12.b Ne surtout pas conclure trop vite en affirmant que C envoie une base sur
une
base. Les espaces sont de dimensions infinies.
13.c Remarquer que khk est atteinte en un certain x. Utiliser la question 13.b
sur
ce x, puis appliquer l'inégalité de Cauchy-Schwarz. Enfin, calculer kx (2 )kH .
Partie V
14 Pour h1 et h2 deux éléments de S , poser h3 = (h1 + h2 )/2. Majorer J(h3 ) à
l'aide de l'inégalité de Cauchy-Schwarz.
15 Faire un raisonnement par l'absurde en supposant qu'il existe h0 H0 tel
que (h0 | e
h)H > 0. Ensuite, étudier le polynôme P(a) = J(e
h - ah0 ).
16.a Étudier la différence entre un élément de S H0 et un élément de S.
17.b Prendre u Ker K et étudier uT Ku.
Publié dans les Annales des Concours
© Éditions H&K
Partie I
+
1 Prenons A, B Sym (p). Alors pour a et b des réels positifs, et pour tout
couple (i, j) [[ 1 ; p ]]2 ,
(aA + bB)ij =
=
=
(aA + bB)ij =
aAij + bBij
a AT ij + b BT ij (matrices symétriques)
aAji + bBji
(aA + bB)ji
Autrement dit,
(aA + bB)T = aA + bB
c'est-à-dire que la matrice est symétrique. De plus, pour u Rp ,
T
uT (aA + bB)u = |{z}
a u
Au} + |{z}
b |uT{zBu} > 0
| {z
>0
Finalement,
a, b R+
>0
A, B Sym+ (p)
>0
>0
aA + bB Sym+ (p)
2 Utilisons l'identité sur la transposée d'un produit matriciel :
M Mp,q (R) N Mq,r (R)
(MN)T = NT MT
où p, q, r sont des entiers naturels. Pour v Rp et A = vv T ,
T
T
AT = vv T = v T v T = vv T = A
De plus, pour u Rp ,
Puis,
uT Au =
=
=
=
T
u Au >
v Rp
uT vv T u
(v T u)T (v T u)
(v T u)(v T u)
(v T u)2
0
(car v T u R)
vv T Sym+ (p)
3.a Soient u, v deux vecteurs de Rp et (i, j) [[ 1 ; p ]]2 . Alors
uuT
vv T ij = ui uj vi vj
= (ui vi )(uj vj )
[1mm]
= (u v)i (u v)j
vv T ij = (u v)(u v)T ij
uuT
d'où
uuT
vv T = (u
v)(u
v)T
3.b La matrice A est symétrique réelle. Le théorème spectral assure que A est
diagonalisable en base orthonormée. Soit (u1 , . . . , up ) le p-uplet de
vecteurs propres
de A formant une famille orthonormale. Soit P la matrice de changement de base
de
la base canonique dans cette nouvelle base. On a alors
A = PDPT
où D est la matrice diagonale dont les coefficients sont les 1 , . . . , p ,
les valeurs
propres associées. La matrice P a pour colonnes les vecteurs u1 , . . . , up et
PT a pour
lignes leurs transposés, les vecteurs u1 T , . . . , up T . Par suite,
A=
p
P
k uk uk T
i=1
Publié dans les Annales des Concours
© Éditions H&K
0 6 uk T Auk = k uk T uk = k kuk k2
k [[ 1 ; p ]]
De plus,
k [[ 1 ; p ]]
Puis,
2
k > 0
3.c Soient A, B Sym+ (p). En appliquant le théorème spectral, A et B sont
diagonalisables en base orthonormée. Soient donc (1 , . . . , p ) et (µ1 , . .
. , µp ) les valeurs propres respectivement de A et B. D'après la question 3.b,
elles sont positives
(ou nulles). Soient aussi (u1 , . . . , up ) et (v1 , . . . , vp ) des bases
orthonormées de vecteurs propres associées. Alors, d'après la question 3.b,
p
p
P
P
A=
k uk uk T
et
B=
µ` v` v` T
k=1
`=1
L'opération étant la multiplication coefficient à coefficient, elle hérite des
propriétés
algébriques de la multiplication usuelle sur les réels. En particulier, elle
est bilinéaire.
En utilisant cette propriété, on a
p
p
P
P
T
T
A B=
k uk uk
µ` v` v`
k=1
A
=
p
P
=
k=1
p P
p
P
B=
k=1`=1
p P
p
P
`=1
k uk uk
T
p
P
µ` v` v` T
`=1
k µ` uk uk
k µ` (uk
T
v` v` T
v` )(uk
v` )T
(question 3.a)
k=1`=1
D'après la question 2, pour tout (k, `) [[ 1 ; p ]]2 , on a (uk v` )(uk v` )T
Sym+ (p).
De plus, les valeurs propres étant positives, on a aussi k µ` > 0. Or, en
utilisant la
question 1, on obtient par récurrence immédiate que toute combinaison linéaire,
avec
coefficients positifs, de matrices de Sym+ (p) est encore dans Sym+ (p).
Formellement,
p
P
n N a1 , . . . , an R+ A1 , . . . , An Sym+ (p)
ak Ak Sym+ (p)
k=1
+
B Sym (p)
A
Par suite, on en déduit que
Partie II
2
4.a Soit (i, j) [[ 1 ; p ]] . Remarquons d'abord que pour tout entier k,
(0)
Aij = 1
(k+1)
Aij
(k)
= Aij Aij
On identifie une suite géométrique. On connaît donc son terme général :
k N
Puis,
P[A]ij = P(Aij ) =
n
P
(k)
Aij = (Aij )
k
ak (Aij ) =
k=0
Autrement dit,
n
P
(k)
ak Aij
k=0
P[A] =
n
P
k
=
n
P
k=0
ak A(k)
k=0
ak A
(k)
ij