ea - formes bilineaires formes …gerard.eguether/zarticle/ea.pdfea - formes bilineaires formes...

29
EA - FORMES BILINEAIRES FORMES QUADRATIQUES PRODUITS SCALAIRES I - Espaces vectoriels sur R Dans ce qui suit, E désigne un espace vectoriel sur R. Si E est de dimension finie, on notera p sa dimension. On désigne par f une application de E × E dans R et par Q l’application de E dans R définie par Q(x)= f (x, x) . Définition 1 L’application f est appelée forme bilinéaire, si, pour tout y fixé de E, l’application qui à x associe f (x, y) est linéaire, et si, pour tout x fixé dans E, l’application qui à y associe f (x, y) est linéaire. Ces deux conditions se traduisent donc par quels que soient x, x , y, y dans E, λ et μ dans R f (λx + μx ,y)= λf (x, y)+ μf (x ,y) f (x, λy + μy )= λf (x, y)+ μf (x, y ) . Remarque : si f est bilinéaire, on a, quels que soient x, y, dans E et λ dans R f (0,y)= f (x, 0) = Q(0, 0) = 0 , Q(λx)= λ 2 Q(x) . Q(x + y)= Q(x)+ f (x, y)+ f (y,x)+ Q(y) . Définition 2 Une forme bilinéaire f est dite symétrique, si, quels que soient x et y dans E, f (x, y)= f (y,x) . Dans ce cas, l’application Q est appelée forme quadratique associée à f . Remarque : pour montrer que f est bilinéaire symétrique, il suffira donc, de démontrer la symétrie, et la linéarité par rapport à une des deux variables.

Upload: others

Post on 09-Jan-2020

14 views

Category:

Documents


0 download

TRANSCRIPT

EA - FORMES BILINEAIRES

FORMES QUADRATIQUES

PRODUITS SCALAIRES

I - Espaces vectoriels sur R

Dans ce qui suit, E désigne un espace vectoriel sur R. Si E est de dimension finie, on notera p sadimension. On désigne par f une application de E × E dans R et par Q l’application de E dans R

définie par

Q(x) = f(x, x) .

Définition 1 L’application f est appelée forme bilinéaire, si, pour tout y fixé de E, l’applicationqui à x associe f(x, y) est linéaire, et si, pour tout x fixé dans E, l’application qui à y associe f(x, y)est linéaire.

Ces deux conditions se traduisent donc parquels que soient x, x′, y, y′ dans E, λ et µ dans R

f(λx + µx′, y) = λf(x, y) + µf(x′, y)

f(x, λy + µy′) = λf(x, y) + µf(x, y′) .

Remarque : si f est bilinéaire, on a, quels que soient x, y, dans E et λ dans R

f(0, y) = f(x, 0) = Q(0, 0) = 0 ,

Q(λx) = λ2Q(x) .

Q(x + y) = Q(x) + f(x, y) + f(y, x) + Q(y) .

Définition 2 Une forme bilinéaire f est dite symétrique, si, quels que soient x et y dans E,

f(x, y) = f(y, x) .

Dans ce cas, l’application Q est appelée forme quadratique associée à f .

Remarque : pour montrer que f est bilinéaire symétrique, il suffira donc, de démontrer la symétrie,et la linéarité par rapport à une des deux variables.

EA 2

Matrice d’une forme bilinéaire

Si l’espace E est de dimension finie, soit

B = (e1, .., ep)

une base de E. Posons

x =

p∑

i=1

xi ei et y =

p∑

i=1

yi ei .

Si f est bilinéaire, on obtient alors

f(x, y) =∑

1≤i,j≤p

xi yjf(ei, ej) .

La forme bilinéaire f est donc entièrement déterminée par les nombres réels f(ei, ej).

Inversement, si l’on se donne p2 nombres réels aij et si l’on pose

f(x, y) =∑

1≤i,j≤p

xi yj aij ,

on définit une forme bilinéaire sur E. La matrice

A =[

aij

]

1≤i,j≤p

est alors appelée matrice de la forme bilinéaire f dans la base B.

Le nombre réel f(x, y) peut se confondre avec une matrice carrée d’ordre 1. Alors, si X et Y sont lesvecteurs colonnes

X =

x1...

xp

et Y =

y1...yp

,

on auraf(x, y) = tX.A.Y .

Dire que la forme bilinéaire f est symétrique revient à dire, que, quels que soient les indices i et j

f(ei, ej) = f(ej , ei) ,

c’est-à-dire que la matrice A de f est une matrice symétrique. Dans ce cas

f(x, y) =

p∑

i=1

xi yif(ei, ei) +∑

1≤i<j≤p

(xi yj + xj yi)f(ei, ej) ,

et

Q(x) =

p∑

i=1

x2i f(ei, ei) + 2

1≤i<j≤p

xi xjf(ei, ej) .

On a doncf(x, y) = tX.A.Y = tY.A.X .

EA 3

Changement de bases

Soit B = (e1, . . . , ep) et B′ = (e′1, . . . , e′p) deux bases de E. Soit P la matrice dont les vecteurs colonnes

sont les vecteurs de B′ décomposés dans B, (matrice de passage). Si X et Y sont les vecteurs colonnesdes coordonnées de x et y dans B, et X ′ et Y ′ celles dans B′, on a donc

X = P.X ′ et Y = P.Y ′ .

Soit A la matrice de f dans B. On a

f(x, y) = tX.A.Y

= t(P.X ′).A.(P.Y ′)

= tX ′.( tP.A.P ).Y ′ ,

et il en résulte que la matrice A′ de f dans B′ est

A′ = tP.A.P .

C’est la formule de changement de bases, qu’il ne faut pas confondre avec celle obtenue pour les matricesd’application linéaire

A′ = P−1.A.P .

Remarques

1) On peut retrouver la forme bilinéaire f à partir de la forme quadratique Q grâce à une des deuxformules suivantes :

f(x, y) =1

2(Q(x + y) − Q(x) − Q(y)) ,

(identité de polarisation), et

f(x, y) =1

4(Q(x + y) − Q(x − y)) .

2) Si E est de dimension finie, et si l’on a

Q(x) =

p∑

i=1

aii x2i + 2

1≤i<j≤p

aij xi xj ,

il ne faut pas oublier de diviser par 2 les éléments non diagonaux pour obtenir la matrice de f

A =

a11a12

2 . . .a1p

2. . .

. . .ap1

2ap2

2 app

EA 4

Vecteurs orthogonaux pour une forme bilinéaire symétrique f

Définition 3 Deux vecteurs x et y sont dits orthogonaux pour f si

f(x, y) = 0 .

De la relation

Q(x + y) = Q(x) + 2f(x, y) + Q(y)

il résulte immédiatement le théorème de Pythagore.

Théorème 1 Deux vecteurs x et y sont orthogonaux pour f si et seulement si

Q(x + y) = Q(x) + Q(y) .

Définition 4 Si A est une partie non vide de E, on appelle, orthogonal de A (pour f) l’ensemble

A⊥ = {x ∈ E | f(x, y) = 0 ∀y ∈ A} .

L’orthogonal de A est un espace vectoriel sur R. En effet, si x et x′ sont dans A⊥ et si λ et µ sont dansR, on a, quel que soit y dans A,

f(λx + µx′, y) = λf(x, y) + µf(x′, y) = 0 ,

et donc λx + µx′ se trouve dans A⊥.

Définition 5 On appelle noyau de f , l’orthogonal E⊥ de E pour f , c’est-à-dire l’ensemble deséléments de E orthogonaux à tous les éléments de E.

En particulier les éléments de E⊥ sont orthogonaux à eux-mêmes.

Définition 6 On appelle vecteur isotrope un vecteur orthogonal à lui même, c’est-à-dire telque

f(x, x) = 0 ou Q(x) = 0 .

EA 5

Définition 7 Deux espaces vectoriels F et G seront dits orthogonaux, si, quels que soient xdans E et y dans G, les vecteurs x et y sont orthogonaux.

Définition 8 Une forme bilinéaire symétrique f est dite non dégénérée, si le noyau de f estréduit à zéro.

Définition 9 Si E est de dimension finie p, le rang de f (ou de Q) sera le nombre entier

rg f = p − dim E⊥ .

Il en résulte que f est non dégénérée si et seulement si le rang de f vaut p.

Définition 10 Une forme bilinéaire symétrique f est dite positive si, pour tout x de E, lenombre Q(x) est positif ou nul.

Exemples

Dans E = R2, notons x = (x1, x2) et y = (y1, y2). La base de R

2 étant constituée des vecteurse1 = (1, 0) et e2 = (0, 1).

1) Soit la forme bilinéaire f définie par

f(x, y) = x1y1 − x2y2 .

Cette forme n’est pas positive, carQ(e2) = −1 .

Elle n’est pas dégénérée. En effet, si x appartient à E⊥, on doit avoir

0 = f(x, e1) = x1 et 0 = f(x, e2) = −x2 .

Donc x = (0, 0) et l’orthogonal de E est réduit à (0, 0).

Les vecteurs isotropes vérifientQ(x) = x2

1 − x22 = 0 .

Ce sont donc les vecteurs des deux droites vectorielles engendrées par (1, 1) et (1,−1) respectivement.

EA 6

2) Soit la forme bilinéaire f définie par

f(x, y) = x1y1 .

Cette forme est positive, car Q(x) = x21 est toujours positif. Elle est dégénérée, car E⊥ est la droite

vectorielle engendrée par e2. Elle est donc de rang 1. Les vecteurs isotropes sont ceux de cette mêmedroite vectorielle.

Proposition 1 Une forme bilinéaire symétrique positive est non dégénérée, si et seulement siQ(x) est nul uniquement si x est nul.

Si f est dégénérée, le sous-espace E⊥ n’est pas réduit à zéro et ses éléments sont des vecteurs isotropes.Il existe donc x non nul, tel que Q(x) soit nul.

Réciproquement, si f n’est pas dégénérée, soit x un vecteur isotrope. On a alors, quels que soient ydans E et λ réel,

0 ≤ Q(λx + y) = λ2Q(x) + 2λf(x, y) + Q(y) = 2λf(x, y) + Q(y) ,

et cette inégalité n’est vraie pour tout λ que si f(x, y) est nul. Donc, pour tout y, le nombre f(x, y)est nul, ce qui prouve que x appartient à E⊥ = {0}. Il en résulte que x est nul.

Inégalité de Schwarz

Théorème 2 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E ona l’inégalité

|f(x, y)| ≤√

Q(x)√

Q(y) .

Considérons le polynôme de la variable λ,

Q(λx + y) = λ2Q(x) + 2λf(x, y) + Q(y) .

Si Q(x) est nul, la même démonstration que dans le théorème précédent montre que f(x, y) est nulpour tout y, et donc l’inégalité est vérifiée.

Supposons donc Q(x) non nul. Le polynôme du second degré en λ est toujours positif. Il en résulte queson discriminant est négatif, d’où

f(x, y)2 − Q(x)Q(y) ≤ 0 ,

ce qui donne l’inégalité dans ce cas.

EA 7

Inégalité de Minkowski

Théorème 3 Si f est une forme bilinéaire symétrique positive, quels que soient x et y dans E

Q(x + y) ≤√

Q(x) +√

Q(y) .

On a

Q(x + y) = Q(x) + 2f(x, y) + Q(y) ≤ Q(x) + 2√

Q(x)√

Q(y) + Q(y)

≤ (√

Q(x) +√

Q(y))2 .

Conséquence : si f est une forme bilinéaire symétrique positive et non dégénérée, l’application qui àx associe

Q(x) est une norme sur E, appelée, norme euclidienne associée à f .

Produit scalaire

Définition 11 On appelle produit scalaire sur E, une forme bilinéaire symétrique positive etnon dégénérée sur E.

Un espace vectoriel muni d’un produit scalaire est alors appelé espace euclidien.

On notera (x|y) le produit scalaire de deux vecteurs et ‖x‖ la norme euclidienne associée. L’orthogo-nalité dans E sera celle définie à l’aide du produit scalaire.

Avec ces notations, on a donc :

inégalité de Schwarz |(x|y)| ≤ ‖x‖ ‖y‖ ,inégalité de Minkowski ‖x + y‖ ≤ ‖x‖ + ‖y‖ ,théorème de Pythagore (x|y) = 0 si et seulement si ‖x + y‖2 = ‖x‖2 + ‖y|2 .

Exemples

1) Dans Rp, si x = (x1, . . . xp) et y = (y1, . . . , yp), on définit un produit scalaire en posant

(x|y) =

p∑

i=1

xi yi ,

donc

‖x‖2 =

p∑

i=1

x2i .

EA 8

L’inégalité de Schwarz se traduit par

p∑

i=1

xi yi

p∑

i=1

x2i

p∑

i=1

y2i .

2) Dans C ( [ a, b ] ), on définit un produit scalaire en posant

(u|v) =

b∫

a

u(t)v(t) dt ,

et

‖u‖2 =

b∫

a

u(t)2 dt .

L’inégalité de Schwarz se traduit par

b∫

a

u(t)v(t) dt

b∫

a

u(t)2 dt

b∫

a

v(t)2 dt .

Dans la suite de cette partie nous nous plaçons dans un espace vectoriel euclidien.

Proposition 2 Une famille de vecteurs non nuls deux à deux orthogonaux est une famille libre.

Si l’on aλ1x1 + · · · + λpxp = 0 ,

en effectuant le produit scalaire avec xi, on obtient

0 = (xi|λ1x1 + · · · + λpxp) = λi(xi|xi) ,

car (xi|xj) est nul par hypothèse lorsque i est distinct de j. Mais (xi|xi) est non nul, donc λi est nulpour tout i, et la famille est libre.

Définition 12 On appelle base orthogonale, une base de E formée de vecteurs deux à deuxorthogonaux. La base sera orthonormée, si de plus tous les vecteurs sont de norme 1.

Proposition 3 Si (e1, . . . , ep) est une base orthonormée de E, on a

x =

p∑

i=1

(x|ei) ei .

EA 9

En effet, si

x =

p∑

i=1

λiei ,

on obtiendra

(x|ej) =

p∑

i=1

λi(ei|ej) = λj .

Remarque : si x est non nul, il n’existe que deux vecteurs de norme 1 colinéaires à x. Ce sont lesvecteurs

1

‖x‖ x et − 1

‖x‖ x .

Procédé d’orthonormalisation de Schmitt

Proposition 4 Soit (e1, . . . , en, . . .) une suite (éventuellement finie) de vecteurs indépendantsd’un espace euclidien E. Il existe une suite (u1, . . . , un, . . .) de vecteurs orthogonaux deux à deuxet de norme 1 telle quea) quel que soit n, les systèmes (e1, . . . , en) et (u1, . . . , un) engendrent le même espace.b) quel que soit n, le vecteur en se décompose dans la base (u1, . . . , un) sous la forme

en = αnnun + αnn−1un−1 + · · · + αn1u1

avec ann > 0.

Remarque : le vecteur un est donc orthogonal à l’espace vectoriel engendré par (e1, . . . , en−1).

Méthode

On prend

u′1 = e1 puis u1 =

u′1

‖u′1‖

.

Pour le second vecteur

u′2 = e2 − (e2|u1)u1 puis u2 =

u′2

‖u′2‖

.

Pour le troisième vecteur

u′3 = e3 − (e3|u1)u1 − (e3|u2)u2 puis u3 =

u′3

‖u′3‖

.

Si les vecteurs u1, . . . , un−1 ont été construits, on obtient alors

u′n = en − (en|u1)u1 − · · · − (en|un−1)un−1 puis un =

u′n

‖u′n‖

.

EA 10

Les vecteurs (e1, .., en) et (u1, .., un) engendrent bien le même espace, car la matrice de changement debases est triangulaire et ses éléments diagonaux sont

αnn = ‖u′n‖ > 0 .

D’autre part, si l’on suppose que (u1, . . . , un−1) est une famille de vecteurs orthonormés, on a, pour1 ≤ i ≤ n − 1,

(u′n|ui) = (en|ui) − (en|un−1)(un−1|ui) − · · · − (en|ui)(ui|ui) − · · · − (en|u1)(u1|ui)

= (en|ui) − (en|ui)(ui|ui) = 0 ,

et u′n, donc un, est orthogonal à ui. De plus un est de norme 1.

Réciproquement, cette construction est la seule possible. En effet, si (u1, . . . , un) est une base ortho-normée du sous-espace engendré par (e1, . . . , en), on a nécessairement

en =

n∑

j=1

(en|uj)uj ,

donc

(en|un)un = en −n−1∑

j=1

(en|uj)uj = u′n ,

et les vecteurs un et u′n sont colinéaires. Alors, en prenant la norme

|(en|un)| = ‖u′n‖ .

De plusαnn = (en|un) .

Si l’on veut avoir αnn strictement positif, il faudra donc prendre

αnn = ‖u′n‖ .

Corollaire 1 Si E est un espace de dimension finie, il existe des bases orthonormées de E.

Il suffit d’appliquer le procédé de Schmitt en partant d’une base quelconque (e1, . . . , ep) de E. Celafournit une base orthonormée (u1, . . . , up) de E.

Remarquons que si les coordonnées de x et de y dans une base orthonormée sont (x1, . . . , xp) et(y1, . . . , yp) respectivement, on a

(x|y) =

p∑

i=1

xi yi = tX.Y et ‖x‖ =

p∑

i=1

x2i .

EA 11

Théorème de projection

Théorème 4 Soit E un espace euclidien, et F un sous-espace de E de dimension finie p. Pourtout x de E, il existe un vecteur y et un seul dans F , appelé projection orthogonale de x sur F ,tel que x − y soit orthogonal à F .

Si l’on posey = prF (x) ,

on définit ainsi une application linéaire prF de E sur F .

Si (e1, . . . , ep) est une base orthonormée de F , on a alors

prF (x) = (x|e1)e1 + · · · + (x|ep)ep .

Enfin, y est l’unique vecteur de F tel que

d(x, F ) = inft∈F

‖x − t‖ = ‖x − y‖ .

Alors

d(x, F )2 = ‖x‖2 − ‖y‖2 = ‖x‖2 −p

i=1

(x|ei)2 .

Unicité Soit y et y′ dans F , tels que x − y et x − y′ soient orthogonaux à F . Alors le vecteur

(x − y) − (x − y′) = y′ − y

est orthogonal à F et appartient à F : c’est donc le vecteur nul et les vecteurs y et y’ sont égaux.

Existence Soit

y = (x|e1)e1 + · · · + (x|ep)ep ,

où (e1, . . . , ep) est une base orthonormée de F . Alors

(x − y|ei) = (x|ei) − (y|ei) = 0 .

Ce vecteur est donc orthogonal à F .

L’application qui à x associe (x|e1)e1 + · · ·+ (x|ep)ep est visiblement linéaire. De plus, si x est dans F ,le vecteur x − x est orthogonal à F donc

prF (x) = x ,

et l’application est surjective.

EA 12

Enfin, si t est dans F ,x − t = (x − y) + (y − t) .

Mais, siy = prF (x) ,

le vecteur x − y est dans F⊥ et y − t dans F . Donc, d’après le théorème de Pythagore,

‖x − t‖2 = ‖x − y‖2 + ‖y − t‖2 ≥ ‖x − y‖2 ,

ce qui prouve queinfx∈F

‖x − t‖ = ‖x − y‖ .

De plus, le nombre ‖x − t‖ est égal à ‖x − y‖ si et seulement si ‖y − t‖ est nul (toujours d’après lethéorème de Pythagore), donc y est bien l’unique vecteur de F tel que

d(x, F ) = ‖x − y‖ .

Corollaire 2 Soit E un espace de dimension finie, et F un sous-espace de E. Alors F⊥ estl’unique supplémentaire de F qui soit orthogonal à F , et

(F⊥)⊥ = F .

Si x appartient à E, on peut écrire

x = (x − prF (x)) + prF (x) ,

et, puisque x − prF (x) et prF (x) sont dans F⊥ et F respectivement, on a

E = F⊥ + F .

D’autre partF⊥ ∩ F = {0} ,

ce qui montre queE = F ⊕ F⊥ .

Les sous espaces F et F⊥ sont donc supplémentaires.

Si F ′ est un supplémentaire de F orthogonal à F , il est nécessairement inclus dans F⊥, mais F⊥ et F ′

sont tous deux des supplémentaires de F et ont donc même dimension, alors

F ′ = F⊥ .

En particulier, comme F est un supplémentaire orthogonal de F⊥ on a

(F⊥)⊥ = F .

EA 13

Remarques

1) Si l’on décompose x sous la forme

x = x1 + x2 ,

où x1 est dans F , et x2 dans F⊥, on a

x1 = prF (x) et x2 = prF⊥(x) = x − prF (x) .

2) Si (e1, · · · , er, er+1, · · · , ep) est une base orthonormée de E, telle que (e1, · · · , er) soit une base deF , alors (er+1, . . . , ep) est une base de F⊥.

3) Pour déterminer F⊥, on peut partir d’une base (f1, . . . , fr) de F , la compléter pour avoir une base(f1, . . . , fp) de E, puis appliquer le procédé de Schmitt pour obtenir une base orthonormée (e1, . . . , ep)de E. Alors (e1, .., er) est une base de F , et (er+1, . . . , ep) est une base de F⊥.

On peut aussi, à partir d’une base de F , écrire les relations

(x|f1) = 0. . . . . . . . . .(x|fr) = 0

,

où (e1, . . . , ep) est une base de E et

x =

p∑

i=1

xiei .

Cela fournit un système de r équations à p inconnues, dont les solutions constituent l’espace F⊥ (dedimension p − r).

4) Dans un espace E de dimension infinie, on peut avoir

F⊥ = {0}

sans que F soit égal à E, et donc F⊥⊥ est différent de F .

II - Espaces vectoriels sur C

Toute l’étude précédente peut se reprendre dans le cadre des espaces vectoriels sur C avec des résultatsanalogues.

On désigne par f une application de E × E dans C cette fois.

EA 14

Définition 13 L’application f est appelée forme sesquilinéaire, si, pour tout y fixé de E,l’application qui à x associe f(x, y) est linéaire, et pour tout x fixé de E, l’application qui à yassocie f(x, y) est linéaire. Ces deux conditions se traduisent par

quels que soient x, x′, y, y′ dans E, et λ et µ, dans C, on a

f(λx + µx′, y) = λf(x, y) + µf(x′, y) et f(x, λy + µy′) = λf(x, y) + µf(x, y′) .

En particulier

Q(λx) = |λ|2Q(x) .

Définition 14 On dira que la forme sesquilinéaire est hermitienne, si, quels que soient x et ydans E

f(x, y) = f(y, x) .

Dans ce cas l’application Q est appelée, forme quadratique hermitienne associée à f .

Remarque : pour montrer que f est hermitienne, il suffira donc de montrer la symétrie hermitienne,et la linéarité par rapport à la première variable.

Si E est de dimension finie p et si B = (e1, . . . , ep) est une base de E, on aura cette fois

f(x, y) =∑

1≤i,j≤p

xi yjf(ei, ej) .

La matrice A de la forme f sera encore

A =[

f(ei, ej)]

1≤i,j≤p

et

f(x, y) = tX.A.Y .

Si f est hermitienne, sa matrice vérifie

tA = A ,

(matrice hermitienne), car

f(ei, ej) = f(ej , ei) .

Dans ce cas

Q(x) =

p∑

i=1

|xi|2f(ei, ei) + 2Re∑

1≤i<j≤p

xi xjf(ei, ej) .

EA 15

La formule de changement de bases devient

A′ = tP.A.P .

L’identité de polarisation s’écrit :

f(x, y) =1

4(Q(x + y) − Q(x − y) + iQ(x + iy) − iQ(x − iy)) .

Les notions d’orthogonalité, de noyau, de vecteurs isotropes, de formes non dégénérées, de formes po-sitives restent les mêmes que dans le cas réel.

On a encore les résultats suivants.

Théorème de Pythagore Si x et y sont orthogonaux

Q(x + y) = Q(x) + Q(y) .

Inégalité de Schwarz|f(x, y)| ≤

Q(x)√

Q(y) ,

Cette inégalité se démontre en regardant Q(λx + y). On a

Q(λx + y) = |λ|2Q(x) + 2Re(λf(x, y)) + Q(y) ≥ 0 .

Si Q(x) est non nul, on prend

λ = −f(x, y)

Q(x),

et l’on obtient l’inégalité voulue en remplaçant dans Q(λx + y).

Si Q(x) est nul,Q(λx + y) = 2Re(λf(x, y)) + Q(y)

ne peut garder un signe constant que si f(x, y) est nul lui aussi.

Inégalité de MinkowskiQ(x + y) ≤ Q(x) + Q(y) .

Elle se déduit de la précédente. En effet

Re f(x, y) ≤ |f(x, y)| ≤√

Q(x)√

Q(y) ,

donc

Q(x + y) = Q(x) + Q(y) + 2Re f(xy) ≤ Q(x) + Q(y) + 2√

Q(x)√

Q(y) = (√

Q(x) +√

Q(y) )2 .

Si f est une forme hermitienne positive non dégénérée, l’application qui à x associe√

Q(x) est unenorme sur E, appelée, norme hermitienne associée à f .

EA 16

Définition 15 On appelle produit scalaire sur E, une forme hermitienne positive et non dégénérée.Un espace vectoriel E muni d’un produit scalaire est alors appelé espace hermitien.

Tous les résultats obtenus dans la partie I restent vrais dans ce cadre. (Procédé de Schmitt, théorèmede projection, supplémentaire orthogonal etc...)

Si (u1, . . . , up) est une base orthonormée de E, et si x et y ont pour coordonnées dans cette base(x1, . . . , xp) et (y1, . . . , yp) respectivement, on a

(x|y) =

p∑

i=1

xi yi = tX.Y et ‖x‖ =

p∑

i=1

|xi|2 .

Remarque : si x est non nul, les vecteurs colinéaires à x et de norme 1 sont

eiθ

‖x‖ x où θ ∈ R .

III - Espaces euclidiens ou hermitiens et endomorphismes

Dans ce qui suit E est un espace euclidien ou hermitien de dimension finie p.

Théorème 5 Soit h un endomorphisme de E. Il existe un endomorphisme et un seul h∗ de E telque, quels que soient x et y dans E,

(h(x)|y) = (x|h∗(y)) .

Soit A la matrice de h dans une base orthonormée B. Si x et y sont deux vecteurs de E, nous notonsX et Y les matrices colonnes de ces vecteurs dans B. On peut écrire

t(A.X).Y = tX. tA.Y = tX.( tA.Y ) .

Si nous notons h∗ l’endomorphisme de E de matrice

A∗ = tA

dans la base B, la relation ci-dessus se traduit donc par

(h(x)|y) = (x|h∗(y)) ,

et ceci, quels que soient x et y dans E.

EA 17

S’il existait un autre endomorphisme h′ de E, tel que, quels que soient x et y dans E

(h(x)|y) = (x|h′(y)) ,

on aurait en soustrayant0 = (x|h′(y) − h∗(y)) ,

et comme ceci est vrai pour tout x, on en déduirait que h′(y)− h∗(y) est nul pour tout y, et donc queh et h′ sont égaux. Donc h est l’unique endomorphisme vérifiant la relation ci dessus.

Définition 16 L’endomorphisme h∗ est appelé endomorphisme adjoint de h.

Sa matrice dans une base orthonormée est alors A∗, si la matrice de h est A. Cette matrice A∗ estappelée adjointe de A. (Si A est réelle, la matrice adjointe est la transposée de A).

Définition 17 On dit que l’endomorphisme h de E est autoadjoint, si

h = h∗ .

La matrice d’un endomorphisme autoadjoint dans une base orthonormée vérifie donc aussi

A = A∗ .

C’est une matrice hermitienne. (Symétrique si A est réelle).

Propriétés des endomorphismes autoadjoints

a) les valeurs propres sont réelles ;b) les sous-espaces propres sont orthogonaux deux à deux ;c) si F est un sous-espace de E stable par h, alors F⊥ l’est aussi ;d) l’endomorphisme h est diagonalisable dans une base orthonormée ;e) l’orthogonal du noyau de h est l’image de h∗ (et réciproquement).

Soit λ et µ deux valeurs propres de f , et x et y deux vecteurs propres associés. On a

(h(x)|y) = (λx|y) = λ(x|y) ,

mais aussi(h(x)|y) = (x|h(y)) = (x|µy) = µ(x|y) .

Donc, si l’on prend λ = µ et x = y, on en tire

λ = λ ,

EA 18

et λ est réelle.

Si l’on prend λ 6= µ, on en tire

(x|y) = 0 ,

ce qui prouve que les sous-espaces propres Eλ et Eµ sont orthogonaux. Ceci démontre donc les pro-priétés a) et b).

Si F est stable par h, c’est-à-dire si, pour tout x de F , le vecteur h(x) est aussi dans F , prenons ydans F⊥. On a, si x est dans F ,

(x|h(y)) = (h(x)|y) = 0 ,

ce qui montre que h(y) appartient à F⊥ qui est donc stable par h. Ceci démontre c).

Soit λ1, . . . , λr les valeurs propres distinctes de h, et

F = Eλ1⊕ · · · ⊕ Eλr

.

Ce sous-espace est stable par h, car, si l’on a

x = x1 + · · · + xr ,

avec xi dans Fλi, le vecteur

h(x) = λ1x1 + · · · + λrxr

appartient aussi à F . Donc, d’après c), le sous-espace F⊥ est aussi stable par h. Soit alors h′ larestriction de h à F⊥. C’est un endomorphisme autoadjoint de F⊥, donc, si F n’est pas réduit à 0, ilpossède au moins une valeur propre λ associée à un vecteur propre x. Mais λ est aussi valeur proprede h, donc il existe i tel que

λ = λi .

Alors x appartient à Eλidonc à F mais aussi à F⊥, d’où une contradiction. C’est donc que F⊥ est

réduit à 0 et que F = E. Il en résulte que h est diagonalisable.

Les sous-espaces propres sont orthogonaux deux à deux. En choisissant dans chacun une base ortho-normée, la réunion sera aussi une base orthonormée de E ; on a donc d).

Enfin, si x appartient à Ker h, et y à E,

0 = (h(x)|y) = (x|h(y)) ,

ce qui montre que tout élément de Ker h est orthogonal à tout élément de Im h, c’est-à-dire

(Ker h)⊥ = Im h ,

puis, en prenant l’orthogonal,

Ker h = (Im h)⊥ .

EA 19

Proposition 5 Si f est une forme bilinéaire symétrique sur un espace euclidien E de dimensionfinie p, et si A est la matrice de f dans une base orthonormée B, alors le rang de f est aussi le rangde A. En conséquence, pour toute matrice P inversible,

rg( tP.A.P ) = rg A .

Soit h l’endomorphisme de E de matrice A dans B ; il est autoadjoint puisque A est symétrique. On a

rg f = p − dim{x | f(x, y) = 0 ∀y ∈ E} .

Mais

f(x, y) = (x|h(y)) .

Dire que cette expression est nulle pour tout y de E, équivaut à dire que x appartient à l’orthogonalde l’image de h qui est Ker h. Alors

rg f = p − dim(Ker h) = dim(Im h) = rg A .

Définition 18 Un automorphisme h de E est dit unitaire (orthogonal dans le cas réel) lorsque

h−1 = h∗ .

Dans une base orthonormée, la matrice A de h vérifie donc

A−1 = A∗ .

De telles matrices sont dites unitaires (orthogonales si elles sont réelles).

Proposition 6 Une matrice A est unitaire si et seulement si, une des propriétés équivalentessuivantes est vérifiéea) A∗.A = Ib) les vecteurs colonnes de A forment une base orthonormée de C

p.c) les vecteurs lignes de A forment une base orthonormée de C

p.

La propriété a) équivaut à écrire

A−1 = A∗ .

Si l’on note[

aij

]

1≤i,j≤pla matrice A et

vi = (ai1, . . . , aip)

EA 20

le i−ème vecteur ligne de la matrice A, on a

cik =

p∑

j=1

aij akj = (vi|vk) .

Mais cik est le coefficient de la i−ème ligne et de la k−ème colonne de la matrice A.A∗. Donc dire queA est unitaire, équivaut à dire que A.A∗ est la matrice unité I, c’est-à-dire que

cik =

{

1 si i = k0 si i 6= k

,

ou encore

(vi|vk) =

{

1 si i = k0 si i 6= k

,

ce qui signifie que les vecteurs (v1, . . . , vp) forment une base orthonormée de Cn pour le produit scalaire

rendant la base canonique orthonormée.

Enfin, comme A est unitaire si et seulement si tA est unitaire, on passe facilement des lignes de A auxcolonnes de A.

Corollaire 3 La matrice de passage d’un changement de bases orthonormées, est une matriceunitaire.

En particulier, si A est une matrice symétrique réelle (resp. hermitienne), il existe P orthogonale (resp.unitaire) telle que P−1.A.P soit diagonale.

Propriétés des endomorphismes unitaires

a) les valeurs propres sont de module 1 ;b) les sous-espaces propres sont orthogonaux deux à deux ;c) si F est stable par h, alors F⊥ l’est aussi ;d) l’automorphisme h est diagonalisable dans une base orthonormée de vecteurs propres.

Si A est la matrice de h dans une base orthonormée, soit λ et µ deux valeurs propres, et x et y deuxvecteurs propres associés. On a

(h(x)|h(y)) = (λx|µy) = λµ(x|y) .

Mais aussi

(h(x)|h(y)) = (x|h∗h(y)) = (x|y) .

Donc, si λ = µ et x = y, on en déduit

λλ = |λ|2 = 1 ,

EA 21

et λ est de module 1.

Si λ 6= µ, comme λ est de module 1, le produit, λµ est différent de λλ = 1, donc (x|y) est nul, et lessous-espaces propres Eλ et Eµ sont orthogonaux. Ceci montre donc a) et b).

Si F est stable par h, alors h est une bijection de F sur F , et h∗ = h−1 aussi. Alors, si x est dans Fet y dans F⊥, le vecteur h∗(x) est dans F , donc

0 = (h∗(x)|y) = (x|h(y)) ,

ce qui montre que h(y) appartient à F⊥ qui est bien stable par h. On a donc c).

La propriété d) se démontre comme pour les endomorphismes autoadjoints.

Proposition 7 L’ensemble des matrices orthogonales d’ordre n est un groupe pour le produitmatriciel, appelé groupe orthogonal et noté O(n).

On montre facilement que c’est un sous-groupe du groupe des matrices carrées d’ordre n inversibles.En effet, si A et B sont orthogonales, alors

t(A.B) = tB. tA = B−1.A−1 = (A.B)−1

et donc A.B est orthogonale. On a aussi

t(A−1) = t( tA) = A = (A−1)−1 ,

donc A−1 est orthogonale.

On a vu que les valeurs propres d’une matrice orthogonale sont des nombres complexes de module 1.Les valeurs propres réelles sont donc 1 ou −1, et si λ est une valeur propre non réelle d’ordre r, alorsλ est aussi une valeur propre non réelle d’ordre r. Le produit des valeurs propres est donc 1 ou −1,selon que la valeur propre −1 est d’ordre pair ou impair.

On appellera O+(n) (resp. (O−(n)) l’ensemble des matrices orthogonales de déterminant +1 (resp.−1). Il est facile de vérifier que O+(n) est un sous-groupe de O(n) pour le produit de matrices.

Exemple Dans R2, l’ensemble O+(n) est constitué des matrices de rotation

[

cos θ − sin θsin θ cos θ

]

,

alors que O−(n) est formé des matrices de symétries orthogonales

[

cos θ sin θsin θ − cos θ

]

.

EA 22

IV Réduction des formes quadratiques réelles

Définition 19 Soit E un espace vectoriel sur R. On appelle forme linéaire sur E une applicationlinéaire de E dans R.

Si E est de dimension finie p, soit B = (e1, . . . , ep) une base de E. Si x a pour coordonnées (x1, . . . , xp)dans cette base, et si Φ est une forme linéaire sur E, on a

Φ(x) =

p∑

i=1

xiΦ(ei) .

Donc Φ est déterminée par sa matrice ligne[

Φ(e1) . . . ,Φ(ep)]

, et l’espace vectoriel E∗ des formeslinéaires sur E est isomorphe à E et de dimension p. Pour montrer que des formes (Φ1, . . . ,Φq) sont

linéairement indépendantes dans E∗, il suffira donc de montrer que la matrice[

(Φi(ej)]

1≤i≤q

1≤j≤p

est de

rang q.

Soit Q une forme quadratique sur E. Réduire la forme quadratique Q, c’est trouver r formes linéairesΦ1, . . . ,Φr linéairement indépendantes, et r réels non nuls λ1, . . . , λr, tels que, pour tout x de E

Q(x) = λ1(Φ1(x))2 + · · · + λr(Φr(x))2 .

On peut envisager le problème d’une autre manière. Soit B = (e1, . . . , ep) une base de E, et (x1, . . . , xp)les coordonnées de x dans cette base. Soit A la matrice de Q dans B. La forme linéaire Φi est alorsune fonction gi des variables (x1, . . . , xp). Posons

y1 = g1(x1, .., xp). . . . . . . . . . . . . . . .yr = gr(x1, .., xp)

.

Si r < p, on peut compléter par p − r autres relations, de manière à obtenir une matrice S inversible,telle que, matriciellement

Y = S.X

si Y et X sont les matrices colonnes

y1...yp

et

x1...

xp

respectivement.

Cela signifie que l’on a effectué un changement de bases, et que, dans une nouvelle base B′, la formequadratique Q est définie par

Q(x) = λ1y21 + · · · + λry

2r ,

où (y1, . . . , yr) sont les coordonnées de x dans B′.

EA 23

Il faut remarquer que la matrice dont les colonnes sont les vecteurs de B′ décomposés dans B est S−1.On a alors

t(S−1).A.(S−1) = A′ =

λ1

. . .

λr

0. . .

0

.

C’est une matrice diagonale. Donc, réduire la forme Q, revient à trouver une base B′ dans laquelle lamatrice de Q est diagonale. En particulier, le nombre r ne dépend pas de la décomposition puisquec’est le rang de A′ donc le rang de Q.

Remarque : la base B′ est une base orthogonale pour la forme quadratique Q puisque f(e′i, e′j) est

nul si i est différent de j.

Méthodes de réduction

A) Méthode de diagonalisation

La matrice A de Q, dans B étant symétrique, il existe P orthogonale telle que

P−1.A.P = A′

soit diagonale. Mais

P−1 = tP ,

donctP.A.P = A′ ,

et A′ est la matrice de Q dans une nouvelle base B′. Si les valeurs propres de A′ sont λ1, . . . , λp, on adans la nouvelle base

Q(x) = λ1x21 + · · · + λpx

2p .

B) Méthode de Gauss

Elle repose sur la méthode classique de réduction d’un trinôme du second degré à sa forme canonique.

Si a 6= 0, on a

ax2 + bx + c = a

(

x +b

2a

)2

+4ac − b2

4a.

La forme Q étant donnée dans B par une expression de la forme

Q(x) =

p∑

i=1

aii x2i + 2

1≤i<j≤p

aij xi xj ,

EA 24

on choisit un terme carré aii x2i de coefficient non nul, s’il en existe un, et on considère Q(x) comme

un trinôme du second degré en xi. On peut donc écrire

Q(x) = aii

xi +1

aii

j 6=i

aijxj

2

+ g2(x1, . . . , xi−1, xi+1, . . . , xp) ,

puis on regarde dans g2, qui ne dépend plus que de p − 1 variables, s’il existe un terme carré non nulet l’on recommence l’opération jusqu’à ce que toutes les variables aient été utilisées.

Si au cours du calcul, une des formes quadratiques gk ne contient plus de terme carré, on effectue unchangement de variables qui en fait apparaître un. En remarquant que

xi xj =1

4((xi + xj)

2 − (xi − xj)2) ,

on posera

x′i =

1

2(xi + xj) , x′

j =1

2(xi − xj) ,

et, si ℓ est distinct de i et de j,x′

ℓ = xℓ ,

puis on exprimera gk en fonction des nouvelles variables.

La méthode précédente assure que les formes linéaires obtenues sont linéairement indépendantes. (Dansle cas où il existe des termes carrés à chaque étape, la matrice de passage est triangulaire).

D’après ce qui précède, on peut donc toujours réduire une forme quadratique, en l’écrivant

Q(x) = λ1(Φ1(x))2 + · · · + λr((Φr(x))2 ,

où les formes linéaires sont indépendantes et les λi non nuls. On peut d’ailleurs, en rentrant dans lescarrés

|λi|, faire en sorte que les coefficients soient 1 ou −1.

Notons σ+ le nombre de coefficients λi strictement positifs, et σ− le nombre de coefficients strictementnégatifs. La somme σ+ + σ− est donc le rang r de Q. Mais de plus on a le résultat suivant.

Loi d’inertie de Sylvester

Proposition 8 Les nombres σ+ et σ− ne dépendent pas de la décomposition de Q. Le couple(σ+, σ−) s’appelle la signature de Q.

En particulier, si A est la matrice de Q dans une base B, les nombre σ+ et σ− sont respectivementle nombre de valeurs propres strictement positives de A et le nombre de valeurs propres strictementnégatives de A.

EA 25

Prenons deux bases (e1, . . . , ep) et (e′1, . . . , e′p) dans lesquelles Q s’écrit respectivement

Q(x) = x21 + · · · + x2

s − x2s+1 − . . . − x2

r

etQ(x) = y2

1 + · · · + y2s′ − y2

s′+1 − . . . − y2r .

Il s’agit de montrer que s = s′.

Soit F le sous-espace de E engendré par (e1, . . . , es) et G celui engendré par (e′s′+1, . . . , e′p).

Sur F , on aQ(x) = x2

1 + . . . + x2s ,

et donc Q est une forme quadratique positive et non dégénérée (rg Q = dim F ). Alors Q(x) est stric-tement positive sur F \ {0}.

Sur G,Q(x) = −(y2

s′+1 + . . . + y2r ) ,

et donc −Q, est une forme quadratique positive, et Q(x) est négative sur G. Il résulte de ces deuxremarques que F ∩ G est réduit à 0. Donc F et G sont indépendants et

dimF + dimG ≤ p ,

c’est-à-dires + (p − s′) ≤ p ,

et doncs ≤ s′ .

En inversant les rôles de s et s′ on aura l’inégalité inverse, d’où l’égalité.

Remarque : si P est inversible, les matrices A et tP.A.P n’ont, en général pas les mêmes valeurspropres, mais le nombre de valeurs propres strictement positives (resp. strictement négatives, nulles),est le même pour les deux matrices.

Exercices

1) Dans R3, soit x = (x1, x2, x3) et y = (y1, y2, y3). Pour chacune des formes bilinéaires f suivantes,

écrire la matrice A dans la base canonique, et dire si f est symétrique. Dans ce cas préciser le rang,déterminer E⊥ et les vecteurs isotropes. Quelles sont celles qui sont positives, qui sont des produitsscalaires ?

a) f(x, y) = x1 y1 + x2 y2 − x3 y3

b) f(x, y) = 2x1 y1 + x3 y3 + x1 y3 + x3 y1

c) f(x, y) = x1 y2 + x2 y1 + x1y 1 + 2x2y 2 + 3x3 y3

d) f(x, y) = x1y2 + x1y1 + x2y2 + x3y3

e) f(x, y) = x1 y1 + 3x2 y2 + 2x1 y2 + 2x2 y1 + x1 y3 + x3 y1 + x2 y3 + x3 y2

EA 26

2) A quelle condition la forme bilinéaire f suivante, définie sur R2 est-elle un produit scalaire ?

f(x, y) = ax1 y1 + bx1 y2 + b′x2 y1 + cx2 y2 ,

où x = (x1, x2) et y = (y1, y2).

3) Soit (x|y) un produit scalaire sur un espace vectoriel E sur R. A quelle condition a-t-on égalité dansl’inégalité de Schwarz ? dans l’inégalité de Minkowski ?

4) Montrer que dans l’espace vectoriel Mn(C) des matrices carrées d’ordre n à coefficients complexes,on définit un produit scalaire en posant

(A|B) = tr(A∗.B) .

5) a) Si k ∈ N, on pose

uk =∞∑

n=0

nk

k!.

Montrer que cette série converge, et que, si k ≥ 1,

uk =

k−1∑

r=0

(

k − 1

r

)

ur .

En déduire que la suite (uk/e)k≥0 est une suite strictement croissante de nombres entiers, et calculeruk pour 0 ≤ k ≤ 4.

b) Montrer que l’on définit un produit scalaire dans R[x] en posant

(P |Q) =

∞∑

n=0

P (n)Q(n)

n!.

Trouver les polynômes (P0, P1, P2) déduits de (1, x, x2) par le procédé de Schmitt.

6) Soit E l’espace vectoriel des fonctions développables en série entière de rayon R ≥ 1, à coefficientsréels.

a) Si l’on a

f(x) =

∞∑

n=0

an xn et g(x) =

∞∑

n=0

bn xn ,

et si |x| < |x′| < 1, montrer qu’il existe une constante M , telle que pour tout entier n

|anbn| |x|n ≤ M |an| |x′|n .

En déduire que la série

h(x) =

∞∑

n=0

anbn xn

EA 27

appartient à E.

b) Montrer que si x est un nombre fixé de l’intervalle ] 0, 1 [ , on définit sur E un produit scalaire enposant

(f |g) =∞∑

n=0

anbnxn .

En déduire que si x appartient à ] 0, 1 [

∞∑

n=0

xn

√n!

≤ ex/2

√1 − x

.

7) Dans R5, soit les vecteurs

V1 = (1, 0,−1, 2, 3) , V2 = (2, 1,−1, 3, 2) , V3 = (0, 2,−1, 4, 2) .

Trouver une base orthonormée de l’espace vectoriel F engendré par (VI , V2, V3), puis une base de F⊥.

Soit W = (1,−1, 0, 2,−2). Calculer prF (W ), prF⊥(W ) et d(W,F ). (La base canonique de R5 est sup-

posée orthonormée).

8) Soit une fonction Φ continue, strictement positive, sur ] a, b [ , telle que les intégrales∫ ba xnΦ(x) dx

convergent pour tout entier n ≥ 0.

a) Montrer que l’on définit un produit scalaire sur C[x], en posant :

(P |Q) =

∫ b

aP (x)Q(x)Φ(x) dx .

(où Q désigne le polynôme dont les coefficients sont les conjugués de ceux de Q).

Soit (P0, P1, ..., Pn...) la famille orthonormée de polynômes, construite à partir de (1, x, .., xn, ...) parle procédé de Schmitt.

b) Montrer que, si n ≥ 1, le polynôme Pn est un polynôme de degré n à coefficients réels, orthogonalà Cn−1[x].

c) Montrer que les racines de Pn sont réelles, et appartiennent à ] a, b [ . (Si x0 est racine de Pn, étudier(Pn|Qn) où Pn = (x − x0)Qn ).

d) Montrer que les racines de Pn sont simples. (Si x0 est racine multiple de Pn étudier (Pn|Rn), oùPn = (x − x0)

2Rn).

e) Calculer P0, P1, P2 lorsque Φ(t) = e−t et ] a, b [ = ] 0, ∞ [ .

EA 28

9) Calculer

I = inf(a,b,c)∈R3

1∫

−1

(sin(πx) − ax2 − bx − c)2 dx .

(On considérera√

I comme la distance d’un élément f à un sous-espace F dans un espace euclidienconvenable).

10) Soit la matrice

A =1

3

2 −1 2−1 2 22 2 −1

.

Vérifier que A est orthogonale et symétrique. Quelles sont ses valeurs propres ? Déterminer les sous-espaces propres correspondants, ainsi qu’une matrice S telle que tS.A.S soit diagonale. Quelle est lanature géométrique d’un endomorphisme de matrice A dans une base orthonormée de R

3 ?

11) Soit h un endomorphisme d’un espace hermitien E, vérifiant

h∗ = −h ,

(h est dit antisymétrique). Montrer que

a) les valeurs propres de h sont imaginaires pures ;b) les sous-espaces propres sont deux à deux orthogonaux ;c) si F est un sous-espace stable par h, il en est de même de F⊥ ;d) h est diagonalisable dans une base orthonormée de vecteurs propres ;e) (Ker h)⊥ = Imh ;f) si h a pour matrice dans une base orthonormée

A =

0 1 0−1 0 10 −1 0

déterminer les valeurs propres et les vecteurs propres. Trouver S unitaire telle que S−1.A.S soit dia-gonale.

12) Déterminer la signature et le rang des formes quadratiques suivantes. Donner une matrice S telleque tS.A.S soit diagonale.

a) 4x2 + y2 − 8z2 + 4xy − 4xz + 8yzb) − z2 + t2 − 4xy − 2xz + 2xt − 2yz − 2ytc) xy + xz + xt + yz + yt + zt.

13) Déterminer la signature et le rang des formes quadratiques suivantes

a) 5x2 + y2 + az2 + 4xy − 2xz − 2yz (a constante réelle)b) (ax + y)2 + (bx + z)2 − (y + z)2 (a et b constantes réelles)c) a(x2

1 + · · · + x2n) − (x1 + · · · + xn)2 (a constante réelle).

EA 29

14) Soit a1, . . . , an des nombres réels. Trouver le rang et la signature de la forme quadratique

1≤i,j≤n

aiajxixj .

En déduire les valeurs propres de la matrice A =[

aiaj

]

1≤i,j≤n.

15) Soit E un espace euclidien de dimension finie et Q une forme quadratique de matrice A dans unebase orthonormée. Soit Λ la plus grande valeur propre de A et λ la plus petite. Montrer que pour toutx de E

λ‖x‖2 ≤ Q(x) ≤ Λ‖x‖2 .

Quand a-t-on égalité dans une des deux inégalités ci-dessus ?

16) Soit S la sphère de R3 d’équation x2 +y2 +z2 = 1. Soit Φ l’application de S dans R , qui à (x, y, z)

associeΦ(x, y, z) = y2 + 2xy + 4xz + 2yz .

Trouver les points de S où Φ présente un maximum.