Les séries de Fourier permettant d’écrire une
fonction périodique (par exemple un signal périodique) comme une somme de fonctions
périodiques fondementales (sinus et cosinus, ou exponentielle
imaginaire pure). Le but est de simplifier la résolution
de problèmes qui vérifient le principe de superposition
et faisant intervenir des fonctions périodiques
en se ramenant à ces fonctions périodiques fondementales.
Exemple: écriture approchée de comme
somme de fonctions sinusoides fondementales
onload
Il faut vraiment zoomer pour voir la différence
plot([f1,g1],t,-0.1,0.1,color=[red,blue]);
onload
Une application immédiate des séries de Fourier est l’analyse d’un son.
Si on gratte sur une corde de guitare,
on observe un phénomène périodique en temps, qui se décompose
en une somme de sinusoides dont la fréquence est un
multiple entier de la fréquence de base. Pour une même note de
musique (par exemple un la à 440Hz), une guitare, un piano, une
flute ne donneront pas le même son parce que les harmoniques sont
différents.
Voici 2 sons purs
de fréquence 440Hz et 880Hz,
et deux sons de fréquence de base 440Hz
avec une harmonique n’ayant pas le même coefficient.
N.B. : la commande l:=soundsec(t) renvoie une liste
de réels de la forme pour ,
par exemple
Ceci permet de générer un son de durée secondes
échantilloné à 44.1 kHz
(qualité sonore d’un CD audio) pour la commande playsnd.
Si on calcule , on obtient la liste des sinus des
réels , si on en trace la représentation
graphique (avec en abscisse ) on obtient une sinusoide avec
périodes.
On pourrait ainsi numériser le son en
stockant les coefficients des sinusoides pour la fréquence
de base et de ses multiples (les harmoniques) jusqu’à la limite de sensibilité
de l’oreille humaine. D’une certaine manière c’est ce que fait une
partition de musique en donnant une succession de notes d’une certaine
durée à jouer par des instruments de musique (chaque note jouée
par un instrument correspondant en quelques sorte à une série
de Fourier).
Si on représente graphiquement la liste des coefficients des harmoniques
en fonction des multiples de la fréquence de base, on obtient
le spectre, qui donne une description complète du son (et qu’on peut
manipuler avec des logiciels comme audacity
par exemple faire l’analyse spectrale du son, supprimer des
harmoniques trop aigües...). Voir par exemple
ce
document
Plus généralement, on parle
d’analyse spectrale. Cette idée de décomposer en somme de
fonctions périodiques“pures” s’applique à diverses
généralisations
des séries de Fourier : la transformée de Fourier (qui peut servir
à comprendre la lumière, les couleurs correspondant à des
fréquences, mais vues comme un paramètre continu variant dans
et non discret restreint aux harmoniques d’une
fréquence de base),
et la transformée de Fourier discrète, adaptée au calcul sur machine.
Un exemple plus mathématique, si on veut résoudre une équation différentielle
linéaire à coefficients constants avec second membre périodique
(ressort soumis à un forçage périodique en temps,
circuit RLC soumis à une source périodique en temps, ...),
on a des formules simples pour trouver une solution particulière
si le second membre est un sinus ou un cosinus (impédance complexe).
Le principe de superposition s’applique (pour obtenir la solution
particulière correspondant à un second membre somme de deux
fonctions, il suffit de faire la somme des solutions particulières
correspondant à chacune des deux fonctions).
Bien sur, on sait résoudre ces équations différentielles avec un
second membre quelconque, mais la forme de la solution n’est
pas toujours explicite
et même si elle l’est, elle peut être
compliquée et ne pas faire apparaitre certaines propriétés.
L’existence
de certains phénomènes, par exemple d’une fréquence
de résonance ou d’un filtre passe-haut ou passe-bas,
et la décomposition en somme de fréquences
va permettre de mettre en évidence des propriétés de la solution
particulière plus facilement
Historiquement, les séries de Fourier ont été inventées par
Fourier pour résoudre le problème de la diffusion de la chaleur.
On ne sait pas résoudre analytiquement l’équation de la chaleur,
mais on va voir qu’on sait le faire lorsqu’on décompose la température initiale
en somme de cosinus.
On va aussi voir que la méthode utilisée pour
l’équation de la chaleur est suffisamment générale
pour s’appliquer dans d’autes cas, par exemple pour l’équation des
ondes (qui elle se résoud analytiquement).
Mathématiquement, les concepts qui interviennent sont
de l’algèbre linéaire (principe de superposition)
des sommes (de fonctions
sinusoides) qui ne sont pas finies (puisqu’il y a une infinité de multiples
entiers d’une fréquence de base), on les appelle des séries
ces séries sont plus difficiles à étudier que des sommes
de nombres réels, car il s’agit de fonctions. Pour donner un sens
à la valeur d’une somme infinie de fonctions, il faut donner un sens
à être petit pour une fonction, pour les séries de Fourier, le bon cadre pour
cela est l’algèbre bilinéaire et les formes quadratiques.
Les formes quadratiques particulières qui interviennent pour les
séries de Fourier sont des produits scalaires qui généralisent
le produit scalaire usuel dans et . D’autres formes
quadratiques ont des applications en physique, par exemple
les trajectoires du problème à 2 corps (un astre en orbite autour
d’un autre) sont des coniques dont
l’équation cartésienne fait intervenir une forme quadratique, ou encore la
relativité qui fait intervenir des formes quadratiques qui ne sont pas
des produits scalaires, ou la mécanique quantique où les fonctions
d’ondes sont des vecteurs de norme 1 d’un -espace vectoriel muni d’un
produit scalaire (hermitien).
1.1 L’équation de la chaleur.
Considérons une tige chauffée de façon inhomogène, par
exemple une tige métallique qui vient de servir à remuer les braises
d’un feu de bois.
Comment se diffuse la chaleur dans cette tige ?
On a donc une tige de longueur finie dont
la température initiale (au temps ) en un point d’abscisse
est donnée par une fonction
.
Dans l’exemple de la tige retirée du feu de bois, si l’extrémité de la tige est en ,
alors est une fonction croissante de ( vaut
peut-etre 100 degrés, alors que est proche de 20 degrés).
On suppose que les échanges de chaleur entre la tige et l’air sont
négligeables et que les extremités de la tige sont au contact d’un parfait
isolant, ce qui implique qu’il n’y a pas de flux de chaleur à travers
ces extrémités.
En particulier le gradient de la température y est nul.
On veut comprendre comment la chaleur se diffuse dans la barre avec
le temps ; autrement dit, si est la température dans la
tige au point
en un temps , alors on
veut comprendre l’évolution de la valeur de avec .
Si la température croit lorsque augmente,
la chaleur va aller vers les décroissant, d’autant plus vite que
est grand. Si on considère un petit élément
de tige entre et , la chaleur entrante en est
proportionelle à et la chaleur sortante
en à donc on a un bilan de chaleur
entrant de
, qui va réchauffer
le morceau de tige entre et , donc est
proportionnel à
Les lois de la physique entrainent donc que doit satisfaire à
l’équation, dite équation de la chaleur :
où est une constante positive
(la diffusivité) qui dépend du matériau (proportionnelle
à sa conductivité thermique).
Nous avons en plus les conditions au bord
qui traduisent l’absence de flux de chaleur à travers les extrémités, et
la condition initiale
Oublions d’abord la condition . Autrement dit, on cherche
les solutions vérifiant seulement les conditions au bord
L’équation étant beaucoup trop compliquée pour être résolue
avec les méthodes dont nous disposons actuellement, nous allons
commencer par simplement chercher des exemples de fonctions qui la satisfont.
Les fonctions à variables séparées (c’est-à-dire s’écrivant dans la forme
) sont
une source féconde d’exemples satisfaisant à des équations aux dérivées
partielles, puisque de telles équations se simplifient souvent dans
ce cas.
Nous commencerons donc
par chercher des solutions de la forme .
On a alors :
soit
au moins sur la région ou ni ni ne s’annule.
Notons que le membre de gauche est une fonction qui ne dépend que de et
le membre de droite est une fonction qui ne dépend que de :
comme et sont indépendantes, cela implique qu’il
existe tel que
Ainsi, on a et
On a donc pour , et donc
pour tout (car on cherche non identiquement nulle).
La contrainte
entraîne alors . Pour résoudre l’équation en il nous faut
maintenant distinguer 3 cas.
Cas 1 : . On a alors , et donc . Les conditions imposent alors facilement pour tout .
On a donc une
première solution de base
Cas 2 : . On peut exclure ce cas par des
considérations physiques, car serait exponentiellement
croissante.
D’un point de vue mathématique, on peut alors
poser et est de la forme
. Les conditions que et impliquent
alors , et est identiquement nulle, ce qui est exclu.
Cas 3 : . On peut alors poser
et
Puisque on a , et puisque on a . Puisque l’on cherche non nulle, on a
et donc .
Ainsi pour entier (remarque : ceci quantifie les
possibles qui prennent une suite discrète de valeurs), et donc pour chaque , on a une
solution de la forme
Pour chaque entier positif nous avons donc une solution de l’équation de la chaleur
(Nous pouvons intégrer la solution dans cette famille de solutions
en considérant qu’il s’agit de .)
La condition initiale correspondant à la solution
est donnée par , c’est à dire
Nous avons donc trouvé une solution à l’équation de la chaleur pour certaines conditions initiales
bien particulières, c’est à dire certains cosinus.
Est ce qu’on peut en construire d’autres solutions pour d’autres conditions
initiales ?
Notons tout d’abord que
l’équation de la chaleur à une propriété très utile :
Remarque 1(Linéarité de l’équation de la chaleur.)
Si
et sont deux solutions à l’équation de la chaleur alors
pour tous réels
est encore une solution de cette équation.
(Une telle fonction est appellée une combinaison linéaire de et ).
On dit alors que l’équation de la
chaleur est une équation linéaire.
Exercice. Démontrer que l’équation de la chaleur est une équation
linéaire.
En particulier, toute fonction qui est une combinaison
linéaire finie
avec des nombres réels est encore
une solution de l’équation de la chaleur. Cette solution corresponde à la
condition initiale c’est à dire
Nous savons donc trouver une solution pour l’équation de la chaleur pour certaines
conditions initiales bien particulières : celles qui s’écrivent comme des
sommes finies de cosinus.
Et il vient assez naturellement l’idée : Peut-on résoudre cette équation de la même
façon pour
une condition initiale quelconque en l’écrivant comme une “somme infinie”
de cosinus ?
Remarque 2
La méthode de séparation de variables s’applique
aussi à l’équation de Schrödinger, ici pour une particule
de masse et charge soumise à un potentiel en dimension 1 d’espace,
et permet de trouver les états stationnaires :
Si on pose , on a
Donc
constant, c’est le niveau d’énergie de la particule que l’on trouve
en résolvant l’équation en (pour un potentiel qui piège la
particule, on trouve, comme pour l’équation de la chaleur, que seules
certaines valeurs de conviennent), alors qu’en , on a
1.2 L’équation des ondes.
Pour illustrer que la méthode utilisée pour l’équation de
la chaleur est pertinente, nous allons voir qu’elle peut s’appliquer à
une équation que l’on sait résoudre autrement : l’équation
des ondes.
Un fil horizontal
de longueur , soumis à une tension et de densité linéaire
, est tenu aux deux extremités. Par exemple une corde de
guitare de longueur pincée en un point d’abscisse 1 et
d’ordonnée très petite (0.2 sur le dessin) aura le profil suivant
onload
Au temps il
est relaché et se met à osciller librement dans un plan vertical.
Soit la fonction égale au déplacement vertical1
à l’instant de la partie du fil qui se trouve (à l’équilibre) à une distance d’une
des extremités.
Nous avons cette fois les conditions aux bords
qui traduisent le fait que le fil est attaché aux extrémités.
Si le déplacement initial du fil est décrit par la fonction alors nous avons
aussi les conditions initiales
cette dernière condition traduisant le fait que le fil est relâché à l’instant
et se trouve donc à ce moment-là au repos.
Si on considère le morceau de fil compris entre les abscisses et
, il est soumis à deux forces :
en , une traction
d’intensité de direction et sens
le vecteur directeur de la tangente
en , une traction opposée portée par
Le principe fondemental de la dynamique donne alors
L’évolution de est décrite (au premier ordre, car on a
fait comme si le vecteur était normé, et on n’a pas tenu
compte de la possible variation locale de tension si est non nul)
par l’équation des ondes
où est la constante positive .
On sait déterminer la solution de cette équation, on prolonge
par périodicité (période ), on a alors :
Cherchons comme ci-dessus des solutions de la forme .
On a alors
soit
Notons que le membre de gauche est une fonction qui ne dépend que de et
le membre de droite est une fonction qui ne dépend que de :
comme et sont deux variables indépendantes, cela implique qu’il
existe tel que
Ainsi, on a
Le même raisonnement que ci-dessus nous montre que cette équation a une solution
telle que si et seulement si il existe un entier tel que
et dans ce cas on a une solution donnée par
Ceci nous donne une solution au problème pour une condition initiale
On vérifie bien que
Remarque 1 L’équation des ondes est encore une équation linéaire,
Exercice Démontrer que l’équation des ondes est linéaire.
Puisque la fonction est une solution pour chaque ,
toute combinaison
linéaire finie
ou les sont des nombres réels est encore
une solution de l’équation de la chaleur. Cette solution correspond à la
condition initiale
Nous savons donc trouver une solution à cette équation pour des
conditions initiales bien particulières : celles qui s’écrivent comme des
sommes finies de sinus.
Il vient la même idée que dans le cas de l’équation de la chaleur
: Peut-on résoudre cette équation pour
une condition initiale quelconque en écrivant
comme une “somme infinie” de sinus ?
Avant de se lancer dans des spéculations sur les sommes infinies de fonctions, il faudrait déjà
savoir ce que veut dire une somme infinie de nombres. Dans un prochain chapitre, nous allons étudier
les séries2 numériques.
Puis nous remplacerons les nombres par des fonctions.
Nous voudrions prendre une fonction , définie sur
une intervalle , et l’écrire comme une somme infinie de fonctions trigonométriques, dans l’espoir que
cela nous permettra de résoudre l’équation de la chaleur avec
condition initiale .
Notons tout d’abord que la définition que nous avons donnée d’une somme infinie
de nombres ne s’applique pas naturellement aux fonctions. En effet, la valeur
d’une somme infinie s’exprime comme une limite d’une suite, et pouvoir parler
de la limite d’une suite on a besoin d’une notion de distance - il faut pouvoir dire
quand deux objets sont “proches”. Or, si cette notion est intuitive pour des nombres réels
ou complexes, c’est beaucoup plus délicat de dire quand deux fonctions sont “proches”
ou de définir une “distance” entre deux fonctions.
Mettons brièvement de côté cette difficulté. Si on nous donne
une fonction sur une intervalle ,
comment pourrait-on essayer d’écrire
comme une somme infinie de fonctions trigonométriques ? Une
première idée pourrait être de calculer cette somme par
approximations successives : pour chaque
entier , on pourrait essayer de calculer , qui serait le “meilleur approximant”
de , sous la forme
Peut être qu’en prenant des valeurs de de plus en plus grandes,
on trouvera des , sommes trigonométriques
finies, de plus en plus proches de ?
Peut être que lorsque tend vers , les convergeront vers
une somme infinie de fonctions trigonométriques dont le résultat
est ?
Cette idée d’écrire comme une somme infinie de
fonctions trigonométriques par approximations
successives est séduisante, mais pose beaucoup de questions :
Quel sens donner à une somme infinie de fonctions ?
Qu’est ce que ça veut dire, quand on dit
que deux fonctions sont “proches” ?
Comment quantifier la “distance” entre deux
fonctions ?
Comment calculer effectivement
cette “meilleure approximation” ?
Qu’est ce que cela signifie quand on dit
qu’une suite de fonctions converge
vers une autre fonction ?
Nous avons déjà commencé dans le chapitre précedent
à répondre à la question 1), au moins
dans le cas simple
qui est celui d’une somme infinie de nombres.
Nous chercherons maintenant à comprendre ce que peut vouloir
dire une “bonne approximation” pour des fonctions. En effet,
le premier problème que l’on rencontre lorsqu’on essaie de résoudre
ces deux équations par une méthode d’approximations successives est celui
de définir ce qu’on veut dire par une “bonne approximation”, ou une “distance” entre
deux fonctions.3
Nous allons en particulier regarder de près la question suivante : Supposons donnée sur un intervalle une fonction . Comment
faire pour trouver la meilleure approximation pour de la forme
Si nous ne disposons pas actuellement d’une bonne notion
de distance entre des fonctions4
il existe bien des espaces pour lesquels on connait une définition de distance. Ce
sont les espace géométriques et . De plus, dans ces
espaces, il existe des algorithmes efficaces
qui permettent, étant donnés un point et un plan ou droite ,
de calculer le point de le plus proche de .
Nous allons nous
baser sur ce que nous savons sur et pour définir des
distances entre
fonctions (et plein d’autres choses).
Dans le prochain chapitre, nous allons étudier la notion d’espace
vectoriel, qui réunit (entre autres) les espaces géométriques et les espaces de
fonctions.
Nous serons particulièrement attentifs à la question de l’approximation d’une fonction
quelconque par des sommes de fonctions trigonométriques et
, puisque ces fonctions, qui représentent mathématiquement les phénomènes
physiques ondulatoires, occupent une place très importante
dans les mathématiques au service de la physique.
Et encore
moins d’un algorithme permettant de calculer ce “meilleur approximant” pour une fonction donnée...
Chapitre 2 Rappels d’algèbre linéaire.
2.1 Rappels sur les espaces vectoriels : définitions et exemples.
Un -espace vectoriel est un ensemble tel que
la somme de deux éléments de est encore un
élément de , le produit d’un réel (appelé scalaire réel) par un élément de
est encore un élément de , et qui vérifie les
propriétés habituelles des sommes et produits (,
existence d’un élément nul, d’un opposé, distributivité du
produit par rapport à la somme...). L’exemple typique est l’ensemble
des solutions d’un système homogène d’équations linéaires.
Définition 1
Plus formellement, un espace vectoriel doit être muni d’une
loi interne
et d’une loi externe
appelée parfois multiplication par un scalaire, satisfaisant aux propriétés suivantes:
Il existe un élément tel que pour tout .
pour tout
pour tout
Pour tout , il existe un élément tel que .
Cet élément est alors unique, et est noté .
pour tout
pour tout
pour tout
pour tout .
Un -espace vectoriel est défini de manière analogue
en remplaçant par ,
on peut donc multiplier un élément de par un complexe (un scalaire
complexe).
Remarque 2 On écrira pour .
Exemples :
, l’espace de vecteurs colonnes
avec ,
est un espace vectoriel réel. L’espace de vecteurs colonnes complexes
est un espace vectoriel complexe.
, l’espace de polynômes réels en une variable , est un
espace vectoriel réel. De même, , l’espace de polynômes
complexes en une variable est une espace vectoriel complexe.
, l’espace de polynômes réels en une variable de
degré , est un
espace vectoriel réel. De même, , l’espace de polynômes
complexes en une variable de degré ,
est une espace vectoriel complexe.
, l’espace de matrices à coefficients réels, est un espace vectoriel réel,
Pour tout l’espace de toutes les fonctions continues réelles sur l’intervalle
, est un espace vectoriel réel.
Pour tout et tout entier
l’espace de toutes les fonctions
-fois continument dérivables à valeurs dans les complexes
sur l’intervalle , est un espace vectoriel complexe.
Vérifier tous ces axiomes est fastidieux. Heureusement dans la
pratique, nous travaillerons souvent avec des espaces vectoriels qui
sont inclus dans d’autres pour lesquels on a une procédure de vérification simplifiée.
Définition 3
Soit un -espace vectoriel.
Un sous-espace vectoriel de est un sous-ensemble de
contenant le vecteur nul de , tel que
pour tout nous avons que
pour tout et nous avons que
On montre que l’ensemble est bien
un espace vectoriel avec l’addition et la multiplication héritées de .
Exercice 4
Montrer que les sous-ensembles suivants sont tous des sous-espaces vectoriels.
L’ensemble de tous les tels que .
L’ensemble des solutions d’un système linéaire homogène d’équations.
Un plan d’équation ( fixés) dans .
L’ensemble des polynômes
à coefficients réels qui s’annulent en 1
L’ensemble des matrices symétriques dans .
L’ensemble de toutes les fonctions deux fois dérivables
telles que
dans .
L’ensemble des fonctions de dans de
période (i.e. lorsque pour tout
réel ). Qu’en est-il des fonctions périodiques ?
2.2 Familles libres, génératrices, bases et coordonnées.
Définition 1
On vérifie aisément que l’ensemble des combinaisons linéaires d’une famille de vecteurs
d’un espace vectoriel est un sous-espace
vectoriel de que l’on notera Vect. On dit aussi que
est une famille génératrice de (tout
élément de sécrit comme combinaison linéaire des
éléments de la famille).
Si est une combinaison linéaire de
alors
Vect=Vect, on peut donc enlever
de la famille génératrice sans changer l’espace vectoriel
engendré.
Définition 2
On dit qu’une famille vecteurs
est libre si aucun vecteur n’est combinaison
linéaire des autres, ou
de manière équivalente si l’équation
d’inconnues
a pour unique solution
Une base d’un espace vectoriel est une famille génératrice
et libre. On peut obtenir une base en enlevant tous les éléments
superflus d’une famille génératrice : on commence par
enlever si , puis si est combinaison
linéaire de , puis si est combinaison linéaire de
, etc.
Une base permet de
représenter (de manière unique) un élément d’un espace
vectoriel par un vecteur colonne.
Définition 3
Soit un espace vectoriel réel. Une famille ordonnée
d’éléments de ,
est
une base (finie) pour si pour tout élément il existe
un unique n-uplet
de scalaires
tels que
L’écriture est unique sinon la famille ne
serait pas libre.
Définition 4
Avec les notations de la définition 3,
nous dirons que le vecteur colonne
est le vecteur des coordonnées de dans la base .
Remarque 5(Attention !) Le vecteur de coordonnées de dans une base
dépend autant de la base que du vecteur .
Remarque 6(Notation)Dans ce qui suit il sera très important de
distinguer l’élément dans un espace vectoriel de dimension finie (qui peut être un
vecteur colonne, ou une matrice, ou une fonction, ou un polynôme, ou plein
d’autres choses) et le vecteur colonne qui le représente dans une
base donnée.
Pour bien distinguer ces deux objets, nous soulignerons
systématiquement les noms des variables qui sont des vecteurs colonnes,
et ne soulignerons pas ceux qui ne le sont pas.
Exemples 7
Les vecteurs
forment une base de , appelée la base canonique.
Si est un élément de alors on
peut écrire
autrement dit, le vecteur de coordonnées de
dans la base canonique est . Ceci est une
source importante de confusion.
Montrons que est une base de . Nous considérons pour
un vecteur arbitraire l’équation
c’est-à-dire
ce qui (après pivot de Gauss) nous donne l’unique solution
Cette famille est donc une base et
le vecteur de coordonnées de
dans la base est
La famille forme une base de l’espace vectoriel
des polynômes à coefficients dans de degré au plus . Si
est un élément de alors son vecteur de coefficients dans la base est
On considère , l’espace de matrices carrées complexes
. Elle a une base
et dans cette base la matrice a
pour vecteur de coefficients
.
On considère l’espace de fonctions réelles deux fois dérivables
sur qui satisfont l’équation . Vous avez vu
en L1
que cette espace est de dimension 2 et
la famille en est une base.
Le vecteur de coordonnées de la fonction dans cette
base est .
Définition 8
Lorsqu’un espace vectoriel possède une base finie on dit que
est de dimension finie.
Soit le nombre d’éléments de cette base de .
Alors une famille libre de a au plus éléments. Sinon,
considérons une famille libre . On pose le système
en écrivant les coordonnées des vecteurs dans la base . Ce système a plus
d’inconnues () que d’équations () donc il admet
une solution non identiquement nulle, ce qui est absurde car on a supposé la
famille libre.
(En faisant le pivot de Gauss on peut
écrire le système sous forme échelonnée. Si on trouve un pivot dans
les colonnes de 1 à , on peut exprimer en fonction
de avec la dernière équation, puis
en fonction de , etc. et on trouve une solution non
identiquement nulle. S’il y a une colonne sans pivot, par exemple la
troisième, alors on prend ,
la deuxième équation donne en fonction de
et la première équation en fonction de .
On en déduit que :
Proposition 9
Toutes les bases de ont alors le même nombre d’éléments : ce nombre
s’appelle la dimension de .
Exemples 10
L’espace est de dimension .
L’espace est de dimension .
L’espace est de dimension .
L’espace n’est pas de dimension finie (sinon on
aurait une base, on regarde le plus grand degré des éléments
de la base, un polynôme de degré plus grand ne peut pas être
combinaison linéaire des éléments de la base).
On peut aussi montrer que l’espace des fonctions -périodiques n’est pas de
dimension finie. Un des objectif des séries de Fourier, c’est en
quelque sorte d’en donner une “base” mais ayant un nombre infini d’éléments.
Le résultat suivant sera souvent
utilisé pour vérifier qu’une famille de vecteurs est une base.
Lemme 11
Soit un espace vectoriel de dimension et soit une
famille de vecteurs dans . Si la famille est
libre alors elle est une base.
En effet, si , alors la famille n’est
pas libre puisqu’elle a éléments, donc on a une combinaison
linéaire non identiquement nulle
On a car est libre, donc
est combinaison linéaire de .
Proposition 12
Tout sous-espace d’un espace de dimension finie est de
dimension finie (avec égalité si et seulement si ).
En effet, une famille libre de est une famille libre de donc a
au plus éléments. On crée ensuite une famille libre de
ayant un nombre maximal d’éléments, c’est une base de .
Les coordonnées d’un élément
dans une base seront essentielles dans la suite, car elles nous permettront
de ramener tous nos calculs à
de simples multiplications de matrices. Il nous sera, d’ailleurs,
souvent utile de simplifier nos calculs au maximum en choississant une base
bien adaptée. Pour faire cela, il nous
faut comprendre comment le vecteur
des coordonnées d’un élément dans une base
se transforme lorsqu’on change
de base.
Définition 13
Soit un espace vectoriel de dimension et soient et
des
bases de . On appelle matrice
de passage de vers la matrice
obtenue en écrivant en colonnes les coordonnées des
dans la base :
où est le vecteur de coordonnés de
dans la base
.
Remarque 14Cas particulier
Si est la base canonique de
, la matrice de passage est donnée par
C’est-à-dire que la première colonne de est formée par les
composantes de , la deuxième colonne de par les
composantes de , etc.
Soit une base de . Soit une autre base de , et tel que
Cette équation devient un système si on remplace par les coordonnées des et
de dans la base . Ce système a pour inconnues
les coordonnées de dans la base , il a comme matrice
la matrice de passage de vers
et comme second membre les coordonnées de dans
la base . D’où le :
Théorème 15
Soient et des bases de et soit un élément de
. Soient et les vecteurs de
coordonnés de dans les bases et . Soit la
matrice de passage de vers . Alors
ou, de façon équivalente
Remarque 16Attention il faut multiplier par
(et pas ) le vecteur colonne des composantes de dans
la base pour obtenir le vecteur colonnes des composantes
de dans la base .
Il y a une généralisation de la notion de base qui sera utile dans la
démonstration d’un théorème ultérieur.
Définition 17
Soient des sous-espaces vectoriels de .
On dit que est la somme directe des sous-espaces , et on écrit
, si et seulement si
pour tout il existe des uniques
éléments tels que
On montre aussi que :
Proposition 18
Si et pour chaque nous avons que est une base de alors
la concatenation est une base de .
2.3 Applications linéaires.
Considérons maintenant la classe des applications qui préservent la
structure d’un espace vectoriel.
Définition 1
Soient et deux -espaces vectoriels.
Une application linéaire
de dans est une
application qui commute avec l’addition et la
multiplication par un réel, donc vérifiant
pour tous
(l’image de la somme est la somme des images)
pour tous
(l’image du produit par est le produit par de l’image)
Dans le cas où l’espace d’arrivée est on dira que est une
forme linéaire
Remarque 2Pour toute application linéaire on a
nécessairement .
Pour définir une application linéaire entre deux espaces vectoriels
sur ,
on remplace ci-dessus par
Exemples :
L’application donnée par
est linéaire. Elle l’est aussi de .
L’application donnée par
n’est pas linéaire.
L’application de définie
par n’est pas linéaire. Mais si on
considère comme un -espace
vectoriel (de dimension 2) elle le devient.
L’application des fonctions continument dérivables dans les
fonctions continues (),
définie par est linéaire.
L’application de transposition dans l’espace vectoriel des matrices carrées
donnée par est linéaire.
L’application de l’espace des polynômes de degré inférieur ou égal à 3 dans
l’espace des polynômes de degré inférieur ou égal à 1
, ,
est une application linéaire.
Exercice 3
Démontrer que les applications 1, 3, 4, 5 sont bien linéaires et que 2 ne
l’est pas.
Définition 4
Le noyau de , noté , est l’ensemble
C’est un sous-espace vectoriel de .
Définition 5L’image
de , notée , est l’ensemble
C’est un sous-espace vectoriel de .
Exercices
Montrer que le noyau et l’image d’une application linéaire sont des sous-espaces vectoriels.
Calculer l’image et le noyau des applications linéaires données en exemple.
Définition 6
On appelle rang d’une
application
linéaire la dimension de son image Im.
On rappelle le théorème du rang, dont nous aurons besoin dans une démonstration ultérieure.
Théorème 7
Soit une application linéaire. On suppose que
est de dimension finie.
Alors est de dimension finie et
Preuve : on prend une base de ,
les images forment une partie
génératrice de Im qui est donc de dimension finie, on
prend une base de Im et on écrit les coordonnées des vecteurs
images dans une matrice (en ligne , les coordonnées de ).
On ajoute une colonne contenant les vecteurs pour
savoir de quel vecteur on a l’image. On applique le pivot de Gauss.
On obtient une matrice échelonnée
dont les lignes non nulles (colonne rajoutée non comprise)
forment une base de Im, et les lignes
nulles sont les images d’une base de Ker, base que l’on lit dans
la colonne rajoutée. Comme le nombre de lignes est la somme des
deux nombres précédents, on conclut.
2.4 Calcul Matriciel.
Dans cette section nous ferons des rappels sur les matrices et leurs manipulations.
Celles-ci seront un élément clé de
notre travail ce semestre.
Définition 1
Etant donnés deux entiers et strictement positifs,
une matrice à lignes et
colonnes est un tableau rectangulaire de réels
. L’indice de ligne va de à ,
l’indice de colonne va de à .
Les entiers et sont les dimensions de la matrice,
est son coefficient d’ordre .
Notons qu’une matrice peut être précisée en donnant une expression
pour ses coefficients Par exemple, la matrice de taille
donnée par le formule est la matrice
L’ensemble des matrices à lignes et colonnes et à
coefficients réels est noté
. Ce qui suit s’applique aussi, si on remplace
par , à l’ensemble des matrices à coefficients complexes.
Notons trois cas spéciaux :
Un vecteur de éléments peut s’écrire comme une
vecteur colonne
(matrice
).
Un vecteur de éléments peut s’écrire
comme un vecteur ligne (matrice ).
Un nombre réel peut être vu comme une matrice .
Du point de vue du calcul matriciel - en particulier lorsqu’il s’agit de faire
des multiplications - un vecteur ligne ne se comporte pas comme un vecteur
colonne. Nous ferons cette distinction en considérant, par exemple,
que les vecteurs
sont différents, même s’ils contiennent les mêmes nombres dans
le même ordre. Toutefois certains logiciels, notamment Xcas,
permettent de multiplier une matrice par un vecteur ligne,
qui est alors remplacé par le vecteur colonne ayant les mêmes
composantes.
Notation. Si est un vecteur colonne à éléments,
on notera le coefficient par .
L’ensemble est naturellement muni d’une addition
(on peut ajouter deux matrices de mêmes dimensions terme à
terme) et de multiplication par des scalaires (on peut multiplier une matrice
par un réel terme à terme).
Addition :
Si et sont deux matrices de
, leur somme est la matrice . Par
exemple :
Multiplication par un scalaire :
Si est une matrice de ,
et est un réel, le produit est
la matrice .
Par exemple :
Observons que ces opérations auraient le même effet si les
matrices étaient disposées comme des -uplets de réels
(toutes les lignes étant concaténées, par exemple)
Définition 2 (Matrice d’une application linéaire)
Soit une application linéaire d’un espace vectoriel
de base dans un espace vectoriel
de base . On appelle matrice de
dans les bases et la matrice dont les colonnes
sont les composantes dans la base des images
des vecteurs de la base .
Si on choisit (presque toujours) .
Exemple
Soit l’application linéaire de
dans qui a un vecteur
associe le vecteur . Sa matrice
dans les bases canoniques de
et a pour première colonne
les composantes de ,
pour deuxième colonne les composantes de
et pour troisième colonne
les composantes de
donc
On observe qu’on a en ligne les coefficients en des coordonnées du
vecteur image.
Applications : Noyau et image d’une application linéaire de
matrice
Soit a pour matrice relativement à des
bases et .
Pour calculer le noyau de , il faut résoudre le système
linéaire
dont la matrice est .
On réduit donc (en lignes) par
l’algorithme du pivot de Gauss pour se ramener à une matrice
triangulaire.
Dans l’exemple ci-dessus, on remplace la ligne par ce qui
donne la matrice
La deuxième équation donne soit .
Ensuite la première équation donne soit
. Donc et Ker
est de dimension 1, engendré par le vecteur .
Le théorème du rang donne alors
que Im est de dimension 3-1=2, c’est donc
tout entier.
Dans le cas général, les vecteurs colonnes de forment
une famille génératrice de Im. Il suffit de réduire
en colonnes par l’algorithme du pivot de Gauss, une fois
la réduction terminée les colonnes non nulles forment une base de Im.
N.B : La commande rref de Xcas permet de réduire une matrice de
vecteurs lignes, il faut donc transposer la matrice , la réduire
avec rref puis extraire les vecteurs lignes non nuls pour avoir
les coordonnées d’une base de Im.
Proposition 3
Soit une application linéaire de muni de la base
vers muni de la base et la matrice de
dans les bases et . Soit un
vecteur de composantes dans la base .
Alors les composantes de dans la base sont
données par le vecteur de composantes :
En effet :
Soit une application linéaire de de base
dans de base et
une autre application linéaire de dans de base
. On peut montrer que
la composée
est une application linéaire de
dans . Que se passe-t-il pour les matrices représentant
, et la matrice de la composée ? On vérifie que la matrice
de la composée s’obtient en faisant le produit
matriciel
des matrices de et (cela peut même être une
façon de définir le produit de matrices).
Définition 4
Soient trois entiers strictement positifs.
Soit une matrice de et soit
une matrice de . On appelle
produit matriciel de par la matrice
dont le terme général est
défini, pour tout et pour tout
par :
Nous insistons sur le fait que le produit de deux matrices n’est
défini que si le nombre de colonnes de et le nombre de
lignes de sont les mêmes (pour la composition des applications
linéaires, ceci correspond au fait
que l’espace vectoriel de départ de la deuxième application
est le même que l’espace vectoriel d’arrivée de la première
application ,
ils ont donc même dimension).
Dans le cas particulier où est un vecteur colonne de taille
cette opération nous fournit un vecteur colonne de taille .
Posons par exemple :
La matrice a 3 lignes et 2 colonnes, la matrice a 2 lignes et
4 colonnes. Le produit a donc un sens : c’est une matrice à 3
lignes et 4 colonnes.
Le produit matriciel a les propriétés habituelles d’un
produit, à une exception notable près : il n’est pas commutatif
Proposition 5
Le produit matriciel possède les propriétés suivantes.
Associativité : Si les produits et sont
définis, alors les produits et le sont aussi et ils
sont égaux.
Linéarité à droite : Si et sont deux matrices de
mêmes dimensions, si et sont deux réels et si
a autant de colonnes que et ont de lignes, alors
Linéarité à gauche : Si et sont deux matrices de
mêmes dimensions, si et sont deux réels et si
a autant de lignes que et ont de colonnes, alors
Ces propriétés se démontrent par le calcul à partir de la définition
4 ou en interprétant le produit
comme une composition d’applications linéaires.
La transposition est une opération
qui va intervenir plus loin dans le calcul matriciel avec les formes bilinéaires
(d’un point de vue théorique cela provient de la dualité, qui dépasse le cadre de ce cours).
Définition 6
Étant donnée une matrice de , sa
transposée est la matrice de dont le
coefficient d’ordre est .
Pour écrire la transposée d’une matrice, il suffit de transformer
ses lignes en colonnes. Par exemple :
Observons que la transposée de la transposée est la matrice
initiale.
La transposée d’un produit est le produit des transposées, mais il
faut inverser l’ordre des facteurs.
Proposition 7
Soient trois entiers strictement positifs.
Soient une matrice de et
une matrice de . La transposée du
produit de par est le produit de la transposée de par la
transposée de .
Par exemple, en reprenant les matrices et définies
ci-dessus :
Définition 8
Soit un entier strictement positif
et une matrice carrée à lignes et
colonnes. On dit que est symétrique si pour tous
, ses coefficients d’ordre et sont
égaux, ce qui est équivalent à dire que est égale à sa
transposée.
Le produit d’une matrice par sa transposée est toujours
une matrice symétrique. En effet :
2.5 Matrices carrées
En général si le produit est défini, le produit n’a
aucune raison de l’être. Le produit d’une matrice par sa
transposée est une exception, les
matrices carrées en sont une autre : si et sont deux
matrices à lignes et colonnes, les produits et
sont tous deux définis et ils ont les mêmes dimensions que et
. En général ils ne sont pas égaux. Par exemple,
Nous noterons simplement l’ensemble
des matrices carrées à lignes et colonnes, à
coefficients réels. Parmi elles la matrice identité,
notée , joue un rôle particulier.
En effet, elle est l’élément neutre du produit matriciel :
pour toute matrice ,
On le vérifie facilement à partir de la définition
4.
Définition 1
Soit une matrice de . On dit que est inversible
s’il existe une matrice de , notée , telle que
Par exemple :
Observons que l’inverse, s’il existe, est nécessairement
unique. En effet, soient et deux matrices telles que
et .
En utilisant l’associativité,
le produit vaut ,
mais aussi . Donc .
Nous rappelons
la proposition suivante, qui nous dit qu’il suffit de trouver une matrice
telle
que pour être sûr que est
inversible et que son inverse est .
Proposition 2
Soit une matrice de . Supposons qu’il existe une
matrice telle que ou bien. Alors est
inversible et .
Si et sont deux matrices inversibles de , leur
produit est inversible.
Proposition 3
Soient et deux matrices inversibles de . Le
produit est inversible et son inverse est .
Preuve :
Nous utilisons le théorème 2, ainsi que
l’associativité du produit :
L’inverse d’une matrice et la proposition 5
permettent de donner une formule de changement
de base pour une application linéaire.
Proposition 4
Soit une application linéaire d’un espace vectoriel
de base vers un espace vectoriel de base , de matrice
relativement à ces bases et .
Soit une autre base de de matrice de passage dans
la base ,
et une autre base de de matrice de passage dans
la base .
Alors la matrice de relativement aux bases et
est donnée par
Si on prend et donc et on a
Exemple 1 Dans vu comme le plan complexe,
on considère l’application linéaire . On vérifie qu’il s’agit bien d’une application
linéaire (c’est une symétrie par rapport à l’axe ).
Dans la base canonique , sa matrice est
Prenons la base dont les vecteurs ont pour affixe
et , la matrice de passage de à
est
donc la matrice de dans est
ce qu’on vérifie directement puisque les deux vecteurs de base
sont conjugués l’un de l’autre.
Exemple 2
Dans , on considère la projection orthogonale sur la droite
vectorielle engendrée par le vecteur .
On prend pour
la base canonique et pour la base formée
par et un vecteur orthogonal .
onload
L’image de est
lui-même i.e. , donc la première colonne de est .
L’image de est le vecteur nul, donc
L’image du vecteur par la projection est
de même pour donc les 2 colonnes de ont pour
coordonnées
La matrice de passage
de est (coordonnées de et en colonnes)
Vérifions que .
Définition 5
On définit le rang d’une matrice comme étant la dimension du
sous-espace vectoriel engendré par ses vecteurs colonnes.
Il s’agit donc du rang de toute application linéaire ayant comme
matrice.
Proposition 6
Multiplier une matrice à droite ou/et à gauche
par une matrice inversible ne change pas son rang.
Cela résulte du fait que le produit de matrices correspond à la
composition de deux applications linéaires et que composer avec
une application linéaire inversible ne change pas le rang. En effet
pour la composition à droite, si est inversible, alors
Im=Im,
pour la composition à gauche, les
images par d’une base de Im forment une base de
Im.
Enfin, nous aurons parfois besoin du lemme suivant:
Lemme 7
Soit une matrice carrée .
Si pour tout
nous avons que alors .
Preuve :
Soit pour tout le vecteur colonne défini par
Alors pour tout on a que et donc
.
Réécrivons maintenant notre problème initial dans le language des espaces
vectoriels. Nous considérons une fonction réelle continue , définie
sur une intervalle
().
Nous voulons chercher une fonction qui est de la forme
et qui doit être “aussi proche que possible” de .
Dans le langage des espaces vectoriels on pourrait écrire la chose suivante :
Soit le sous-espace de tous les éléments
qui peuvent s’écrire sous la forme
est alors un sous-espace
vectoriel de (exercice : démontrez-le !):
de plus, est de dimension
finie et admet pour base finie la famille
Nous cherchons à identifier un
élément qui est “le plus proche que possible” de .
Notre problème initial est donc un exemple particulier du problème suivant :
Question. J’ai un espace vectoriel et un élément .
Il y a dans un sous-espace spécial de dimension finie . Je veux
approcher au mieux par un élément . Comment faire ? Et tout
d’abord, qu’est ce que ça veut dire “approcher au mieux” ?
Dans les deux prochains chapitres, nous aborderons surtout la question :
qu’est ce
que ça veut dire “approcher au mieux” ?
Chapitre 3 Formes bilinéaires.
3.1 Le produit scalaire canonique sur .
Dans le chapitre précedent, nous avons étudié la notion d’espace vectoriel. Cette notion est utile parce qu’elle
englobe à la fois des espaces géométriques tels que et et
des espaces de fonctions tels que et
.
Notre but est maintenant d’utiliser cette notion pour étendre des idées géométriques (distance et
angle, par exemple) à des espaces de fonctions. Pour faire cela,
il nous sera nécessaire d’identifier une formule purement
algébrique
qui permet de calculer distances et angles dans ,
faisant intervenir le produit scalaire canonique sur .
Définition 1
Le produit scalaire canonique sur est une fonction
prenant en argument deux vecteurs et
définie par
Le produit scalaire canonique tire son intérêt du fait qu’il
encode la géométrie de l’espace .
Théorème 2
Soient et deux vecteurs dans
,
soit la longueur de la différence
et soit l’angle entre ces deux vecteurs.
On a :
Il existe donc une formule qui permet de calculer la distance et l’angle entre deux vecteurs utilisant seulement le produit
scalaire. Nous allons donc essayer de définir des classes
de fonctions sur des espaces vectoriels qui ressemblent au produit scalaire sur dans l’espoir qu’elles nous
livront une bonne notion de “distance”.
Une des propriétés clés du produit scalaire est qu’il se comporte effectivement comme un produit sous les
opérations algébriques de base sur les vecteurs,
c’est-à-dire qu’on a, pour tout et pour tout
Nous allons donc commencer par étudier les fonctions de deux vecteurs qui respectent ces conditions.
3.2 Formes bilinéaires : définitions et exemples.
Dans cette section, de nouveau, nous présenterons la théorie des formes bilinéaires réelles,
mais tous nos résultats seront valables pour des formes complexes.
Définition 1
Soient un -espace vectoriel,
et soit une fonction de 2 variables de à valeur
réelle .
On dit que est une forme
bilinéaires’il se comporte comme un produit, i.e. :
pour tout et nous avons que
pour tout et nous avons que
pour tout , et nous avons que
.
On dit que est symétrique si
pour tout ,
On dit que est
antisymétrique si
pour tout .
Remarque :
On utilise le terme forme parce que la valeur de
est un réel. Le terme bilinéraire vient du fait que
si on fixe un des arguments, on a une application linéaire par
rapport à l’autre argument.
Exemples :
L’application
est une forme bilinéaire symétrique.
Le produit scalaire
est une forme bilinéaire symétrique. Lorsque ou , on retrouve le produit scalaire
étudié ci-dessus. Nous appelons cette forme le produit scalaire canonique sur .
L’application qui à deux polynômes et associe le produit
est une forme bilinéaire. Elle
n’est pas symétrique et n’est pas antisymétrique.
L’application qui à deux matrices carrées et associe la
trace du produit des deux matrices
est une forme bilinéaire symétrique.
L’application déterminant
est bilinéaire et antisymétrique.
L’application
n’est pas bilinéaire.
En effet, posons .
On a
L’application qui associe à deux fonctions continues et
l’intégrale de leur produit sur
est une forme bilinéaire symétrique.
Pour toute fonction continue ,
l’application
est une forme bilinéaire symétrique.
Un cas particulier intéressant est celui ou on applique une forme bilinéaire à deux vecteurs identiques.
Définition 2
Soit un espace vectoriel sur et soit
une forme bilinéaire symétrique sur . Alors la forme quadratique
associée à ,
notée , est la fonction définie sur par
La forme quadratique
associée à une forme bilinéaire est un analogue de la fonction
carrée d’un nombre réel, ou de
la norme de au carré () quand est un vecteur
dans ou .
Les formules suivantes (dites “formule de polarisation” et “formule du
parallélogramme”) permettent
de rétrouver une forme bilinéaire symétrique à partir de la
forme quadratique associée.
Lemme 3
Soit un espace vectoriel, une forme bilinéaire sur
et la forme quadratique associée. Alors pour tout
on a
La démonstration de ce lemme est laissée en exercice.
Remarque :
Ces formules sont les généralisations des relations suivantes sur :
3.3 Formes bilinéaires : représentation matricielle.
Nous allons maintenant définir la matrice d’une forme bilinéaire dans une base, qui va nous permettre,
modulo le choix d’une base, de réduire les calculs faisant intervenir des formes bilinéaires sur
des espaces de dimension finie à des multiplications de matrices.
Définition 1
Soit un -espace vectoriel de dimension finie , soit
une base de , et soit une forme bilinéaire.
La matrice de dans la base e est la matrice ,
, dont les coefficients sont
donnés par
Lemme 2
Soit un espace vectoriel de dimension finie , soient , soit
une base de , notons
et
les vecteurs coordonnées de et dans la base e
(autrement dit ).
Soit une forme bilinéaire, et
soit la matrice
de dans la base .
Alors on a
Preuve :
On a
puisque est linéaire en .
Or on a aussi
Ainsi, on obtient
On a aussi
et donc
Corollaire 3
Soit un espace vectoriel de dimension finie .
Soit une forme bilinéaire. Les propositions
suivantes sont équivalentes.
est symétrique
Pour tout base e de , la matrice de dans la base e est symétrique.
Il existe une base e de telle que la matrice de dans la base e est symétrique.
Preuve :
Soit une forme bilinéaire, et soit e une base de .
Si est symétrique, alors on
a
et ceci s’écrit matriciellement , par définition de
la matrice de . On a donc .
L’implication étant claire, il reste à montrer .
Supposons qu’il existe une base e de telle que est symétrique. Soient , et soient
leurs vecteurs de coordonnées dans la base .
On a alors que
Le membre de droit est une matrice : elle est donc égale à sa propre transposée et on a
CQFD.
Le lemme précédent admet une réciproque, bien utile pour démontrer qu’une application est bilinéaire et donner sa matrice représentative dans une base fixée.
Lemme 4
Soit un -espace vectoriel de dimension finie, et soit une base de .
Pour tout , l’application
est une forme bilinéaire, dont la matrice dans la base e
est donnée par
Exemples
L’application est bilinéaire, et sa matrice représentative dans la base canonique de est
Considérons l’application qui à deux polynomes de degré
inférieurs ou égaux à 2 associe le produit de leur valeur en 1
et 0
On peut vérifier directement que est bilinéaire, mais on peut aussi utiliser la remarque précédente.
Pour cela, considérons la base de . On écrit
On vérifie alors que . Donc est bilinéaire et sa matrice représentative dans la base est
Regardons maintenant ce qui se passe lorsque l’on effectue un changement de base.
Proposition 5
Soit un -espace vectoriel de dimension finie , soient et deux bases de , et soit la matrice de passage de la base
à la base (c’est-à-dire colonne par colonne
la matrice des coordonnées des vecteurs de dans la base e).
Soit une forme bilinéaire, soit sa matrice dans la base et soit sa matrice dans la base . Alors on a
Preuve :
Soient , soient leur vecteurs de coordonnées dans la base et
soient leurs coordonnées dans la base . On a alors et pour tout et donc
c’est à dire que par 7.
Nous sommes prêts à définir la notion de rang.
Définition 6
Soit une forme bilinéaire. Le
rang de est le
rang de n’importe quelle matrice
représentative de dans une base de .
Le rang est bien défini et ne dépend pas de la base choisie
d’après la proposition précédente et la proposition 6.
3.4 Orthogonalité.
Les expressions permettant de calculer peuvent se
simplifier grandement lorsque
la base e est adaptée.
Par exemple, il est souvent utile de se débarasser des termes
croisés lorsque c’est possible.
On introduit pour cela la notion d’orthogonalité.
Définition 1
Soit un espace vectoriel de dimension sur , et soit une forme bilinéaire symétrique.
On dit que deux vecteurs sont -orthogonaux si .
On le note , ou s’il n’y a pas de confusion possible.
On dit que la base est -orthogonale si les vecteurs de la base sont -orthogonaux
deux à deux, c’est-à-dire si on a
Lemme 2
La base est -orthogonale si et seulement si , la matrice de dans la base , est diagonale.
Preuve :
La base est -orthogonale
si si est diagonale.
On dit que e est -orthonormée si on a
Lemme 3
La base est -orthonormée si et seulement si est la matrice identité.
Preuve :
Laissée en exercice.
Définition 4
On dit que deux sous-espaces de sont orthogonaux si
on a
On dit que est la somme directe orthogonale des sous-espaces si et les sous-espaces sont orthogonaux deux à deux. On
note alors
On a le :
Lemme 5
Soit un espace vectoriel et soit une forme bilinéaire sur . Soient
des sous-espaces de tels que .
Si pour chaque , est une base orthonormée
de alors la concatenation
est une base orthonormée de
En effet tout vecteur de cette base de est dans un des
donc , et il est orthogonal à tout autre vecteur de
cette base de , soit parce que est orthonormée si
, soit parce que les sont orthogonaux entre eux.
Exemples
L’application qui a une paire de polynômes de degré au plus
2 associe
est bilinéaire symétrique.
De plus, et .
Par contre, et ne sont pas -orthogonaux, puisque l’on a
.
La base n’est donc pas -orthogonale.
On peut vérifier que la base est -orthogonale.
Elle n’est pas -orthonormée puisque
On peut la rendre -orthonormée en
multipliant chaque élément de la base par une constante bien
choisie.
Plus précisement, la base :
est une base -orthonormée.
La base canonique de est -orthonormée pour la forme bilinéaire symétrique
Soit , et soient et
le sous-espace
des fonctions paires et impaires respectivement.
On sait que l’on a
Considérons sur l’application
Alors, on a
On a donc
Soit la forme bilinéaire symétrique sur de matrice
Alors est orthogonal à tout vecteur,
est orthogonal à lui-même.
La base est -orthogonale.
Lemme 6
Soit un espace vectoriel de dimension finie , soit une base de ,
et soient
deux vecteurs de .
Soit une forme bilinéaire
symétrique.
Si est -orthogonale, on a
En particulier, si est -orthonormée, on a
Il n’existe pas toujours une base -orthonormée.
En effet, si est bilinéaire symétrique et s’il existe une base
-orthonormée
alors le lemme précédent montre que pour tout .
Par exemple, la forme bilinéaire symétrique sur
définie par
n’admet pas de base -orthonormée, puisque .
En revanche, on a le théorème suivant:
Théorème 7
Soit un espace vectoriel de dimension finie sur , et
soit une forme bilinéaire symétrique.
Alors il existe une base de qui est -orthogonale.
Preuve :
On démontre l’existence d’une base -orthogonale par
récurrence sur .
Idée de la preuve : prenons un vecteur , et regardons l’ensemble
des vecteurs -orthogonaux à , c’est un sous-espace de dimension ou
. Si la dimension vaut , est orthogonal à tout le
monde, on peut prendre un sous-espace de dimension qui
ne contient pas , une base -orthogonale de ce
sous-espace auquel on ajoute convient. Si la dimension vaut , on prend une base
-orthogonale de ce sous-espace, si n’appartient pas
au sous-espace, on ajoute à la base. On a donc intérêt à choisir tel que
(dans l’exemple sur , on ne
peut pas par exemple prendre qui est orthogonal à lui-même).
Soit donc la propriété:
Pour tout -espace vectoriel de dimension et tout , il existe une base -orthogonale.
Si , il n’y a rien à démontrer.
Supposons que soit vraie, et soit une forme bilinéaire symétrique avec .
Si , toute base est -orthogonale, et on a fini.
On suppose donc que . Soit la forme quadratique associée.
Par le formule de polarisation, si alors , ce qui
n’est pas le cas.
Il existe donc un tel que , c’est à dire,
.
L’application
est alors une application linéaire non nulle, puisque
et son image est donc .
Par le théorème du rang,
Par hypothèse de récurrence, il existe une base de qui est orthogonale pour
la forme
Montrons que est une base de .
Puisque , il suffit de montrer que la famille est libre. Soient
tels que
En appliquant à cette égalité et en utilisant la linéarité, on obtient
Puisque , on obtient . Comme , on obtient . On a donc
Comme est une base de , ils sont linéairement indépendants, et on obtient donc
Ceci prouve que e est une base de . Il reste à vérifier que cette base est -orthogonale.
Par choix des , on a
et aussi
parce que .
On a donc que
Ainsi, est une base -orthogonale.
Ceci achève la récurrence.
Remarque
Le résultat précédent peut être faux si n’est pas bilinéaire symétrique.
Par exemple, si est
antisymétrique,
c’est-à-dire si on a
et si est non nulle, alors il n’existe pas de base
-orthogonale de .
En effet, si est une telle forme, alors on
a
On a donc
Supposons maintenant que est une base
-orthogonale.
On a donc
Comme pour tout puisque e est
-orthogonale,
on en déduit que si est la matrice de dans
alors
Le Lemme 2 entraîne alors que l’on
a
ce qui contredit le fait que est non nulle.
Un exemple d’une telle forme bilinéaire est donné
par
le déterminant de deux vecteurs de ,
Proposition 8
Soit un sous-ensemble d’un espace vectoriel , et une
forme bilinéaire symétrique sur . L’ensemble des vecteurs
-orthogonaux à tous les él’ements de est un
sous-espace vectoriel de , on le note .
On a Vect et si est une famille
génératrice de Vect alors .
Preuve : utiliser la linéarité de par rapport à un de
ses arguments.
Pour chercher l’orthogonal d’un ensemble (en dimension finie), il
suffit donc de trouver une base de Vect et de résoudre le
système linéaire
Définition 9
Soit un espace vectoriel et une
forme bilinéaire symétrique sur .
On appelle noyau de l’orthogonal de l’espace tout
entier.
En dimension finie, si on a une base de , et si est la
matrice de , le noyau de est le noyau de
l’endomorphisme de matrice
En effet, si et ont pour coordonnées les vecteurs colonnes
et , on a , donc si est dans le
noyau de l’endomorphisme de matrice , alors et
. Réciproquement, on prend .
Exercice : calculer les noyaux des formes des exemples ci-dessus.
Si est une base -orthogonale, on voit que
le noyau de a pour base
l’ensemble des vecteurs de tels que ,
la dimension du noyau de est le nombre de coefficients nuls sur la diagonale
de (qui est diagonale). Ce nombre ne change donc pas si on prend
une autre base -orthogonale.
Définition 10
Soit un espace vectoriel de dimension finie et une
forme bilinéaire symétrique sur . On définit le rang de
par
SI est une base de , c’est aussi le rang de la matrice de
dans la base .
Le calcul du rang se fait donc comme si était une matrice
d’application linéaire.
Si est une base -orthogonale, le rang de est le
nombre de coefficients non nuls sur la diagonale de . Ce nombre ne change donc pas si on prend
une autre base -orthogonale.
En fait on a un résultat un peu plus général, qui dit que le
nombre de coefficients strictement positifs et le nombre de
coefficients strictements négatifs
ne dépend pas de la base -orthogonale, c’est le
théorème de Sylvester (et la définition de la signature) que
nous verrons plus bas.
3.5 Calcul effectif d’une base -orthogonale.
3.5.1 Lien avec la forme quadratique correspondante.
Nous allons calculer une base -orthogonale en exploitant la forme
quadratique qui lui est associée. Rappelons que la forme
bilinéaire symétrique peut être reconstruite de la forme
quadratique via la formule de polarisation
Nous disons alors que est la forme polaire de , que
nous noterons parfois .
Exemples
La norme euclidienne de définie par
est une forme quadratique, de forme polaire le
produit scalaire usuel
En effet, l’application est bilinéaire symétrique et on a clairement .
Vérifions la formule de polarisation. On a que
L’application qui a une fonction continue sur à valeurs
réelles
associe
est une forme quadratique, de forme polaire
Vérifions la formule de polarisation.
Définition 1
Soit un -espace vectoriel de dimension finie , et soit
une forme quadratique.
Soit e une base de . La matrice de dans la base e est la matrice de la forme polaire dans la base .
C’est une matrice symétrique par le Corollaire 3.
Le rang de , noté , est le rang de sa forme polaire.
On dit que e est -orthogonale (resp. -orthonormée) si elle est -orthogonale (resp. -orthonormée).
Lemme 2
Soit un espace vectoriel de dimension finie et une base
pour . Soit , et soit le vecteur
coordonnées de dans la base e.
Soit une forme quadratique, et soit sa matrice dans la base
. Alors on a
En particulier, si e est -orthogonale, c’est à dire si est
diagonale, alors on a
Le lemme suivant nous permet de passer directement de la forme quadratique
a sa matrice sans calculer le forme polaire .
Lemme 3
Soit un espace vectoriel de dimension finie . Soient , et soit une base de . Alors pour tout , l’application définie sur par
est une forme quadratique, et sa matrice dans la base
est donnée par
La démonstration est laissée en exercice au lecteur. Attention au facteur 2 !
Exemple :
L’application définie sur
par
est une forme quadratique, et sa matrice représentative dans la base canonique de est donnée par
Soient maintenant une forme bilinéaire sur un espace ,
sa forme polaire, une base pour .
Soit un élément arbitraire et son vecteur de coordonnées dans la
base . Alors
3.5.2 Algorithme de Gauss, signature
Nous allons maintenant décrire un algorithme, dit algorithme de
Gauss, qui permet de trouver une base -orthogonale.
Soit une base -orthogonale et une base quelconque,
la matrice de passage de à . Si un vecteur a pour
coordonnées dans la base et
dans la base , on a donc :
Pour trouver une base -orthogonale, nous allons effectuer le
processus inverse, partir de l’expression de en fonction des
et essayer de l’écrire sous la forme (1)
de somme/différences de
carrés de combinaisons linéaires indépendantes des coordonnées
de . La matrice de passage de à s’obtient alors en
inversant , la -ième colonne de cette matrice ,
qui est le vecteur colonne des coordonnées du -ième vecteur de la base
-orthogonale, s’obtient en résolvant le système
Algorithme de Gauss
Soit un -espace vectoriel de dimension finie , et soit e une base de .
Soit une forme quadratique, et soit sa matrice représentative dans la base e.
Si , on a donc
On procède par récurrence sur le nombre de variables. A chaque étape, il
y a deux cas.
S’il existe un indice tel que , on regroupe tous les termes faisant intervenir la variable , et on complète le carré. On écrit
où est une forme linéaire en les variables , et est une forme quadratique en les variables .
On a alors
On peut donc écrire
où est une forme quadratique en les variables .
Si pour tout , mais qu’il existe et tels
que et . C’est le cas délicat.
On écrit
où et sont des formes linéaires en les
variables , et est une forme quadratique en
les variables .
On a ainsi
On a donc
avec , et est une forme quadratique en
les variables .
On a alors
Si , on arrête. Sinon, on recommence le procédé avec .
On peut montrer que l’on obtient alors une écriture de la forme
où:
chaque
chaque est une forme linéaire sur
la famille de formes est indépendante.
Si n’est pas de rang (), on complète par des formes linéaires (on les choisit par exemple parmi les formes
coordonnées )
pour que la famille soit
libre et on écrit
Calcul de la base -orthogonale
On cherche
telle que pour tout on ait . Cela revient à
si et 1 si .
Les coordonnées de vérifient donc un système dont la matrice
est obtenue en écrivant en ligne les coefficients des , et
de second membre la -ème colonne de la matrice identité. Il s’agit donc
du -ième vecteur colonne de .
Exemple 1 :
On considère la forme quadratique définie sur
par
On élimine la variable en formant un carré contenant tous les
termes dépendant de (forme canonique d’un polynôme du second
degré en dépendant de vu comme paramètre)
Pour trouver la base -orthogonale, il suffit de chercher son
premier vecteur de base donc puis ,
puis son deuxième vecteur de base donc puis
. La matrice de passage de la base canonique à la base
-orthogonale est donc
on peut vérifier
Exemple 2
On considère la forme quadratique définie sur
par
On élimine la variable
Puis on élimine dans ce qui reste
Pour trouver la base -orthogonale correspondante, on résoud le
système
pour (premier vecteur de la base -orthogonale)
puis (deuxième vecteur de la base
-orthogonale)
et (troisième vecteur de la base
-orthogonale).
Exemple 3 :
Soit l’application qui a
associe
L’application est bien une forme quadratique car c’est un polynôme de degré
homogène.
Appliquons l’algorithme de Gauss à pour trouver une base -orthogonale.
On a
On a maintenant
Finalement, on obtient
Vérification
On a donc . On a
Calcul de : on a .
Si sont les coordonnées de
donc , .
La matrice du système est donnée par
La matrice du système est presque triangulaire supérieure, il y a
donc assez peu de manipulation à faire pour résoudre le système.
Avec un logiciel ou à la main, on calcule
et on lit dans la 1ère colonne de , dans
la deuxième colonne, etc.
Ces vecteurs forment donc une base
-orthogonale.
On vérifie en appliquant la formule de changement de base de la
base où est diagonale (de coefficients 1, 1, -1 et 8) vers la
base canonique.
Il résulte du lemme 3 que la matrice de dans la base est
la matrice
Remarque 4
Si est bilinéaire symétrique,
alors en appliquant l’algorithme de Gauss à la forme quadratique
on trouve une base v qui est -orthogonale. Mais par
définition, v est donc orthogonale pour la forme polaire de
, qui est .
En particulier, le nombre de carrés qui apparaissent dans
l’écriture
est le rang de la forme bilinéaire.
Cet algorithme permet donc de trouver une base -orthogonale
pour n’importe quelle forme bilinéaire symétrique ,
ainsi que son rang. On peut programmer l’algorithme de Gauss sur machine, mais à
condition que les coefficients de la forme quadratique soient
représentables exactement sur machine, sinon le résultat obtenu
peut être invalide en raison des erreurs d’arrondis (toutefois Gauss
fonctionne avec des coefficients approchés si
ou si , cela correspond à la factorisation de Cholesky d’une matrice).
Le théorème qui suit
affirme que le nombre de coefficients strictement positifs et
le nombre de coefficients strictement négatifs des carrés
ne dépend pas des choix faits au cours de l’algorithme de
réduction de Gauss de la forme quadratique.
Théorème 5(Théorème d’inertie de Sylvester)
Soit un -espace vectoriel de dimension finie , et
soit une forme quadratique. Soit une
base -orthogonale
Soit
Alors le couple ne dépend pas de la base -orthogonale choisie. De plus, .
Ce théorème n’est valable que pour des formes réelles.
Preuve :
Soit une base -orthogonale. Posons et .
Changer l’ordre des vecteurs de ne change pas et , ni le fait que la base soit -orthogonale.
On peut donc supposer sans perte de généralité que l’on a
Puisque est -orthogonale (c’est-à-dire
-orthogonale), on obtient que , la matrice de dans la base
, s’écrit
Or, seuls les réels sont non nuls. Le rang d’une matrice diagonale étant le nombre de termes diagonaux non nuls, on a bien .
Soit maintenant une autre base -orthogonale.
Soient le couple d’entiers correspondant. Remarquons que l’on a par le point précédent. Comme précédemment, quitte à changer l’ordre des vecteurs, on peut supposer que
Montrons que sont linéairement indépendants.
Supposons que l’on ait une relation
On a donc
En appliquant des deux côtés, et en utilisant le fait que les bases e et sont -orthogonales, on obtient
Par choix de et de , le membre de gauche est et le membre de droite est .
On en déduit que l’on a
et puisque pour , on en déduit
Mais alors, on a
et comme est une base, on en déduit
Ainsi, sont vecteurs linéairement indépendants dans un espace vectoriel de dimension . On a donc
et donc . En échangeant les rôles de et , on a de même .
On a donc , et comme on a , on en déduit . Ceci achève la
démonstration.
Cela conduit à la définition suivante.
Définition 6
Soit un -espace vectoriel de dimension finie , et soit une forme quadratique.
Le couple est appelé la signature de .
Remarque 7
Pour calculer la signature d’une forme quadratique , il suffit d’utiliser l’algorithme de Gauss pour écrire sous la forme
et de compter le nombre de coefficients qui sont strictement plus grand que et strictement plus petit que .
En effet, on a vu que si est la base -orthogonale obtenue à la fin de l’algorithme de Gauss, et est la matrice de
dans cette base, alors
Mais les coefficients diagonaux de
sont exactement les réels , et on conclut en utilisant la définition de et .
Exemple
La signature de la forme quadratique de l’exemple précédent est .
Chapitre 4 Produits scalaires.
4.1 Rappels dans le plan et l’espace
4.1.1 Dans le plan
Soient et deux vecteurs du plan. On
définit le produit scalaire de et par
Propriétés
Le produit scalaire se comporte comme un produit, il
est linéaire par rapport à chacun de ses arguments (les vecteurs
et )
Le produit scalaire de avec lui-même est
, il est donc toujours
positif. Il n’est nul que si est nul.
On définit la norme de par .
La distance entre deux points ou vecteurs est la norme de leur
différence.
Si est l’affixe de (le complexe correspondant à )
et celui de , alors en notant la partie réelle :
Donc le produit scalaire est invariant par rotation1, puisque
On peut aussi le vérifier avec la matrice de la rotation d’angle
:
qui vérifie .
Soit l’angle entre les vecteurs et .
Effectuons la rotation qui met selon l’axe des dans le bon sens, on a alors
donc
En particulier, on a l’inégalité de Cauchy-Schwarz :
Si , on dit que les vecteurs et sont orthogonaux, on
a alors le théorème de Pythagore
Lorsqu’une base est composée de vecteurs de norme 1 orthogonaux
entre eux, on parle de base orthonormée. Si est une
telle base, alors on a
Si on se donne un vecteur , on peut construire une base
orthonormée dont le premier vecteur est . On définit la
projection orthogonale sur la droite vectorielle engendrée par
par
on vérifie que est orthogonal à :
Le vecteur de le plus proche de est . En effet si
est un vecteur de , on applique le
théorème de Pythagore dans le triangle
de sommets les extrémités de , et
qui est rectangle (en ).
Si et sont deux vecteurs de
,
on définit leur produit scalaire par :
On vérifie les mêmes propriétés que dans le plan : le produit
scalaire se comporte comme un produit (linéarité par rapport à
chaque argument), est positif et ne s’annule que si .
Comme c’est le produit scalaire du plan si on se restreint aux plans
de coordonnées , il est invariant par rotation
d’axe les vecteurs de base. On a donc toujours
(en utilisant les angles d’Euler : faire une rotation d’axe pour que le plan
contienne , puis une rotation selon
pour que le plan soit le plan de coordonnées ).
Donc l’inégalité de Cauchy-Schwarz est toujours valide. De même
que le théorème de Pythagore.
On parle toujours de base orthonormée pour une base de 3 vecteurs de
norme 1 orthogonaux entre eux 2 à 2. Les coordonnées d’un vecteur
dans une base orthonormée se calculent par la formule :
Si on se donne une droite vectorielle de vecteur directeur , on peut créer une base
orthonormale de premier vecteur . La projection
orthogonale d’un vecteur
sur la droite est toujours obtenue par
et c’est le vecteur de le plus proche de .
Si on se donne un plan
vectoriel engendré par deux vecteurs et on peut créer une
base orthonormale de premier vecteur et de deuxième vecteur
dans le plan . Pour cela, on modifie en un vecteur
orthogonal à en retirant à la
projection orthogonale de sur :
puis on normalise ce qui donne un vecteur
de norme 1 orthogonal à
À ce stade,
on peut définir la projection orthogonale sur par
On peut compléter la famille orthonormée avec le
produit vectoriel des deux vecteurs et , mais cette construction est
spécifique à la dimension 3. Pour pouvoir généraliser en
dimension plus grande, on peut aussi prendre un troisième vecteur qui
n’appartient pas au plan , on le modifie en un vecteur orthogonal
à en lui retirant sa
projection orthogonale sur et on le normalise en un vecteur .
Le vecteur de le plus proche de est , toujours à cause du
théorème de Pythagore.
Exemple : soit le plan engendré par les vecteurs et
. On a . Donc
puis
Pour compléter la base avec un vecteur , en dimension 3 on peut
utiliser le produit vectoriel de et
ou prendre un vecteur , par exemple
et retrancher la projection orthogonale de sur
donc
on retrouve bien un multiple du précédent.
4.2 Définitions et exemples.
Nous voulons maintenant généraliser la notion de produit
scalaire -
et donc de longueur, de distance et d’angle - à un espace vectoriel réel arbitraire.
Soient
deux vecteurs de ,
le produit scalaire canonique est défini par :
L’application est une forme bilinéaire symétrique.
La longueur d’un vecteur pour et peut être calculée par
la formule
De même, nous souhaiterions associer une
notion de longueur (on parle plutot de norme pour un vecteur)
à une forme bilinéaire en posant .
Malheureusement, il n’est pas sûr que cette quantité soit définie : en
effet si , la racine carrée n’est pas définie.
De plus, on souhaite que la norme d’un vecteur
soit strictement positive pour un non-nul (or nous ne voulons pas
une distance entre deux vecteurs distincts).
Ces considérations amènent les définitions suivantes:
Définition 1
Soit un espace vectoriel réel.
On dit qu’une forme bilinéaire symétrique est
positive si pour tout , et
définie positive
si pour tout .
Remarquons que est définie positive si et seulement si
est positive et
C’est en général cette reformulation de la définition que l’on utilise en pratique pour vérifier si oui ou non une forme bilinéaire donnée est définie positive.
Définition 2
Soit un -espace vectoriel (non nécessairement de dimension finie).
Un produit scalaire sur est une forme bilinéaire
symétrique et définie positive sur :
On dit que muni du produit scalaire est un espace
préhilbertien réel.
Remarque 3
On expliquera brièvement plus loin l’utilisation du préfixe
“pré”-hilbertien, voir la remarque 12.
On utilise aussi le terme d’espace euclidien
si est un -espace vectoriel de dimension finie muni
d’un produit scalaire.
Le terme préhilbertien s’emploie
aussi dans le cas de produits scalaires hermitiens définis sur un
-espace vectoriel, cf. l’appendice D.
Dans la suite de ce chapitre, on donne des résultats pour des
espaces préhilbertiens dans le cas réel, la plupart des résultats se
généralisent aux préhilbertiens complexes.
Exemples
Le produit scalaire usuel sur
La forme bilinéaire qui a deux fonctions et continues de
à valeur dans associe l’intégrale entre
et de leur produit :
Montrons que c’est un produit scalaire.
Montrons que est symétrique. En effet, pour tout , on a
Montrons que est bilinéaire.
Pour tout , on a
et :
Par symétrie, il découle que
pour tout
Ainsi, est bilinéaire.
Montrons enfin que est définie positive.
On va utiliser pour cela la reformulation de la définition
1.
Pour tout , on a
Or, l’intégrale d’une fonction positive est positive.
Comme la fonction est positive, on en déduit que
Supposons maintenant que l’on a c’est à dire que
Or l’intégrale d’une fonction positive et continue
est nulle
si et seulement si est identiquement nulle.
Comme la fonction est
positive et continue, on en déduit
c’est-à-dire : CQFD.
Pour toute fonction continue et strictement positive sur ,
la forme bilinéaire :
est un produit scalaire (exercice)
L’application définie sur les matrices carrées réelles
par
est un produit scalaire.
La forme blinéaire définie sur par :
n’est pas un produit scalaire. C’est bien une forme bilinéaire symétrique,
mais elle n’est pas positive.
L’application qui associe à deux polynômes le produit de leur
valeur en 0 :
n’est pas un produit scalaire.
Elle est bien bilinéaire, symétrique, positive, mais pas
définie positive.
Par exemple, on a , mais n’est pas le polynôme nul.
4.3 Géométrie.
Les propriétés du produit scalaire permettent alors, comme
dans le cas classique,
de définir la “longueur”, ou norme d’un vecteur de .
Définition 1
Soit un espace prehilbertien
Pour tout , on définit la norme de , notée
, par
Notons que par définition d’un produit scalaire, , et si et seulement si .
Définition 2
Soit un espace prehilbertien. Soient . On définit la distance entre et par
Encore une fois, la distance entre et est positive et n’est que si .
onload
Nous aurions envie de poser la définition suivante :
Définition 3
Soit un espace prehilbertien. Soient avec . On définit l’angle entre et par
Remarque 4
Avec cette définition de , l’angle entre et , nous avons automatiquement . Par ailleurs, il s’agit d’une angle non-orienté :
ne dépend pas de l’ordre de et .
Malheureusement, ce n’est pas évident que cette définition soit bien posée.
En effet, la fonction arccos n’est définie que pour des nombres réels satisfaisant
la condition ou autrement dit . Nous devons donc vérifier la proposition suivante :
Proposition 5(Inégalité de Cauchy-Schwarz)
Soit un espace prehilbertien. Alors
pour tout , on a
et on a égalité dans cette expression
si et seulement si la famille est liée sur , c’est-à-dire s’il existe tels que .
Exemples
Avec le produit scalaire usuel sur et les vecteurs
et , on obtient l’inégalité :
avec égalité si et seulement si et sont colinéaires,
donc si .
Avec le produit scalaire usuel sur et les vecteurs
et , on obtient l’inégalité :
avec égalite si et seulement si et sont colinéaires,
donc si .
Avec le produit scalaire
sur les fonctions continues sur ,
pour on obtient l’inégalité
pour on obtient l’inégalité
Preuve :
Le résultat étant immédiat si ou est égal à , on peut supposer : si nous avons qu’il existe
tels que si et seulement si il existe tel que .
Considérons la fonction de
Ceci est une fonction quadratique de qui ne prend pas de valeurs négatives : elle a donc un discriminant , c’est à dire
On a donc que
et
De plus, on a ǵalité dans cette expression si et seulement si , c’est-à-dire si et seulement si il existe tel que .
Par définition de , nous avons égalité dans cette expression si et seulement si il existe tel que .
CQFD.
L’inégalité de Cauchy-Schwarz est donc valable et notre définition de est bien posée.
Un certain nombre de formules de la géométrie dans l’espace sont toujours valables dans ce contexte :
Lemme 6(Théorème de Pythagore)
Soit un espace prehilbertien et soient
avec .
Soit l’angle entre et . Alors on a
onload Preuve :
On a que
Par l’inégalité de Cauchy-Schwarz on a que
Puisque et sont positifs, on peut prend la racine carrée des deux membres pour déduire que
Les deux lemmes suivants sont souvent très utiles.
Lemme 9
Soit un espace prehilbertien, et
soient une famille de vecteurs deux à deux orthogonaux.
Alors on a
Preuve :
Supposons deux à deux orthogonaux.
On a donc
Par ailleurs, on a que
Mais puisque pour tout , on obtient
ce que l’on voulait démontrer.
On peut aussi faire une récurrence.
Lemme 10
Soit un espace prehilbertien, et soient
des vecteurs non nuls deux à deux orthogonaux. Alors est une famille
libre.
Preuve :
Soient tels que
Soit .
On a
et donc
Puisque les sont deux à deux orthogonaux, cela
s’écrit
Puisque par hypothèse , on a , et donc .
Ceci achève la démonstration.
Revenons maintenant à l’existence de bases orthonormées.
Proposition 11
Soit un espace prehilbertien de dimension finie. Alors possède une base orthonormée pour le produit scalaire.
De plus, si est une base orthonormée, alors pour tout , on a
Remarque 12
En dimension infinie, on parle d’espace de Hilbert
lorsque les propriétés des bases orthonormées vues ici en dimension
finie se généralisent (existence, décomposition de tout vecteur comme une
somme infinie, i.e. une série par rapport aux bases
orthonormées...). L’étude générale des espaces de Hilbert en dimension infinie
dépasse le cadre de ce cours. La série de Fourier d’une fonction
périodique de période peut être vue comme l’écriture selon une base
orthonormée infinie composée par les harmoniques des sinus et cosinus
de période .
Preuve :
Pour montrer l’existence d’une base orthonormée, on peut au choix
appliquer l’algorithme de Gram-Schmidt présenté
algébriquement
à la section 4.4 à une base de .
D’un point de vue plus géométrique,
si , on normalise le vecteur . Sinon, on construit
une base orthonormée de =Vect, on retranche
de son projeté orthogonal sur et on normalise pour
compléter la base orthonormée de .
Par exemple, si on a une base de ,
on normalise en
on se place dans le plan , on retranche à son projeté sur
la droite vectorielle engendrée par , on normalise, c’est
,
on projette sur le plan , on le retranche à
et on normalise, c’est .
utiliser le
théorème 7 sur les formes bilinéaires,
il existe une base de qui est orthogonale pour le produit scalaire.
Comme est une base, pour tout , et on a donc .
Pour tout , on pose
Il est clair que est une base de .
De plus, on a :
Comme e est une base orthogonale, on obtient
De plus, pour tout , on a
Ainsi, est une base orthonormée.
Soit maintenant une base orthonormée, et soit
.
Comme est une base, on peut écrire
Pour tout , on a alors
la dernière égalité provenant du fait que est une base orthonormée.
On a donc bien l’égalité annoncée.
Nous avons donc maintenant une notion satisfaisante de la distance
entre deux éléments d’un espace vectoriel muni d’un produit scalaire.
Rappelons que la question qui a motivé ce travail est la suivante :
je veux construire dans un espace vectoriel un “bon approximant” pour un
élément sous la contrainte que doit être contenu dans un
sous-espace , on veut construire la projection orthogonale de sur .
onload
Nous savons maintenant ce qu’on veut dire exactement par un “bon approximant” : on veut que
la distance entre et soit la plus petite possible.
Le lemme suivant nous donne un critère numérique pour que
soit le “meilleur approximant” pour .
Lemme 13
Soit un espace prehilbertien, un sous espace de et un
élément de .
Si a la propriété que pour tout
alors pour tout on a que , avec égalité si et seulement si .
Autrement dit, si la droite qui relie à est
perpendiculaire à alors
est le point de le plus proche de . Ce résultat vous est familier
lorsque et est une droite dans
,
ou lorsque et est un plan dans
.
Preuve :
On a que
Maintenant, donc par hypothèse et par le théorème de Pythagore
avec égalité si et seulement si , c’est-à-dire .
Notre critère est que doit être orthogonal à tous les éléments de . Etudions donc l’ensemble constitué de tels
éléments.
Définition 14
Soit un espace prehilbertien et soit un sous-ensemble de . L’orthogonal de , noté , est le sous-ensemble de défini par
Exercice. Démontrer que est toujours un sous-espace vectoriel de .
Théorème 15
Soit un espace prehilbertien et soit un sous-espace vectoriel de . Alors:
Pour tout et tout , on a . De plus, .
Si est de dimension finie, on a . Autrement dit, tout s’écrit de manière unique sous la forme
De plus, si est une base orthonormée pour
alors on a
.
Preuve :
Si et , alors on a
par définition de . On a donc .
Soit maintenant . Puisque et on a que
et donc d’après les propriétés du produit scalaire.
Ainsi, on a , ce qu’il fallait vérifier.
D’après , il reste à démontrer que ,
c’est-à-dire que tout vecteur peut s’écrire avec et .
Si , on a , et il n’y a rien à faire. On peut donc supposer que n’est pas l’espace trivial .
La restriction à du produit scalaire sur est encore un produit scalaire.
Puisque est de dimension finie, possède une base orthonormée d’après la proposition précédente.
Soit . On pose
Alors . D’autre part, on a
Puisque est orthonormée, on en déduit:
et ceci pour tout .
Soit . Alors on peut écrire , et donc
Ainsi, , et donc on a la décomposition voulue en posant . Si maintenant on a deux décompositions on a
car et sont des sous-espaces vectoriels de . Par le
premier point, on en déduit , et donc
, CQFD.
Remarque 16
Le point est faux sans hypothèse de finitude de la dimension de .
D’après le deuxième point du théorème, lorsque est de dimension finie, tout se décompose de manière unique sous la forme
Cela conduit à la définition suivante:
Définition 17
Soit un espace prehilbertien, et soit un sous-espace de de dimension finie.
Pour tout avec et on pose
Le vecteur est appelé la projection
orthogonale
de sur . Si est une base orthonormée de alors on a
Le lecteur pourra vérifier à titre d’exercice les propriétés suivantes:
L’application est linéaire.
Pour tout , on a et .
La projection orthogonale a la propriété essentielle suivante :
est le point de le plus proche de
Si on dispose d’une base orthonormée pour ,
on a une formule explicite pour calculer une projection orthogonale :
Exemple : on reprend pour l’exemple du plan engendré par les vecteurs et
. On a vu qu’une base orthonormée de est donnée par
La projection orthogonale du vecteur de composantes est
donc
Reste à construire des bases orthonormées adaptées
dans le cas général, c’est l’objet du prochain paragraphe.
4.4 Procédé d’orthonormalisation de Gram-Schmidt.
Soit un espace prehilbertien de dimension
finie.
On suppose donnée une base pour , .
On présente un algorithme de construction d’une famille orthonormée
à partir de pour , puis , ... puis . Cette
famille engendrera le même sous-espace vectoriel que la famille
.
Initialisation :pour , on pose . est alors
de norme 1 par construction et l’espace engendré par
est égal à l’espace engendré par .
Début du corps de la boucle
Pour , on suppose déjà construits.
On va construire , il doit être orthogonal à l’espace
engendré par .
Étape d’orthogonalisation
On a vu que pour tout vecteur , en lui soustrayant son projeté
orthogonal sur un sous-espace vectoriel , on obtient un vecteur
qui est orthogonal à .
On définit donc un vecteur auxiliaire en soustrayant
de son projeté
orthogonal sur , donc en appliquant (2) :
Par construction est orthogonal aux vecteurs .
Par contre, il n’est pas forcément de longueur .
Étape de normalisation
On observe que n’est pas combinaison linéaire des
pour (en effet la famille engendre le même
sous-espace que la famille , or la famille
est libre). On a donc , on pose :
Nous avons maintenant construit .
On voit que la famille engendre bien
le même sous-espace vectoriel que
Si , on revient au début de la boucle (étape 2) en incrémentant de 1.
Proposition 1
Les vecteurs de la famille construite par le procédé de
Gram-Schmidt ci-dessus forment une
base orthonormée pour et le sous-espace vectoriel engendré par
est le même que celui engendré par
Exemple 1
On considère la base de
Appliquons le procédé de Gram-Schmidt à cette base afin d’obtenir une base orthonormée pour le produit scalaire.
On pose
On a
On pose
Enfin
et donc
On a donc
Vérification avec Xcas : on utilise la commande gramschmidt
avec en argument des vecteurs lignes, le résultat renvoyé
est une liste de vecteurs lignes :
ou on appelle la commande qr avec la matrice des vecteurs en
colonnes et l’argument optionnel -3, la matrice du milieu (q) est la
matrice de passage de la base canonique à la base orthonormale:
Exemple 2
Construisons une base orthonormée pour le plan d’équation dans . Il a une base non orthonormée donnée par
On pose . On introduit alors
et on pose Ceci nous donne la base avec
Exemple 3
Sur les polynômes de degré au plus 2, on définit le produit
scalaire
C’est bien un produit scalaire, car entraine
donc (3 racines pour degré au plus 2).
On peut orthonormaliser la base canonique . On normalise
le premier vecteur de la base en car . Le
2ième vecteur de la base est orthogonal au premier car
il suffit de le normaliser en
().
On projette sur le plan
Donc est normalisé, soit
car
Finalement, la base orthonormée obtenue est
Vérification
Remarque 2
En calcul exact ou à la main, il peut être plus simple de ne pas
normaliser les vecteurs à chaque étape, donc
de construire une base orthogonale :
et de normaliser la base seulement à la fin.
En calcul approché, cette méthode de calcul n’est pas adaptée
en raison des erreurs d’arrondis. On utilise plutot la factorisation d’une
matrice, qui est la version matricielle de l’orthonomalisation. L’orthonormalisation
se fait en utilisant des matrices de symétries (réflexions
de Householder) ou de rotations (méthode de Givens).
Remarque 3
Le procédé de Gram-Schmidt permet de calculer la projection
orthogonale
de tout vecteur sur un sous-espace de dimension finie, en calculant une base orthonormée
de à partir d’une base quelconque
de
(pour le produit scalaire sur obtenu par restriction du produit scalaire sur ).
On aura alors
Rappelons que est le meilleur approximant de dans .
4.5 Exemples de problèmes de minimisation.
4.5.1 Projection sur un plan de l’espace.
Utilisons cette méthode pour construire pour tout le point le plus proche de
dans , le plan d’équation .
Nous avons vu qu’une base orthonormée
pour ce plan est donnée par .
Soit : on a donc
Autre méthode : le vecteur est un vecteur normal au
plan ,
on retire de sa projection sur l’orthogonal de donc
4.5.2 Régression linéaire
Considérons le problème suivant. On veut mesurer une donnée (pH d’une solution, température) en fonction d’un paramètre (concentration d’un ion, temps).
Considérons les points (avec )
de représentant par exemple le résultat de expérimentations. On suppose que les s sont deux à deux distincts.
Supposons que la théorie nous dise que varie de façon affine en fonction de .
A cause des erreurs de manipulation, de mesure, les points ne sont pas
alignés.
Comment trouver la droite de meilleure approximation, c’est-à-dire la droite d’équation telle que les points théoriques soient le plus proche possible des points expérimentaux ?
Plus précisément, comment choisir la droite telle que l’erreur quadratique soit minimale?
On veut donc trouver tels que soit minimale.
Posons
On a facilement que et donc
où nous utilisons la norme associée au produit scalaire canonique sur .
Soit le sous-espace vectoriel dans formé de tous les vecteurs
de la forme lorsque décrit . On veut donc minimiser
, lorsque décrit .
D’après les propriétés de la projection orthogonale, le minimum est obtenu pour .
On doit donc calculer . Les coefficients et seront alors donnés par la relation car est une base de .
Posons
Appliquons l’algorithme de Gram-Schmidt à la base de . On a . On a aussi et .
On a alors
où
La droite a donc pour coefficient directeur le rapport entre la covariance
des et la variance des et passe par le point de
coordonnées moyenne
des , moyenne des .
4.5.3 Résolution au sens des moindres carrés.
On généralise l’exemple précédent, il s’agit de “résoudre”
des systèmes linéaires
qui ont plus d’équations ()
que d’inconnues (). Matriciellement, on considère l’équation
d’inconnue :
est une matrice “mince”, avec moins de colonnes que de lignes.
Par exemple pour la régression linéaire, a deux
composantes : le coefficient directeur de
la droite cherchée et son ordonnée à l’origine .
On a donc , on essaie de faire
passer une droite par points ,
Le système s’écrit
et n’a en général pas de solutions.
On peut alors chercher qui
minimise .
Soit Im, le sous-espace vectoriel parcouru
par pour
Le problème revient à chercher la projection
orthogonale de sur Im.
Pour cela, on pourrait chercher une
base orthonormale de Im comme précédamment.
On peut aussi utiliser la propriété
du projeté orthogonal de sur Im,
onload
Notons la transposée d’une matrice (ou sa transconjuguée
dans le cas complexe), on a :
donc,
donc est solution de
qui est un système de équations à inconnues.
Par exemple pour la régression linéaire, on a un système 2,2.
Sur machine, on saisit la matrice à partir des données (par
exemple issues d’un tableur) en
ajoutant une colonne de 1, puis on fait le produit matriciel ,
on inverse et on applique à 2
Exemple température moyenne de la Terre de 1981 à 2022
(d’après https://data.giss.nasa.gov/gistemp/tabledata_v4/GLB.Ts+dSST.txt)
Le coefficient directeur de la droite est donc de environ 0.019 degré
par an pour la période complète (0.017 degré par
an pour la période 1981-2010 et 0.022 pour 1993-2022).
On peut aussi faire le calcul du produit de matrice formellement :
et vérifier qu’on retrouve la solution de la section
précédente. En effet, la 2ème équation nous dit que la droite
de régression passe par le point de coordonnées les moyennes
,
et l’opération
élimine et permet de trouver le coefficient directeur :
Exercice
Faire de mêne pour une régression avec 3 séries statistiques
(donc une série dépendant des deux autres)
.
Indication de solution : la matrice s’obtient en mettant dans la
1ère colonne les , dans la 2ième colonne les et dans la
3ième colonne des 1.
4.5.4 Approcher une fonction continue par une fonction affine
On peut aussi vouloir approximer une fonction continue par une fonction affine
. Dans ce cas, la méthode précédente ne marche plus, puisque l’on doit considérer une infinité de points.
L’idée est de considérer un grand nombre de points sur le graphe de , dont les abcisses sont régulièrement espacés, , avec
, et de considérer la droite de meilleure approximation pour ces points. Bien sûr, plus est grand, meilleure est l’approximation. L’entier étant fixé, on doit donc minimiser
Ceci revient aussi à minimiser
On voit graphiquement (et on peut démontrer rigoureusement) que converge vers . En particulier, est très proche de cette intégrale lorsque est suffisamment grand.
Il est alors naturel de définir la droite de meilleure approximation comme celle qui minimise l’intégrale
Ce genre d’intégrale s’interprète souvent comme l’énergie
d’un système.
Ainsi, le problème de minimisation précédent revient à demander
de minimiser cette énergie.
Exemple
Considérons le problème de minimisation suivant: trouver
qui minimise
Soit l’espace des fonctions continues sur avec son produit scalaire
On vérifie que est un produit scalaire sur
.
Considérons maintenant le sous-espace de défini par
Le problème de minimisation se reformule alors ainsi:
Autrement dit, on cherche tel que soit minimal.
On connait la solution, c’est .
On cherche donc à calculer la projection orthogonale de sur .
Appliquons le procédé de Gram-Schmidt à la base de .
On a alors
le calcul donne et :
4.5.5 Projection sur les polynômes trigonométriques
On peut aussi vouloir approximer une fonction
par une fonction autre qu’une droite. Par exemple, on peut vouloir
approximer par une fonction appartenant à un sous-espace
vectoriel des
fonctions continues sur ,
de façon à ce que l’intégrale soit minimale, lorsque décrit .
Considérons le problème posé dans l’introduction, celui
d’approcher une fonction par des sommes trigonométriques.
Soit une fonction que l’on supposera continue :
on veut approximer par une
somme finie de fonctions trigonométriques
On veut trouver les coefficients et tels que l’intégrale
soit minimale.
Soit l’espace vectoriel des fonctions continues sur
à valeurs rélles et
le sous-espace vectoriel de engendré par
Autrement dit, est l’ensemble de fonctions de la forme
Considérons le produit scalaire sur
Le raisonnement précédent montre que la meilleure approximation
est donnée par .
Or, on peut vérifier que
fournit une base orthonormée de – nous reviendrons en détail sur ce calcul dans le dernier chapitre.
La formule pour la projection orthogonale nous donne alors
Les choix de coefficients qui minimisent cette intégrale sont donc donnés par
4.6 Diagonalisation orthogonale des matrices symétriques.
Nous présentons ici un théorème sur la
diagonalisation des matrices symétriques.
On commence par un lemme.
Lemme 1
Soit un espace prehilbertien de dimension , et soit une base
orthonormée. Soit une autre base de , et soit la matrice de passage
correspondante (c’est-à-dire la matrice dont les colonnes sont les vecteurs coordonnées de
dans la base ). La base est orthornormée si et seulement si , c’est-à-dire si
.
Preuve :
Soient et les matrices de la forme dans les
bases et . On sait que
: puisque est supposée orthonormée nous avons et .
La base est orthonormée si et seulement si c’est à dire ssi
CQFD.
Théorème 2
Soit une matrice symétrique, c’est-à-dire vérifiant .
Alors il existe une base de formée de vecteurs
propres de qui est orthonormée pour le produit scalaire usuel sur .
La démonstration repose sur le critère suivant.
Lemme 3
Soient une matrice carrée . Alors si est symétrique on a pour tout
ou est le produit scalaire canonique.
Preuve :
On a que
CQFD.
Remarque 4
Soit un vecteur propre de
associé à
() et
est un vecteur propre de
associé à
(). Alors
Donc si alors et doivent
être orthgonaux.
Preuve du Théorème 2
Si est valeur propre d’une matrice symétrique réelle,
alors est réel. En effet si est vecteur propre
associée à ,
alors est vecteur propre associé à
et
donc car puisque
c’est la somme des modules des coordonnées de .
Soient ses valeurs propres distincts avec le sous-espace propre associé à . Nous avons alors
En effet par la remarque 4, est orthogonal
à si on a donc une somme directe
orthogonale.
Soit et son orthogonal.
Si n’est pas tout entier, alors est de
dimension au moins 1, et est stable par
(en effet si , alors
puisque et ), donc est associée
à une application linéaire de , admet (au moins) une valeur propre et
un vecteur propre associé, mais c’est contradictoire avec le fait
que est l’orthogonal de la somme des sous-espaces propres de .
Donc .
Pour tout soit
une base orthonormée pour et soit la concaténation . Par le Lemme 5,
est une base orthonormée pour composée de vecteurs propres de .
Ceci se traduit en termes de formes bilinéaires de la façon suivante:
Théorème 5
Soit un espace prehilbertien de dimension finie, et soit
une forme bilinéaire symétrique.
Alors il existe une base orthonormée pour qui est
aussi -orthogonale.
Preuve :
Soit orthonormée pour , et soit sa matrice dans cette base.
Alors est une matrice symétrique d’après le Lemme 3.
D’après le théorème précédent, il existe une base
de formée de
vecteurs propres de qui est orthonormée pour le produit scalaire usuel de .
Si , posons de telle
façon que est le vecteur de coordonnées de dans la base .
Nous allons montrer que est une base de qui possède les propriétés voulues.
Comme e est orthonormée, on a d’après
le Lemme 6.
Comme est orthonormée,
on en déduit que
Il reste à voir que v est -orthogonale. Soit la matrice de passage de v à e.
La matrice qui représente dans la base est donc
Or v étant orthonormée, on a . On a ainsi
Mais v étant formée de vecteurs propres de , nous avons que est diagonale. est donc
est diagonale, ce qui revient à dire que v est -orthogonale.
Cette démonstration nous donne en plus que nous pouvons construire une telle base orthonormée et
-orthogonale en prenant des vecteurs propres de .
vecteur propres de .
Méthode pratique pour trouver une base de vecteurs orthonormée
et -orthogonale.
Soit une matrice symétrique réelle.
Pour chaque valeur propre de ,
on calcule une base de . Si est une valeur propre
simple, on normalise le vecteur propre de la base, si est une valeur propre
multiple, on applique l’algorithme de Gram-Schmidt pour obtenir une base orthonormée de .
On recolle les bases orthonormées précédentes
pour obtenir une base de
formée de vecteurs propres de , orthonormée pour le produit scalaire usuel sur .
Soit une forme bilinéaire
symétrique. On se fixe une base e de orthonormée pour
.
Soit la matrice de dans la base . est une
matrice symétrique.
On applique la méthode précédente pour obtenir une base
orthonormée de formée de vecteurs propres de .
On prend alors l’unique vecteur dans qui admet pour vecteur coordonnées dans la base le vecteur
. La base est alors la base
recherchée.
Exemples
Soit .
On vérifie que les valeurs propres sont et , et que
Une base orthonormée pour est donc
et une base orthonormée pour est donc
La base recherchée est donc donnée par
Munissons de son produit scalaire usuel, et soit
Soit e la base canonique de . C’est une base orthonormée pour le produit scalaire usuel.
La matrice de dans la base canonique est alors
On vérifie que les valeurs propres sont et , que admet comme base la famille
et que admet comme base la famille
Une base orthonormée pour est donc
Pour trouver une base orthonormée de , on applique
Gram-Schmidt. On pose
Ensuite on pose
Enfin on pose
Une base orthonormée pour est donc
La base recherchée est donc donnée par
Si et , on a
Vérification avec Xcas
Pour vérifier une diagonalisation de matrices avec Xcas, vous pouvez
utiliser la commande P,D:=jordan(A) qui renvoie une matrice
de passage et la matrice diagonale semblable à . Dans le
cas générique où les valeurs propres sont de multiplicité 1,
il suffit de normaliser les colonnes de pour avoir une matrice
orthogonale, sinon il faut appliquer le procédé de gramschmidt.
Pour générer la matrice d’une forme quadratique,
utilisez la commande q2a.
Exemple
On prend la forme quadratique associée à de l’exemple 2
ci-dessus, on calcule sa matrice :
puis on diagonalise
Vérification :
Par rapport au calcul fait à la main, on retrouve le même vecteur
propre (éventuellement au signe près) pour les valeurs propres de
multiplicité 1 (ici 3), par contre ce n’est en général pas le
cas pour les valeurs propres de
multiplicité plus grande (ici 0) car il y a une infinité de bases
orthonormales du sous-espace propre correspondant.
4.7 Matrices orthogonales.
Soit une matrice, on note sa transposée si elle est
réelle (ou sa transconjuguée, i.e. transposée conjuguée si elle est complexe).
Nous avons vu ci-dessus que les matrices réelles
telles que sont très importantes puisqu’elle encodent
des changements de la bases orthonormées.
Proposition 1
Soit une matrice de taille . Les conditions suivantes sont équivalentes :
;
pour tous nous avons
, où est
le produit scalaire canonique.
pour tout nous avons , où
est la norme de pour le produit scalaire canonique.
On parle d’isométrie.
On dit qu’une matrice réelle qui satisfait à ces conditions est orthogonale (unitaire pour une matrice complexe, en utilisant
le produit scalaire hermitien canonique).
Preuve :
Si alors
Donc (1) implique (2).
(2) implique (3) en prenant et
(3) implique (2) par la formule de polarisation.
Reste à montrer que 2) implique 1). Si
alors pour tout nous avons
et donc
.
Nous finissons cette section avec une étude des matrices
orthogonales de taille , i.e. des isométries de .
Nous allons démontrer le théorème suivant:
Proposition 2
Soit une matrice orthogonale.
Alors l’application donnée par est
une rotation autour de l’origine
ou
une symétrie par rapport à une droite passant par l’origine.
Soit une matrice orthogonale. On a alors
et, en utilisant des coordonnées polaires, il existe un tel que . De même
et on peut écrire
On a alors
et nous avons donc orthogonale si et seulement si
, c’est-à-dire si et seulement si
Dans le premier cas nous avons
et on reconnait la matrice d’une rotation d’angle autour de l’origine.
Dans le deuxième cas on a
Après calcul le polynôme caractéristique de est ,
qui a pour solutions et . Après calcul des vecteurs propres, on voit que
sont des vecteurs propres de de valeur propre et respectivement.
Autrement dit, on a et . Puisque
, les vecteurs et sont
perpendiculaires,
représente une symétrie par rapport à la droite engendrée par
.
Pour avoir un résultat
plus précis pour la résolution de au sens des moindres
carrés, il vaut mieux calculer la factorisation “thin”-
de la matrice ce qui permet de se ramener à un système
triangulaire “mieux conditionné” après simplification par une matrice
En toute rigueur on devrait écrire pour
ne pas confondre fonction et valeur de la fonction en . Mais
cela peut devenir rapidement lourd pour les fonctions constantes ou
plus difficile à suivre pour les fonctions usuelles (cos/sin...)
Chapitre 5 Séries numériques.
Vous avez déjà rencontré au cours de vos études l’équation suivante
ou le symbole “” se comprend comme “et ainsi de suite jusqu’à l’infini”.
Quel sens donner à cette équation, et en particulier, quel sens donner à son membre de gauche
? Ca ne peut pas signifer “le résultat
qu’on obtient en effectuant une infinité d’additions” puisqu’il est impossible de faire
une infinité d’additions.
La somme infinie à gauche doit être comprise comme une limite.
En écrivant cette équation,
nous disons la chose suivante :
En prenant assez grand, nous pouvons rendre la somme finie aussi proche qu’on veut de .
La somme infinie que l’on écrit
aussi , doit être compris comme la
limite de la suite
des sommes partielles .
Représentation graphique des premières sommes partielles
5.1 Convergence des séries
Définition 1
Soit une suite de nombres réels ou complexes.
On définit la suite de sommes partielles (également notée )
Nous appelons cette suite la série de terme
général.
On peut adapter la définition lorsqu’on commence la somme à un rang , par exemple si n’est pas défini,
est la suite des sommes partielles
.
Exemples
Si on pose, comme ci-dessus, et on considère la série alors la somme
partielle est donnée par
Si on considère la série alors la somme partielle est donnée par
Si on pose pour tout et on considère la série
alors les sommes partielles sont données pour tout
par
Si on pose1
et on considère la série alors les sommes partielles
sont données par
et ainsi de suite, c’est à dire que pour tout paire nous avons que
et pour tout impaire nous avons que .
Si on pose et on considère la série
alors la somme partielle est le nombre réel
Contrairement aux autres cas,
nous ne disposons d’aucune formule générale pour cette somme partielle.
Lorsque cette suite de sommes partielles est convergente, on dit
que sa limite est la valeur de la “somme infinie”
Définition 2
Soit une suite infinie et considérons la série
.
Nous disons que la série admet comme limite le nombre fini
si la suite de sommes partielles converge vers ,
Dans ce contexte, nous disons que est la somme de la série
et nous écrivons
Attention ! Les deux notations
et
qui sont très proches, désignent quand même des choses différentes.
Lorsque nous écrivons nous parlons de la suite de sommes partielles
alors que désigne la limite de cette suite (en supposant,
bien sur, qu’elle existe).
Proposition 3
Le terme général d’une série convergente tend vers 0.
En effet, soit une série et soit
ses sommes partielles. Si
converge vers alors on a que
donc
Or donc .
Remarque 4
Par contre-apposition, si le terme général d’une suite ne tend pas
vers 0 alors la série diverge. Par exemple diverge
parce que son terme général ne tend pas vers 0. De même
une suite géométrique de raison diverge lorsque .
Attention! La réciproque est fausse. Il existe des séries
divergentes dont le terme général tend vers 0, par exemple
on montre que diverge alors que son terme
général tend vers 0 (cf. proposition 13
plus bas)
Exemples.
Pour la série nous avons que la somme
partielle
On peut donc écrire
Soit maintenant un nombre réel ou complexe tel que
, et considérons la série . La
somme partielle peut être calculée par
l’astuce suivante :
Puisque nous avons que donc
Autrement dit, la série géométrique de raison
converge et on a
La série a pour sommes partielles .
Cette suite n’est
pas convergente : sa limite n’est
pas finie. On dit alors que la série est divergente2.
La série a pour sommes partielles
Cette suite
de sommes partielles, bien que bornée (les sommes partielles n’approchent pas ) ne converge pas. On
dit encore une fois que la série est
divergente.3
Même si nous ne disposons pas de formule pour les sommes partielles
il est possible de montrer que cette suite converge vers une limite finie. Nous verrons à la fin du semestre
que
que nous pouvons aussi écrire
La remarque suivante, qui suit des propriétés de linéarité des suites,
est souvent utile dans l’étude des séries.
Proposition 5(Linéarité de la convergence des séries)
Soient et deux séries convergentes réelles ou complexes,
de limites et respectivement. Alors
pour tout , la série
est convergente, avec limite .
Le cas des séries réelles à termes positifs
est assez simple.
Lemme 6
Soit une série réelle dont toutes les
termes sont positifs.
Pour tout soit
la somme partielle
Il y a alors deux possibilités
la suite converge vers une limite finie . Autrement dit, la série est convergente
la suite de sommes partielles tend vers .
En effet la différence entre deux sommes partielles consécutives
est un terme de la suite donc est positif ()
donc la suite est croissante. Si elle est majorée, elle converge vers une
limite finie (toute suite croissante majorée est
convergente). Sinon,
elle n’est pas majorée et tend donc vers .
Pour appliquer ce lemme, il sera utile de se ramener à des
séries à termes positifs. On peut d’abord observer que s’il y a un
nombre fini de termes négatifs, on peut appliquer ce résultat, car
la nature d’une série ne dépend pas de ses premiers termes
(mais bien sur la somme en dépend si la série est convergente).
S’il y a un nombre infini de termes positifs et négatifs, on peut
d’abord regarder la nature de la série des valeurs absolues du terme général.
Définition 7
Soit une série.
On dit que est absolument
convergente
si la série
est convergente.
On a le résultat suivant.
Proposition 8
Toute série absolument convergente est convergente.
Idée de la preuve (hors programme) : cela résulte de l’inégalité triangulaire
sur les sommes partielles
Comme est convergente,
le terme de droite peut être rendu aussi petit que l’on veut pourvu que l’on
choisisse assez grand. Cela permet d’établir rigoureusement
la convergence de la suite des sommes partielles de (c’est ce
qu’on appelle une suite de Cauchy).
Attention : la réciproque de cette proposition est fausse : il existe des
séries réelles convergentes
qui ne sont pas absolument convergentes.
Leur comportement est parfois surprenant – par exemple, en permutant les
termes d’une telle série
on peut la rendre divergente,
ou la faire converger vers n’importe quel nombre réel. De plus ces
séries convergent lentement, il faut calculer des sommes partielles
à des rangs d’indice élevé pour avoir une valeur approchée de
la somme. Les séries absolument convergentes sont donc plus intéressantes!
Mais on n’a pas toujours le choix (par exemple certaines séries de Fourier).
Remarque 9
Le comportement de la série de terme général ,
qui diverge sans tendre vers ,
n’est possible que parce que certains termes de cette série sont negatifs.
Le critère de d’Alembert traite le cas des
séries qui se comportent comme des séries géométriques.
Proposition 10
Soit une série telle que .
Si alors la série est absolument
convergente.
Si alors la série diverge.
Preuve :
Si , le terme général de la série ne tend pas vers 0,
donc elle diverge.
Si , on observe que .
Comme la suite converge vers , il existe
un rang tel que
Donc pour tout , on a :
.
Comme la série géométrique
converge. En appliquant le critère de comparaison,
comme est positive, on en déduit que la série converge.
Les séries à convergence de type géométrique convergent
assez rapidement, ces séries sont très utiles
pour calculer des valeurs approchées de fonctions
trigonométriques, exponentielles, logarithmes etc. (cf. la section
5.2).
Mais toutes les séries ne convergent pas aussi rapidement, par
exemple les séries de Fourier qui seront abordées en fin de
cours.
Pour déterminer leur nature, on commence par utiliser un critère
plus fin, le critère des équivalents.
Corollaire 11
Soient , des séries avec un nombre
fini de termes négatifs. Alors :
Si pour tout et converge alors converge aussi.
Si alors la série converge si et seulement si
la série converge aussi.
Preuve :
Quitte à commencer la somme à un indice , on peut supposer que toutes les
termes des deux suites sont positifs.
Soit la suite de sommes partielles de la série . Soit
la suite de sommes partielles de la série
. Puisque converge,
i.e. la suite converge, donc est majorée.
Puisque pour tout , pour tout ,
donc la suite est majorée. Par Lemme 6 il suit que la série converge.
Puisque et il existe des nombres réels strictement positifs
tels que, pour tout ,
Nous avons donc par (1) que
De même
Exercice.
Montrer que le Corollaire 11 est toujours valable lorsque :
les deux séries sont à termes négatifs,
Remarque 12
Si la suite ne comprend qu’un nombre fini de termes negatifs et la suite
satisfait alors la suite ne comprend qu’un
nombre fini de termes negatifs.
Il suffit donc de vérifier cette condition sur une seule des deux suites.
Vous avez étudié en 1ère année les developpements limités. Utilisant ces développements, il est très souvent possible
de montrer qu’une suite donnée est équivalente à une suite de la forme .
Exemples
Considérons . Nous avons que
c’est à dire que
Considérons . Nous avons que
et donc , c’est à dire
.
Considérons . Nous avons que et donc , d’ou il vient que
Considérons
La corollaire 11 sera donc un outil très puissant pour établir la convergence des séries,
à condition de savoir quand la série
converge.
Proposition 13(Critère de Riemann.)
Pour tout nombre réel positif la suite infinie
diverge si et converge si .
Preuve
On doit déterminer quand la suite de sommes partielles
converge. Puisque la suite est à termes positifs il suffit par le lemme 6
de savoir quand la suite
est majorée. Nous allons faire cela par une téchnique très
puissante : comparaison
d’une somme avec
une intégrale. Il y a en effet un lien fort entre l’intégrale et la somme
.
Illustration graphique de la nature identique de la convergence d’une
série ou de l’intégrale correspondante pour une
fonction décroissante telle que . En noir la somme des
rectangles dont l’aire est une somme partielle de la série (car
chaque rectangle a pour dimension horizontale 1 et
verticale un des ).
On compare avec l’aire sous la courbe représentative de (en
rouge), de deux façons, en prenant les rectangles à gauche
ou à droite.
onload
Si l’aire des rectangles gauches noirs tend vers une limite finie, alors
l’aire sous la courbe aussi (puisqu’elle est majorée par l’aire des rectangles).
onload
Réciproquement,
si l’aire sous la courbe tend vers une limite, l’aire des
rectangles droits aussi. On calcule ensuite
et on fait tendre vers , il y a convergence lorsque .
Attention au cas particulier , on a alors un logarithme qui ne
tend pas vers une limite finie.
Une autre preuve plus formelle.
Puisque pour tout tel que nous avons que
Il en suit que
cest à dire que pour tout entier positif nous avons que
En sommant ces inégalités, nous obtenons que
Autrement écrit
c’est à dire
Re-organisant ces équations, nous obtenons que
Nous allons maintenant distinguer 3 cas, selon que est plus grand que, égale à ou plus petit que .
Cas 1 : . Nous avons alors que
On a donc que pour tout
La suite est donc majorée et la série converge.
Cas 2 : . Nous avons alors que
Nous avons donc que pour tout : la suite ne peut donc pas être majorée et par le lemma
6 la suite doit diverger.
Cas 3 : . Pour tout entier positif nous avons alors que .
Comme ne converge pas, il résulte du Lemma 6 que
ne converge pas non plus.
Exemples:
Les exemples qui suivent montrent à quel point l’attelage du
Corollaire 11
avec la Proposition 13
est un outil puissant pour déterminer si des séries positives convergent
ou divergent.
Soit pour tout . Nous avons vu que
Puisque la séries
diverge par la proposition 13,
il résulte du corollaire
11 que diverge aussi.
Soit pour tout . Nous avons vu que
. Puisque la série
converge par la Proposition
13, il résulte de la corollaire
11 que converge aussi.
Soit . Nous avons que
Puisque la séries converge par la Proposition
13, il résulte de la corollaire
11 que converge aussi.
Soit . Par les developpements limités, on a que
et Il en suit que
Puisque la série
converge par la Proposition
13, il résulte du corollaire
11 que converge aussi.
Que se passe-t-il pour les séries qui ont un nombre infini de termes
négatifs et positifs ?
Si la série converge absolument, on a vu que la série convergeait.
Sinon, il se peut que la série converge quand même. On peut
montrer par exemple que converge
alors que tend vers l’infini.
Intuitivement, cela vient du fait qu’il y a des compensations entre les termes positifs
et négatifs dans le premier cas et pas dans le second.
L’étude de la nature des séries ayant une infinité de
termes positifs et négatifs qui ne sont pas absolument convergentes
sort du cadre de ce cours. Le lecteur souhaitant aller plus loin peut
regarder les articles “Séries alternées” et “transformation
d’Abel” de wikipedia. Attention, certaines séries de Fourier qui seront
étudiées plus loin ne sont pas absolument convergentes, on
admettra donc qu’elles convergent en appliquant le théorème
donnant la valeur de leur somme.
5.2 Les séries et le calcul sur machine.
Les séries peuvent être utilisées dans les logiciels de calcul pour
calculer des fonctions transcendantes (sinus, cosinus, exponentielle,
logarithme...) ou spéciales que vous verrez peut-etre dans
vos études (error function, fonctions de Bessel, de
Airy, W de Lambert, etc.).
Un processeur est capable de faire des opérations arithmétiques de
base4:
addition, soustraction de deux nombres
multiplication, division de deux nombres.
A l’aide de ces opérations, il s’agit de coder des fonctions plus
avancées citées ci-dessus.
Mais la plupart des fonctions qu’on souhaite calculer - cos, sin, exp, log et
ainsi de suite - ne s’expriment pas exactement à l’aide de
opérations de base
+ - * / d’ailleurs.
Les seules fonctions qui peuvent ètre calculées exactement
utilisant seulement ces opérations sont
les fractions de polynomes :
où est une variable et sont des nombres.
Alors, comment faire pour faire calculer (par exemple) à un ordinateur ? Il y a plusieurs
méthodes : l’une d’elle utilise les séries de Taylor5.
Voilà comment cela
se passe dans le cas de la fonction .
On applique la théorie de la série de Taylor pour écrire comme une somme
infinie de puissances de . En l’occurence, nous savons que
(Le lecteur pourra vérifier que la série converge en appliquant
le critère de d’Alembert).
Les sommes partielles de cette séries de Taylor sont
des polynômes et peuvent être calculées en utilisant
seulement les opérations d’addition, multiplication, division.
Dans le cas de nous avons que
Pour assez grand le polynôme sera une
approximation acceptable pour .
Attention : ici
le “assez grand” dépendra de : plus sera petit,
plus on pourra utiliser une valeur basse pour . On le voit sur la
représentation graphique ci-dessous de la fonction sinus et
des sommes partielles de la série de Taylor en 0.
La question plus difficile à laquelle il faudrait répondre est la suivante : si je cherche (par exemple)
à calculer à près, quelle valeur de
dois-je utiliser ? Pour minimiser le
temps de calcul de la machine, il est souhaitable de prendre le plus petit possible.
L’erreur que je commets lorsque j’approche par
est donnée par le formule6
On peut démontrer que des lors que nous avons que
Pour garantir que est petit il suffit donc de s’assurer que est petit. Ici, comme on voudrait
calculer à près, il suffit de trouver tel que . Des calculs nous donnent que
Nous savons donc que les deux expressions
diffèrent par moins de .
Dans la pratique, on peut optimiser en utilisant
les propriétés de la fonction sinus (périodicité, règles
telles que )
et se ramener à un argument plus proche de 0.
Aujourd’hui, les coprocesseurs arithmétiques sont capables de
calculer les fonctions sinus, cosinus, exponentielles, etc. en
décomposant le calcul en opérations arithmétiques de base
La
terme générale de la séries a un coefficient qui devient très petit
très vite, ce qui fait qu’il est typiquement possible de calculer avec relativement peu de termes.
Chapitre 6 Séries de Fourier.
Nous allons maintenant revenir sur la question posée en début de
semestre. Rappelons que nous cherchions à résoudre l’équation de la chaleur :
sur le domaine
en respectant les conditions initiales
(ou est une fonction donnée)
et les conditions aux bords
pour tout .
Nous avions remarqué que lorsque la condition initiale était une somme
finie de cosinus
cette équation possède une solution
Nous allons maintenant chercher à résoudre cette équation pour une
condition initiale quelconque en approchant par
des sommes finies de la forme
Pour l’équation des ondes, on cherche plutot à approcher par une
somme de sinus.
On va présenter une méthode pour approcher une fonction quelconque
par une somme trigonométrique - c’est à dire, une fonction de la forme
Le cas de l’équation de la chaleur correspond au cas où tous les
sont nuls, celui de l’équation des ondes au cas où les
sont nuls.
6.1 Approximants de Fourier, coefficients de Fourier et
séries de Fourier : définitions et exemples.
Dans ce paragraphe, nous allons appliquer la méthode de la projection
orthogonale pour approcher une fonction par une série
trigonométrique.
On se donne une fonction , continue, réelle et définie sur
une intervalle .
On cherche à approcher
par une somme de fonctions trigonométriques fondementales -périodiques :
Si est une fonction du temps périodique de période
définie pour , il faut remplacer par et
par .
Pour éviter de trainer des notations trop lourdes, on va poser
de sorte que pour une fonction périodique dépendant du temps, est
une pulsation. Pour une fonction périodique dépendant de la
position, la longueur d’onde est . Pour se fixer les idées, on pourra dans la suite prendre :
Pour chaque , nous allons chercher la fonction , qui sera le meilleur
approximant de de la forme
par rapport à la distance définie par le produit scalaire
Dans ce chapitre nous aurons souvent besoin de travailler avec
des fonctions qui ne sont pas continues sur mais presque,
au sens où elles peuvent avoir
un nombre fini de “sauts”, par exemple
Définition 1
Soit un entier.
Une fonction est dite par morceaux s’il existe tels que
la fonction est de classe sur chaque intervalle
.
Pour tout
et tout les limites à gauche et à droite
et
existent et sont finies.
Une fonction est dite par morceaux
si elle est par morceaux sur
pour tout (i.e. les points de discontinuité sont en nombre fini sur
un intervalle borné)
Une fonction
est par morceaux si elle est par morceaux pour tout . On note l’espace vectoriel de toute les fonctions réelles (resp. complexes) par morceaux sur une
intervalle par
(resp. .)
Remarque
Si est continue par morceaux, alors est bien définie. Si est la subdivision correspondante alors
on a
En particulier, on peut donc définir sur le produit scalaire
Soit maitenant une fonction continue par
morceaux.
On considére avec son
produit scalaire :
(N.B. c’est un produit scalaire défini si aux points
de discontinuité la valeur de est comprise entre ses limites à gauche
et à droite. Malheureusement cette contrainte ne respecte plus la
structure d’espace vectoriel. Pour obtenir une définition de produit
scalaire rigoureuse, on pourra dire que deux fonctions sont équivalentes
si elles sont égales sauf peut-être en un nombre fini de points, puis
faire “le quotient” des fonctions continues par morceaux par
cette relation d’équivalence).
Pour tout , notons l’ensemble des fonctions de la forme
On vérifie facilement que est un sous-espace vectoriel de
.
Définition 2
Le -ième approximant trigonometrique de Fourier de , noté
, est alors défini par la projection de sur
Autrement dit,
est la fonction dans qui minimise la distance
euclidienne
Nous allons maintenant procéder au calcul explicite des approximants
de Fourier.
Il faut pour cela commencer par identifer une base orthonomée de . Par définition de cet espace,
est une
famille génératrice de .
Lemme 3
La famille est orthogonale pour par rapport au produit
scalaire .
C’est donc une base orthogonale de .
Preuve :
Il nous faut démontrer que
pour tout
pour tout .
pour .
On a , donc :
donc est vrai.
Ensuite,
Par cet intégralle est nulle si . Lorsque on a que
Dans tous les cas, est vérifié.
Enfin, pour et on a que
par . De même
par . La condition est donc vérifiée.
Ceci termine la démonstration de l’orthogonalité de .
Pour obtenir une base orthonormée pour il suffira donc de normaliser la base
On a :
puis pour les cosinus :
Par un calcul similaire . Nous avons donc
une base orthonormée de donnée par
Nous pouvons donc calculer l’approximant de Fourier trigonométrique
en utilisant le formule de la projection orthogonale. Cette
formule nous dit que :
ou les coefficients et sont définis par
Définition 4
Soit une fonction réelle ou complexe
continue par morceaux définie sur une intervalle et
.
Les coefficients de Fourier trigonométriques de
sont les nombres ,
définis par
Le -ième approximation de Fourier trigonométrique est alors donnée par
Remarque 5
Il résulte des formules d’Euler :
qu’approcher par une somme de fonctions trigonométriques
équivaut
à l’approcher par une somme d’exponentielles complexes.
Plus précisement,
considérons la somme trigonométrique
Si on pose et pour tout
alors on a
Pour des fonctions complexes, cette version des approximants de Fourier est particulièrement utile.
Définition 6
Soit une fonction continue par morceaux.
On définit le -ième approximant exponentiel de Fourier de , noté , par
ou sont les coefficients exponentiels de définis par
ou et sont les coefficients trigonométriques de Fourier de .
En utilisant le formule pour les et s ci-dessus, on obtient la formule suivante.
Définition 7
Soit une fonction réelle ou complexe continue par morceaux et
définie sur . Les coefficients de Fourier exponentiels de sont
les nombres définis par
Nous avons donc que l’approximant de Fourier trigonométrique est
et que l’approximant exponentiel est
On a envie de regrouper tous ces termes dans une somme
infinie, i.e. une série,
même s’il n’est pas encore très clair
qu’on peut donner un sens à cette somme formelle.
Définition 8
Soit une fonction continue par morceaux sur une intervalle
et .
La série de Fourier trigonométrique de est alors la somme
infinie
La série de Fourier exponentielle de est la somme infinie
Exemples
On considère la fonction sur l’intervalle
Nous avons alors et
Ensuite, pour tout , en intégrant par parties, on voit que
On pouvait d’ailleurs éviter le calcul en appliquant un
argument de symétrie (voir plus bas).
De même, l’intégration par parties montre que
La série de Fourier trigonométrique de est donc la somme infinie
(Attention, ce n’est pas une série absolument convergente, par
exemple en ).
Représentation graphique de et de la somme partielle jusqu’à
un l’ordre 5
de sa série de Fourier (vous pouvez modifier 5 en un autre
ordre et tester dans la version HTML de ce document)
Calculons maintenant la série de Fourier exponentielle de .
L’intégration par parties nous donne que
Vérification
La série des Fourier exponentielle de est alors la somme infinie
On considère la fonction définie sur telle que
pour et pour .
On a que
Par ailleurs, pour tout ,
et
Vérification
On note que si est impair et si est pair. En
écrivant tout impair dans la forme , on obtient que
la séries de Fourier trigonométrique de est
Représentation graphique :
Calculons maintenant la série de Fourier exponentielle de . Pour on a que
Vérification
Comme nous avons déjà calculé que ,
la série de Fourier exponentielle de est alors
6.2 Séries en sin et cos.
La séries de Fourier est une séries qui mélange des termes de sin et en cos. Nous montrerons dans cette
section comment modifier cette construction pour obtenir des séries en sin ou en cos approchant une fonction
donnée. Notre point de départ sera la proposition suivante :
Proposition 1
Soit une fonction réelle. Alors
si est paire alors pour tout .
si est impaire alors pour tout .
Preuve :
On note que pour toute fonction , impaire sur , nous avons que
Par ailleurs,
Le produit d’une fonction impaire et une fonction paire est lui-même une fonction impaire.
Pour tout la fonction est une fonction paire et la fonction est une fonction impaire.
Si la fonction est une fonction
paire alors pour tout la fonction
est
une fonction impaire et donc
Par contre, si la fonction est une fonction impaire alors pour tout la fonction est
une fonction impaire et donc
Ceci termine la démonstration de la proposition.
Avec cette proposition, nous pourrons construire des sommes de cos
(resp. de sin) approchant une fonction donnée.
Notre méthode sera la suivante :
Etant donnée une fonction , on construit une
extension sur qui
est paire (si on veut construire une séries en cos) ou impaire (si on veut construire une série en sin.)
Nous construisons alors la séries de Fourier de cette nouvelle fonction .
Puisque est paire (resp. impaire) sa séries de Fourier ne contient que des termes en cos (resp. en sin.)
C’est cette série de Fourier qui sera la série en cos (resp. en sin) de .
Définition 2
Soit une fonction continue par morceaux. On définit sur
les extensions impaire et paire de
par
Notons que est paire et est
impaire par construction. il résulte de
la proposition 1
que
pour tout ,
pour tout , .
Nous pouvons maintenant définir les séries en sin et cos de notre fonction .
Définition 3
Soit une fonction continue par morceaux.
La série en sin de est la série trigonométrique
La série en cos de est la
série trigonométrique
Remarque
Notons que par parité
De même
et
Exemple
On considère la fonction sur l’intervalle .
Nous cherchons à calculer sa série en sin. Nous avons que
avec
Vérification
La série en sin de est donc
Représentation graphique de et des sommes partielles d’ordre 5
10 et 20.
Nous avons donc créé, pour chaque fonction continue par
morceaux
définie sur une intervalle , une suite de fonctions
. Chaque élément dans cette suite de fonctions est “plus proche”
de la fonction que celle qui la prècede.
Mais pour nous être utile, il faudrait s’assurer que, quitte à prendre très
grand, la fonction
est aussi proche que l’on veut de la fonction . Cette
question sera le sujet de ce paragraphe.
Le théorème suivant,
dont la démonstration depasse le cadre de ce cours, nous assure que si la
fonction est continument dérivable alors en tout point la série de
Fourier converge vers , plus précisément :
Théorème 1(Dirichlet)
Soit une fonction par morceaux.
Alors pour tout point où
est continue, on a :
Pour les valeurs de où effectue un saut, on a
convergence de la série vers la moyenne des limites à droite
et à gauche :
Ce résultat s’étend aux extrémités :
En particulier, si est continue et par morceaux, converge
vers sur .
Ce résultat est faux si la fonction n’est pas supposée
dérivable.
Idée de la preuve : on se place pour simplifier en un point où
est continue. On peut supposer que en observant que la
série de Fourier d’une fonction constante est . Il s’agit donc de montrer que
ou encore avec les coefficients de Fourier exponentiels ;
ou en remplaçant les par leur valeur
on peut rentrer dans l’intégrale en , on cherche
donc la limite lorsque tend vers l’infini de
Dans l’intervalle , si alors donc la dans l’intégrale est la somme d’une série géométrique de
raison différente de 1, elle vaut
On observe que cette somme vaut lorsque qui est la limite
de l’expression ci-dessus lorsque tend vers .
On est donc amené à montrer que lorsque la limite ci-dessous est nulle :
Et ceci vient d’une mise en forme rigoureuse des observations suivantes:
lorsque est proche de , tend vers 0 (on a
vu qu’on pouvait supposer ) (c’est un )
“ailleurs” est par
morceaux, on peut intégrer par parties et faire apparaitre un
facteur qui tend vers 0 lorsque tend vers l’infini
Il y a une autre forme de convergence qui nous sera utile, qui dit
que la distance de à tend vers 0
Théorème 2(Théorème de Parseval.)
Soit une fonction réelle continue par morceaux sur une intervalle
. Soit la distance de à la somme partielle d’ordre
de sa série de Fourier :
entre et . Alors
quand .
À nouveau, la démonstration de ce théorème depasse le cadre de
ce cours : on montre que le résultat est vrai lorsque
est assez régulière en appliquant Dirichlet
puis on fait un raisonnement “par
densité”, en approchant pour le produit scalaire une fonction continue par morceaux par une
fonction régulière.
En appliquant le fait que la somme partielle de la série de Fourier est
une projection orthogonale de pour la norme
et en appliquant l’inégalité triangulaire, on a
Comme s’exprime en fonction de
qui sont orthogonales pour le
produit scalaire, on peut appliquer le théorème de Pythagore à
et on obtient
En appliquant la définition de la norme au carré
et en observant que
cosinus et sinus au carré ont une moyenne de 1/2 sur une période,
on en déduit :
Corollaire 3(Egalité de Parseval)
Soit une fonction réelle continue par morceaux sur une intervalle . Alors
Autrement dit,
Exemple
Considérons sur . On a vu que pour cette fonction pour tout et .
Par ailleurs Il en suit que
et donc
Corollaire 4
Soient deux fonctions réelles
continues par morceaux et définies
sur . Si et pour tout
alors pour tout
point où et sont toutes les deux continues .
Preuve :
L’égalité de Parseval implique que si
et pour tout
alors
Ceci n’est possible que si en tout point où et sont
continues.
6.4 Solutions d’équations aux dérivées partielles.
Dans cette section, nous serons amenés à faire quelques manipulations dont
nous ne pourrons pas donner une justification complète.
6.4.1 L’équation de la chaleur.
On rappelle qu’il s’agit de déterminer l’évolution au cours du
temps de la température d’une barre de longueur
(), isolée à ses deux extrémités.
On cherche donc une fonction
telle que
avec les conditions aux bords en tout temps
et la condition initiale à l’instant ,
Remarquons que puisque nous cherchons une solution qui est , la condition initiale
doit aussi être sur .
On va simplifier le problème en cherchant la série de Fourier de
, ce qui transformera les dérivées en par des
multiplications par .
Plus précisément on remplace et
par leur série en cos sur , ce qui permettra de satisfaire à la
condition d’isolation au bord puisque la dérivée du cos est un sin qui
s’annule aux bords.
Posons donc :
On remplace dans l’équation aux dérivées partielles
On admet qu’on peut intervertir la dérivation partielle avec la
somme, on obtient donc
soit
Deux fonctions régulières ayant le même développement
en séries de Fourier sont égales, donc
équation différentielle ordinaire dont la solution est
À l’instant , on a
donc les sont les coefficients de la série en cos de la
condition initiale. D’où le :
Théorème 1
L’équation de la chaleur
admet une unique solution vérifiant les conditions aux bords
et la condition initiale à l’instant
où est une fonction sur
telle que .
Si les sont les coefficients de la série en cos de ,
on a :
avec
Remarque :
La démonstration que la fonction est bien définie et
depasse
le cadre de ce cours. La
régularité d’une fonction périodique
peut se lire sur la décroissance de ses coefficients de Fourier
et lorsque tend vers l’infini. Si est
régulière, on peut intégrer par parties dans le calcul
de et et faire apparaitre autant de puissances de
négatives que l’on veut, et tendent vers 0 plus vite
que n’importe quelle puissance négative de . Réciproquement, les
puissances de qui apparaissent quand on dérive sous le signe
somme ne gèneront pas la convergence de la série.
On peut d’ailleurs observer qu’il suffit de prendre la condition
initiale en pour obtenir une solution en tout
instant non nul grâce à l’exponentielle qui décroit plus vite
que toute puissance négative de (l’équation de la chaleur
régularise la solution pour ).
6.4.2 L’équation des ondes.
On rappelle que l’on cherche une fonction
telle que
avec les conditions aux bords
et les conditions initiales,
Remarquons que puisque la solution est , la condition
initiale doit aussi être sur .
Nous allons montrer le théorème suivant:
Théorème 2
Soit une fonction sur
telle que .
Alors l’équation des ondes
admet une unique solution vérifiant les
conditions aux bords
et les conditions initiales,
Cette solution
est donnée par la formule
où pour tout on a que
Puisque est , et , son extension impaire,
est . Par le théorème de Dirichelet il suit que
sur nous avons que
et en particulier pour tout
où .
Autrement dit, le théorème de Dirichelet nous dit dans ce cas que
est égale à la somme (infinie) de sa série en sin.
Par analogie avec le cas ou est donnée par une somme finie de sinus, nous allons poser
et vérifier que est solution de l’équation des ondes.
Pour tout , on a
et la première condition initiale est donc vérifiée. De plus,
d’après les propriétés du sinus : les conditions aux bords sont donc vérifiées.
Posons de telle façon
que .
Comme pour l’équation de la chaleur1, on admettra qu’on peut
intervertir la dérivation et le signe , i.e. en posant
on a bien que
et
Vérifions maintenant la deuxième condition initiale. Puisque pour tout ,
, il suit que pour tout .
Il reste à vérifier que satisfait l’équation . On a que
Mais on a aussi
On a donc bien
et la fonction donnée est donc une solution de notre équation.
Montrons maintenant que cette solution est unique. Pour cela, supposons que
l’on ait deux solutions du problème, disons et , et posons
. Il est facile de vérifier que l’on a
et que
Considérons la fonction
Autrement dit, est le -ième coefficient dans la série
en sin de la fonction .
Par le corollaire 4 il suffira de montrer que est nul pour tout .
Par les conditions initiales on a que
Calculons
ce qui est égal, après une double intégration par parties et en utilisant les
conditions aux bords, à
Autrement dit,
Mais la seule solution de cette fonction telle que est la fonction nulle. On a donc pour
tout et tout , ce qui donne bien que pour tout
.
6.4.3 Vers la mécanique quantique
L’équation de Schrödinger d’inconnue une fonction
dépendant de la position et du temps à valeurs dans
peut dans certains cas subir un traitement analogue, lorsque l’opérateur
de Schrödinger admet une base orthonormée infinie de vecteurs
propres
pour le produit
scalaire :
C’est l’extension sur des -espaces vectoriels en
dimension infinie
de ce qui se passe pour une forme quadratique réelle, ici pour la forme sesquilinéaire
On remplace les fonctions trigonométriques de l’équation de la
chaleur par les fonctions propres ,
la solution de l’équation de Schrödinger est alors donnée par :
6.5 La transformée de Fourier.
La série de Fourier que nous avons étudié ci-dessus s’adapte bien
pour des fonctions définies sur une intervalle, c’est à dire, à des
phénomènes de physique bornées. Or, en physique, il nous arrive souvent
de vouloir analyser une fonction qui n’est pas a priori bornée dans le temps
ou l’espace. Ceci nous inspire la question suivante :
Que pourrait être la série de Fourier d’une fonction sur
?
Soit une fonction : pour plus de simplicité, nous
ferons l’hypothèse que l’intégrale a une valeur finie.
Nous allons essayer de trouver une analogue de la série de Fourier pour
en regardant ce qui se passe
quand on prend, pour de plus en plus grand, la série de Fourier de
la fonction restreinte donnée par
Il convient d’utiliser la série de Fourier exponentielle, pour ne
pas avoir à considérer
séparément les termes en cosinus et
en sinus.
Le coefficient de dans la série de Fourier exponentielle de 2
est donnée par ou . Autrement dit, le coefficient de dans la série de Fourier de est
Appelons cette valeur . Que se passe-t-il pour des valeurs de
de plus en plus grande ?
Notre premier instinct pourrait être de considérer le comportement de
quand
mais ce n’est pas très intéressant : il converge toujours vers
.
Comment contourner cette difficulté pour arriver à une
limite intéressante ?
Observation clé. Lorsque nous essayons de
construire une “série de Fourier” pour une fonction sur , a priori toutes les fonctions de la forme
peuvent y apparaître, puisqu’il n’y a plus de conditions aux bords qui
pourraient restreindre les valeurs possibles de .
Notre “séries de Fourier” devraient donc être une “somme”
d’éléments de la forme
indexé sur tous les nombre réels : je mets
le mot somme en guillemets, car c’est mathématiquement
impossible de faire une somme sur tous les nombres réels. En
mathématiques, qu’est ce qui joue le rôle de “somme” sur les
nombres réels ? C’est l’intégrale.
On s’attend donc à ce que la “série de Fourier” d’une fonction
sur
soit une expression intégrale
pour de la forme
On veut comprendre ce qui devrait être la fonction
qui va jouer le rôle des coefficients de Fourier .
Ce raisonnement heuristique nous suggère l’idée suivante :
Si on veut considérer les limites quand de la série de Fourier de la fonction , il faudrait commencer par écrire cette série
comme une intégrale.
Rappelons que
que j’écris comme une intégrale de la façon suivante
Ici, j’ai écrit la terme comme l’intégrale par rapport à une variable
d’une constante sur une intervalle de longeur .
Appliquant la rélation de Chasles à cette somme
d’intégrales, j’obtiens
ou ici, est la fonction en escalier telle que pour tout
et est la fonction en escalier telle que pour tout
Que se passe-t-il dans cette expression quand ,
pour et fixes ?
Les intervalles sont alors de plus
en plus petit, et si
alors . Quand
la fonction est approchée par la fonction
la fonction est approchée par la fonction
.
Ces considérations inspirent la définition suivante.
Définition 1
Soit une fonction continue sur telle que
est finie. Alors on définit
la transformée de Fourier de ,
par3
Exemples
Soit la fonction définie par si ; sinon. Alors
Soit la fonction définie par si et sinon. Alors
Première propriétés des transformées de Fourier.
Lemme 2
Soient deux fonctions de telles que et soient finies.
Alors pour tout scalaire nous avons que
Ce lemme est une conséquence immédiate de la linéarité de l’intégrale.
Lemme 3
Soit une fonction de telle que et soient finies.
On suppose en plus que
Alors
Démonstration.
Par définition
En faisant une IPP sur cette expression on obtient
ce qui compte tenu de l’hypothèse nous donne
Notre dernière proposition, dont la démonstration depasse le cadre de ce cours, dit qu’une équivalente
du théorème de Dirichelet vaut pour cette transformée de Fourier.
Proposition 4(Inversion de Fourier.)
Soit une fonction réelle et continue sur . Supposons que
et sont tous deux
finis. Alors, nous pouvons reconstruire de sa transformée de
Fourier par la
formule4
Ces deux propriétés font de la transformée de Fourier un outil pratique pour la solution d’équations différentielles.
Exemple
On considère l’équation différentielle
Appliquant la transformée de Fourier on obtient que
Après réorganisation on a que
et en utilisant le formule d’inversion de Fourier on obtient que
Mais contrairement à
l’équation de la chaleur, on a un facteur en cosinus qui oscille
au lieu d’une exponentielle décroissante, il n’y a donc pas de
régularisation en temps pour une condition initiale
éventuellement non régulière
La terme supprimée dans notre définition de la
transformée de Fourier réapparaît ici.
Annexe A Appendice : espace-temps, bases et forme de Minkowski.
La théorie de la relativité pose que la séparation que nous observons entre l’espace et le temps est
une illusion et qu’en réalité les événements sont placés
dans un continuum de dimension 4
que l’on appelle l’espace-temps.
Cet espace-temps dont les
points représentent des événements est de dimension 4, puisque pour préciser un
événement il faut donner :
le lieu ou il s’est produit (précisé dans des coordonnées cartesiennes par 3 données numériques) et
l’heure à laquelle il s’est produit (précisée par 1 donnée numérique).
Donc, pour préciser un événement il faut 4 coordonnées.
Contrairement à la physique Newtonienne, il n’est plus possible dans la rélativité restreinte de donner une décomposition
de l’espace temps en une partie spatiale plus une partie temps. Plus précisement, la physique Newtonienne, si elle place bien
les évenements dans un continuum de dimension 4 (lieu ou l’événement a eu lieu, plus l’heure à laquelle il s’est produit) pose
aussi l’existence une décomposition intrinsèque
Deux observateurs Newtoniens, même en mouvement, seront toujours d’accord pour dire que deux événements ont
lieu au même moment (c’est à dire, que le vecteur qui les sépare dans l’espace-temps est contenu dans le sous-espace “espace”)
ou qu’ils ont lieu au même endroit (c’est à dire, que le vecteur qui les sépare dans l’espace-temps est contenu dans le sous-espace “temps”).
Ceci n’est plus vrai dans la rélativité restreinte : selon les observateurs la décomposition de l’espace temps en espace et temps va varier.
Lorsqu’un observateur , non-soumis à une accéleration, observe une événement, il va le mesurer utilisant
son
référentiel, et le résultat de ce mesure sera un
quadrivecteur où
est l’heure à laquelle l’évènement s’est produit,
mesuré par l’observateur ,
est la position de l’événement, mesuré par .
Ces mesures n’ont plus rien d’absolu ; ils varieront
selon l’observateur.
Qu’est ce que c’est un référentiel ? C’est la donnée d’un origine dans l’espace-temps1et d’une base
de l’espace temps. Après avoir fixé une origine , l’observateur mesure
l’espace temps utilisant une base qui lui est propre . Si est un élément de l’espace-temps (que l’on considère comme
un espace vectoriel avec origine ), les coordonnées de
dans la base sont précisement les
coefficients du quadri-vecteur .
Attention : si tous les référentiels ont des bases, seulement certaines bases spéciales peuvent être utilisées dans des
référentiels.
Comment parler des événements ? On peut, bien sur, choisir un observateur et identifier un événemment avec son quadrivecteur
dans le referentiel de cet observateur. Cette solution
est peu satisfaisante, puisqu’elle nous oblige à choisir un référentiel spécial auquel nous
donnons une signification particulière, alors que le principe fondamental de la relativité restreinte est que
toutes les référentiels se valent. Mais il est aussi possible avec les éléments ci-dessus
de donner une déscription de la relativité
restreinte sans référentiel distingué.
Recapitulons :
L’espace-temps, est un espace affine2
de 4 dimensions dont les points représentent des événements. Il existe indépendemment
de la choix du référentiel et du système de coordonnées. Nous l’appelerons .
Chaque observateur, , mesure l’espace temps utilisant son propre référentiel,
consistant en une choix d’une origine et une base de ,
. ( est un espace vectoriel après choix de .)
Soit un événement et soient les coordonnées de dans la base .
L’observateur verra l’événement en un temps et une position . Le temps et la
position d’un événement dans le référentiel de sont simplement ses coordonnées dans cette base particulière.
Une question naturelle se pose :
Question : y a-t-il des propriétés d’un vecteur qui ne dépendent pas du choix d’observateur ?
Si est un vecteur de – pensons-le comme la séparation entre deux événements,
et –
alors ni le temps ni la distance répresenté par n’est indépendent de
l’observateur.
Mais il y une notion intrinsèque, au moins pour
les vecteurs de type temporels, c’est celui du
temps propre.
Définition 5
Soit un vecteur de . Le temps propre de est
le temps vécu par un observateur qui voyage de A et B sans accéleration.
De nombreuses expériences ont établie comme donnée expérimentale la
relation suivante
entre le temps propre d’un vecteur temporel
et ses coordonnées mesurés par un observateur :
On reconnaît dans le membre de droite la forme quadratique associée à une forme bilinéaire, auxquelles nous donnons le nom de “produit
scalaire de Minkowski”.
Définition 6
Soit , soit un observateur, soit le référentiel de donné par . Soient
et les quadrivecteurs de et mesurés par .
Le produit scalaire de Minkowski est la forme bilinéaire sur donnée par
Sa forme quadratique associée a le propriété que pour tout temporel
Attention :
il y ici un abus de notation. Puisqu’il existe des vecteurs pour lesquels , la forme de Minkowski n’est pas un produit scalaire au sens des
mathématiciens.
Plusieurs notions de la relativité restreinte admettent une interpretation en termes de la forme de Minkowski.
Un vecteur est temporel si , luminaire si et spatial si .
Les transformations de Lorentz sont des matrices de changement de base (ou de changement de référentiel
en gardant le même origine) qui laissent invariant la forme de Minkowski.
c’est à dire, un espace qui devient un espace vectoriel après choix d’une origine.
Annexe B Appendice : le tenseur d’inertie d’un corps rigide.
Dans cette appendice, pour rester plus proche des notations utilisées en physique,
nous dénoterons les quantités vectorielles dans par des
lettres en gras.
Soit un corps rigide massif dans l’espace . Nous voudrions comprendre
le moment d’inertie de ce corps, c’est à dire, la resistence qu’elle oppose à être mise en
rotation.
Pour plus de simplicité nous nou plaçons dans
un referentiel inertiel1 dont l’origine est le centre de gravité
du corps , et considérons une rotation du corps autour de son centre de gravité qui resterait fixe.
Supposons que le corps possède une vitesse angulaire .2
Quel serait le moment angulaire produit par cette rotation autour d’un autre axe
?
Dans un premier temps, considérons un réseau rigid de points massifs ,
ou chaque a masse . En un temps , soit le vecteur de position
du point massif (c’est à dire qu’on a )
Soit la vitesse (normale) du point . Le moment angulaire du point massif
autour de l’axe est donc
Mais on sait par ailleurs par la définition de la vitesse angulaire que
ou est la vitesse angulaire. Lorsque tourne avec une vitesse
angulaire autour de son centre de gravité,
le moment angulaire autour de l’axe du point massif est
donné par l’expression
Le moment total de ce réseau de points est alors donné par la somme
Approchons maintenant par un maillage de point massifs , chacun
de masse , en une position . Le moment angulaire de autour de l’axe est alors approché par la quantité
ou est la vitesse angulaire du corps .
Pour un maillage assez fini de , la masse du point massif
est très
proche de
, ou est la densité locale de au point et est l’élément de volume autour de . On
obtient, en approchant par un maillage toujours plus fin de points que le moment angulaire de autour de
est donné par
ou est la vitesse angulaire du corps .
Pour résumer, nous avons la proposition suivante.
Proposition 7
Soit la fonction de deux vecteurs dans , et , telle que
le moment d’inertie du corps rigid autour de l’axe lorsque tourne autour de
avec vitesse angulaire .
Alors nous avons que
L’exercice suivant est laissé au lecteur.
Exercice L’application est une forme bilinéaire symétrique.
Définition 8
Soit un corps rigide massif dans l’espace. La forme bilinéaire symétrique s’appelle
le tenseur d’inertie du corps .
Remarque 9
L’expression du tenseur d’inertie dans une base inertielle dépende de l’orientation de dans l’espace. En particulier, lorsque
l’orientation de varie dans le temps3 l’expression de dans une base inertielle ne sera pas constante.
Remarque 10
Le théorème sur la diagonalisation orthonormée des formes bilinéaires symétrique nous garantit l’existence d’une
base orthonormée pour , , qui est une base orthogonale pour le tenseur de l’inertie.
Définition 11
Les éléments de la base qui est orthonormée pour et orthogonale pour
s’appellent les axes principaux d’inertie du corps .
Remarque 12
Ces axes principaux dépendent, bien sur, de l’orientation du corps .
Calculons maintenant le moment total de , .4
il résulte immédiatement de notre formule pour que
est donné par le formule
B.1 Application : rotation libre
d’un objet avec symmétrie rotationelle.
Nous savons qu’il existe une base une base , , telle que à tout moment,
, , est la base orthonormée de qui est aussi orthogonale pour
. Cette base est variable dans le temps - elle n’est pas un referentielle inertielle - mais elle
est constante du point de vue du corps rigid et en particulier, si est en rotation autour de son centre de
gravité avec vitesse angulaire alors on a que
Ici, pour toute quantité vectorielle nous notons
sa derivée dans une base inertielle. Par ailleurs, nous notons
sa dérivée
dans la base , , . Nous avons alors que
Dans le referentiel , , la matrice de
est constante et diagonale. Considérons le cas ou a une
symmétrie rotationelle autour de l’axe : la matrice de dans
la base est alors de la forme
Supposons maintenant que le corps tourne librement,
sans torque extérieure. On sait alors que son moment d’inertie
satisfait l’équation
En passant dans le repère , , on obtient
ce qui, en utilisant le fait que
nous donne
Ecrivant on voit que
La valeur est donc une constante. Posons ,
nous avons alors les équations
qui a pour solution générale
L’axe de rotation n’est donc pas constante dans le referentiel
corporel.
Il tourne autour de l’axe de symétrie rotationnelle avec une vitesse qui dépende de
La vitesse
angulaire d’un corps en rotation dont le centre de gravité est fixe est une quantité vectorielle telle que
la vitesse d’un point est donnée par .
La direction de donne l’axe de rotation et sa longueur donne la vitesse.
Ce moment total d’un corps en rotation est une
quantité vectorielle qui a le propriété que pour tout axe le moment de autour de est
donné
par le produit scalaire .
Annexe C Appendice : les coniques et quadriques.
On va maintenant appliquer les résultats précédents à l’étude des coniques et des quadriques.
Jusqu’à la fin de ce paragraphe, on se place dans l’espace affine ou , muni de son repère orthonormé usuel.
Définition 1
Une conique est le lieu géométrique de défini par une équation de la forme
où au moins un des termes quadratiques est non nul.
Une quadrique est le lieu géométrique de défini par une équation de la forme
où au moins un des termes quadratiques est non nul.
On veut classer les différents types de coniques et quadriques. Puisque l’on veut conserver le lieu géométrique, on ne s’autorise qu’à faire des changements de variables qui
remplacent le repère canonique par un autre repère orthonormée (pour les produit scalaire canonique), donc des translations ou des isométries (i.e. qui conservent les distances et les
angles non orientés).
Ceci est nécessaire: en effet, l’équation représente une ellipse de centre , alors que le changement de variables et donne l’équation représente le cercle unité, qui n’est pas le même lieu géométrique.
Cas des coniques.
Considérons la conique
et soit
D’après le théorème 4.32, il existe une base orthornormée qui est -orthogonale, donc -orthogonale.
Dans le nouveau repère , l’équation de la conique s’écrit
On se débarasse ensuite d’un ou deux termes linéaires en complètant les carrés et en effectuant une translation d’origine.
Après éventuellement permutation des nouvelles variables et/ou changements du type ou
on obtient une équation d’un des types suivants, selon la signature de , pour des réels
Signature ou :
: c’est une ellipse (ou un cercle si ).
: c’est le point .
: c’est l’ensemble vide.
Signature :
: c’est une hyperbole.
: c’est la réunion des
deux droites d’équation et .
Signature ou : : c’est une parabole.
Exemple 2
Considérons la conique d’équation
Soit .
Sa matrice représentative dans la base canonique est
D’après un exemple précédent, une base orthonormée qui est aussi -orthogonale est donnée par
les vecteurs étant respectivement des vecteurs propres pour et .
Soient les coordonnées dans cette nouvelle base. On a donc
Par construction de cette base, la forme dans cette base s’écrit
Elle est donc de signature , et on a donc une hyperbole (sauf cas dégénéré).
On a alors
soit
On a donc
En posant , on obtient En posant et , on obtient finalement l’équation réduite de l’hyperbole
Cas des quadriques.
Comme précédemment, on se ramène au cas d’une équation sans termes croisés, et on se débarasse d’un ou plusieurs termes linéaires.
Après éventuellement permutation des nouvelles variables et/ou changements du type , , , et éventuellement une nouvelle translation/rotation,
on obtient la classification suivante :
Signature ou . On obtient 3 cas :
: c’est un ellipsoïde.
: c’est le point
: c’est
l’ensemble vide.
Signature ou . On obtient 3 cas:
: c’est un hyperboloïde à deux nappes
: c’est un hyperboloïde à une nappe
: c’est un cône.
Signature ou .
On obtient quatre cas :
: c’est un cyclindre elliptique
: c’est la droite .
: c’est l’ensemble vide.
: c’est un paraboloïde elliptique.
Signature :
: c’est un cyclindre hyperbolique.
: c’est la réunion des deux
plans d’équation et
: c’est l’ensemble vide.
: c’est un paraboloïde hyperbolique.
Signature ou :
: cylindre parabolique.
: réunion de deux plans parallèles d’équation et .
: plan
: ensemble vide.
Exemple 3
Soit la quadrique
Soit .
Sa matrice représentative dans la base canonique est
D’après un exemple précédent, une base orthonormée qui est aussi -orthogonale est donnée par
ces vecteurs étant respectivement des vecteurs propres pour et .
Soient les coordonnées dans cette nouvelle base.
Par construction de cette base, la forme dans cette base s’écrit
Elle est donc de signature , et on a donc un cyclindre parabolique, un ensemble vide, un plan ou une réunion de deux plans.
On vérife que l’équation de cette quadrique dans cette base est
soit
Si on pose , on obtient
Annexe D Appendice : Formes hermitiennes.
Dans beaucoup d’applications en physique - notamment en mécanique quantique, mais pas exclusivement -
nous avons besoin d’utiliser des espaces complexes. Par exemple, la fonction d’onde qui représente
un particule dans la représentation de Schrödinger, est un élément de , c’est-‘a-dire ,
une fonction complexe sur l’espace .
Mais si on essaie de définir une notion de longueur sur un espace complexe utilisant des formes bilinéaires
complexes on se rend rapidement compte que c’est impossible. En effet, aucune
forme bilinéaire complexe ne peut
avoir une forme quadratique associée
qui est réelle positive partout, puisque si
alors on a
Par contre, on sait que la fonction est partout
réelle et positive sur : d’ailleurs, la distance euclidienne sur
, vu comme un -espace vectoriel, est donnée par
Nous allons donc essayer de définir des distances sur des espaces complexes en utilisant des formes hermitiennes,
c’est-à-dire, des functions de deux variables se comportant comme la fonction
Définition 4
Soit un espace vectoriel complexe. Une fonction
est une forme hermitienne si et
seulement si
.
Notez qu’il résulte de (3) que est réel pour tout . Nous
avons,
parailleurs, que .
Exemples 5
La forme définie sur par
est une forme hermitienne. Celle-ci s’appelle la forme hermitienne
canonique sur .
La forme définie sur
par
est une forme hermitienne sur .
La forme définie sur par
est une forme hermitienne.
On dit qu’une forme hermitienne est définie positive si pour tout
nous avons que
Définition 6
Un espace hermitien est la donnée d’un espace vectoriel complexe
et d’une forme hermitienne , définie positive sur .
Bien sûr, tout ce que nous avons fait pour les formes bilinéaires
symétriques peut aussi se faire pour les formes hermitiennes.
Proposition 7
Soit un espace vectoriel complexe et soit une forme hermitienne sur
.
Soit une base pour et
soit la matrice définie par . La matrice est appellée la matrice de dans la base .
Soient
et soient leurs vecteurs de coordonnées dans
la base . Alors nous avons
Proposition 8(Règles de changement de la base)
Soit un espace vectoriel complexe et soit une forme hermitienne sur
.
Soient et deux bases pour
.
Soit la matrice de dans la base et soit
la matrice de dans la base . Soit la
matrice de passage de vers .
Alors
Nous notons que condition (3) de la définition des formes hermitiennes
implique
la proposition suivante.
Proposition 9
Soit une forme hermitienne sur un espace complexe, . Soit la
matrice de dans une base . Alors
Cette proposition inspire la définition suivante.
Définition 10
Soit une matrice complexe. L’adjointe de est la matrice définie par
Définition 11
Une matrice complexe de taille est dite hermitienne (ou
auto-adjointe) si et
seulement si
Nous pouvons définir le longueur d’un vecteur et la distance entre deux
éléments dans un espace hermitien comme pour un espace
prehilbertien réel.
Définition 12
Soit un espace hermitien et soient . On définit la
longueur de par
et la distance entre et par .
Avec cette notion de distance et de longueur, une version du procédé de
Gram-Schmidt et la projection orthogonale sont valables aussi sur
des espaces hermitiens.
Proposition 13(Projection orthogonale dans les espaces hermitiens.)
Soit un espace hermitien et soit un sous-espace vectoriel
de dimension finie. Soit une base orthonormée pour .
Alors pour tout on définit la projection orthogonale de sur
par
La projection est alors l’élément de qui minimise la distance
lorsque parcourt .
La démonstration est identique à celle donnée dans le cas des espaces
prehilbertiens réels.
Proposition 14
Soit un espace hermitien de dimension finie et soit une base. On construit une nouvelle base
récursivement par
l’algorithme suivant :
On pose .
La famille étant construite, nous posons
On pose .
On a maintenant construit et on revient à
l’étape (2) pour construire .
La base de ainsi construite est orthonormée.
La démonstration est identique à celle donnée dans le cas des espaces
prehilbertiens réels.
Remarque: notation bra-ket
C’est une notation qui permet de retrouver plus facilement certaines
résultats lorsqu’on travaille avec des produits
scalaires hermitiens et est particulièrement adaptée aux calculs en mécanique
quantique.
Si on note le produit scalaire canonique
de deux vecteurs et dans , on note
le vecteur colonne des coordonnées de et
le vecteur ligne obtenu par transposition et conjugaison, alors on
peut en quelque sorte séparer la notation du produit scalaire en son milieu :
Si est une base orthonormée, alors la relation :
s’écrit :
autrement dit le calcul des coordonnées dans une base
orthonormale s’écrit comme la décomposition
de l’application identité de
On ne peut pas se tromper de sens ci-dessus car est un scalaire.
La projection sur un sous-espace vectoriel de base orthonormée
s’écrit de manière analogue :
le calcul de est alors obtenu par
Gram-Schmidt s’écrit :
Si est une matrice hermitienne, alors on peut placer au milieu
du produit scalaire et on peut l’appliquer indifféramment à ou
:
La généralisation de cette notation aux espaces hilbertiens
complexes
de dimension infinie est populaire en mécanique quantique
où on manipule constamment des espaces de Hilbert et des
matrices hermitiennes (les observables). Une notation qui intègre
les propriétés des objets manipulés
permet de simplifier le travail!
Annexe E Utilisation de la calculatrice
On présente ici un résumé des commandes utiles dans ce module
pour les calculatrices empruntables au DLST (Casio Graph 90+e).
Pour les étudiants souhaitant acheter leur propre calculatrice parmi
les modèles compatibles, la Casio Graph 35eii est la moins chère en monochrome
(moins de 65 euros), la Casio Graph 90+e et la Numworks (N0110
d’occasion non verrouillée)
sont les moins chères en couleurs (80 euros),
la HP Prime (120 euros ou plus) est la plus performante... Le meilleur
rapport qualité prix est à mon avis la Graph 90.
Aucun logiciel de calcul formel n’est exempt de bugs, surtout s’il
n’a pas été beaucoup testé (cas des calculatrices couleurs
récentes). Cela peut se
traduire par un calcul qui n’en finit pas ou un plantage de la
calculatrice. Localisez l’emplacement du bouton Reset
qui permet de réinitialiser
votre calculatrice : Casio Graph 90+e/35eii/Numworks activable avec une pointe de stylo,
HP Prime, activable avec une pointe de trombone ou une épingle.
Sur les Casio, en cas de crash de KhiCAS, vous pouvez en général
taper sur la touche MENU et activer n’importe quelle autre application
puis relancer KhiCAS. Si le problème persiste, ouvrez l’application
Mémoire, puis F2 (mémoire de stockage) et effacez le fichier
session.xw.
E.1 Casio Graph 90+e/35eii
Si vous ne voyez pas l’icone de Xcas depuis MENU, installez
CAS
Le lien précédent explique plus en détails comment utiliser Xcas sur
cette calculatrice, on en donne ici un petit résumé.
E.1.1 Généralités
Pour saisir une commande, cherchez-la depuis le catalogue, touche F4.
Tapez sur F6 pour avoir une aide rapide sur la commande, tapez sur F2 ou F3
pour recopier un exemple en ligne de commande (on peut ensuite le
modifier) ou sur F1 pour entrer le nom de commande.
Exemple : taper F4 puis 2 Algebre puis 3 factor puis F2
(Exemple 1) puis EXE. Taper EXIT pour quitter l’affichage 2d du
résultat et revenir à l’historique.
Vous pouvez recopier une entrée précédente de l’historique en
utilisant le pavé directionnel, sélectionnez la ligne à recopier
puis EXE.
Pour taper une majuscule, taper d’abord sur la touche rouge ALPHA puis
sur la touche correspondant à la légende en rouge (par exemple 2
pour V).
Pour bloquer le clavier en minuscules, taper F5. Un autre appui sur F5
bascule entre majuscules et minuscules. Taper ALPHA pour
quitter le mode alphabétique.
L’unité d’angle par défaut est le radian, on peut le vérifier dans la
ligne d’état (RAD). Si ce n’est pas le cas, faire shift, SETUP, 3, EXIT. Vérifiez
aussi que vous êtes en mode Xcas : si Python apparait
dans la ligne d’état, faire shift, SETUP, 2, EXIT.
Pour obtenir une approximation numérique d’une expression, on
peut utiliser
la commande approx(, raccourci clavier touche 2.
Pour visualiser la liste des variables définies, taper sur la touche
VARS.
E.1.2 Interrompre/effacer.
Pour interrompre un calcul trop long, commencez par taper sur AC/ON. Si
cela n’a pas d’effet, enfoncez un stylo dans le trou du bouton RESTART à
l’arrière de la calculatrice.
Pour effacer l’historique, tapez sur AC/ON et confirmez. Si un bug
d’affichage apparait (avec des caractères bizzares), effacer
l’historique devrait résoudre le problème. Dans certains cas,
il faut effacer les données de session de Xcas, pour cela taper sur la touche
MENU, puis Memoire, puis F2 (Memoire de stockage), effacer
les fichiers lastvar.py et session.xw.
La touche VARS permet de saisir la commande
purge pour supprimer une variable, et la
commande restart pour effacer toutes les variables.
E.1.3 Algèbre (bi-)linéaire
Pour saisir une matrice, vous pouvez l’entrer directement comme une
liste de listes en ligne de commande par exemple m=[[1,2],[3,4]]
Vous pouvez aussi utiliser le menu F6, 11 Editer matrice ou
le raccourci shift-Mat, 1 matrix, donner le nom
de variable de la matrice, puis le nombre de lignes et colonnes
et remplir la matrice, terminer en tapant EXE. La matrice
est visible dans la liste des variables (VARS).
Les opérations usuelles (+ - * /) s’appliquent aux
matrices. On peut calculer l’inverse d’une matrice avec ^-1
(touche shift )). On peut calculer la transconjuguée
d’une matrice (donc la transposée pour une matrice réelle)
avec ^*
Le menu F4 puis 3 Algebre (bi)lineaire et
17 Matrices, et le menu rapide shift-2 (Mat) contiennent
des commandes pour faire
a2q, q2a pour convertir une expression de forme
quadratique en matrice et récriproquement
gauss: algorithme de réduction de Gauss pour les formes
quadratiques, gramschmidt: algorithme de Gram-Schmidt
pour orthonormaliser
det (déterminant), charpoly (polynôme caractéristique),
eigenvals (valeurs propres), eigenvects (vecteurs
propres), jordan (diagonalisation), tran
(transposée).
La commande pour faire le pivot de Gauss s’appelle rref et
peut être saisie au clavier (F5 puis rref) ou depuis le menu F4 Tout
puis rr.
Exemples
pivot de Gauss :
m=[[1,2,3],[4,5,6]] rref(m)
forme bilinéaire définie par une intégrale :
F(P,Q):=integrate(P*Q(x=1-x),x,0,1) F(1,x) F(x,x^2)
Pour saisir : de :=, taper shift-PRGM
ou shift-INS, pour saisir integrate,
taper F2.
réduction d’une forme quadratique (algorithme de Gauss) : gauss(x^2+x*y,[x,y])
base du noyau d’une application linéaire ou d’une forme bilinéaire
symétrique de matrice
m=[[0,1,0],[1,0,-1],[0,-1,0]] ker(m) (renvoie une base du noyau sous forme d’une liste de vecteurs lignes)
réduction d’endomorphisme :
A=[[1,-1],[2,4]] factor(det(A-x*idn(2))) eigenvals(A) eigenvects(A) P,D:=jordan(A); P*D*inv(P)
Attention pour une matrice symétrique, la matrice renvoyée
n’a pas de raison d’être orthogonale. Bien sur, les vecteurs propres
correspondant à des valeurs propres distinctes sont orthogonaux.
gramschmidt prend en argument une liste de vecteurs lignes à
orthonormaliser pour le produit scalaire usuel, gramschmidt([[1,2,3],[4,5,6]])
ou une liste d’expressions formant une base d’un sous-espace
vectoriel (de fonctions ou de polynômes) et un produit scalaire.
Par exemple pour
ps(p,q):=integrate(p*q,x,-1,1) gramschmidt([1,1+x,x^2],ps)
E.1.4 Coefficients de Fourier
Les commandes se trouvent dans le menu F4 puis 4 Analyse.
Par exemple pour avoir les coefficients de Fourier de la
fonction sur , faire fourier_an(x^2,n).
Pour avoir faire fourier_an(x^2,0).
Si la période
n’est pas il faut donner 5 arguments, par exemple sur
avec comme période , fourier_an(x^2,x,2,n,-1)
Si la fonction est définie par morceaux, commencer par la définir
avec la commande piecewise, par exemple piecewise(x>0,exp(x),-exp(-x))
pour si et sinon (complétion par
imparité de l’exponentielle pour calculer sa série en sinus).
Pour saisir piecewise, taper F5 puis piecewise, ou depuis l
menu F4 taper 1 (Tout) puis
taper sur les touches p et i, puis EXE pour sélectionner piecewise.
Pour vérifier le théorème de Dirichlet ou l’identité de Parseval
de manière approchée, on utilise la fonction sum (menu F1),
par exemple pour Parseval
Si vous avez un résultat exact dans l’éditeur d’expression (par
exemple parce que vous avez saisi pi^2/6 au lieu
de pi^2/6.0), vous pouvez
obtenir une valeur approchée de la sélection en surbrillance en tapant
shift F6 (evalf). Vous pouvez changer la sélection avec les
touches du curseur, en tapant plusieurs fois sur la flèche vers le haut
vous pouvez sélectionner toute l’expression et en obtenir une valeur
numérique avec shift F6.
E.1.5 Courbes
Pour tracer la représentation graphique d’une courbe, on
peut utiliser l’application intégrée de Casio
(cf. le manuel du constructeur), mais
il n’est alors pas possible d’effectuer des calculs analytiques en
même temps.
On conseille donc de rester dans CAS et d’utiliser la commande
plot.
Cette commande se trouve dans le sous-menu Graphiques : touches F4 puis 7
ou shift-touche de fractions,
sélectionner la commande avec le curseur haut ou bas.
Taper ensuite F2 pour recopier un exemple en ligne de commande,
vous pouvez ensuite modifier cet exemple et l’exécuter.
La touche permet de saisir ou selon le réglage
du menu shift-SETUP.
Par exemple
X:=x^2;plot(x,x=-pi..pi)
Pour saisir X, taper ALPHA puis la touche + (X en rouge) ;
pour saisir :=, taper shift-PRGM 2 =, , etc.
Pour définir une variable, on peut omettre le :, i.e. écrire = à la place de :=
Utilisez les touches de déplacement du Pad pour bouger le graphique,
les touches + et - pour faire un zoom in ou out et EXIT pour quitter.
Pour faire les calculs nécessaires à l’étude de la courbe,
vous pouvez utiliser les fonctions de calcul formel (factor,
simplify, solve, diff, limit,
int, etc.) qui se trouvent dans les menus rapides F1/F2 ou
par le menu complet (F4, puis Algebre
ou Analyse ou Resoudre) ou via des raccourcis claviers
(* pour factoriser, + pour développer).
Par exemple
X1:=diff(X,t) (F2, 2) calcule la dérivée de
par rapport à . X1=>* factorise la dérivée
(touche pour saisir =>),
solve(X1=0,t) cherche les zéros de la dérivée, etc.
Les calculs d’intégrales (F4 Analyse integrate) se font par défaut en
cherchant une primitive ce qui peut être long ou/et ne pas aboutir,
vous pouvez forcer le calcul approché d’une intégrale
définie en mettant une des bornes sous forme d’un nombre approché
par exemple 1.0 au lieu de 1.
E.1.6 Équations différentielles
Pour résoudre une équation ou un système différentiel linéaire,
ouvrez le catalogue F4 puis Resoudre puis la commande
desolve(, puis ses arguments, par
exemple desolve(Y'=x*Y-x,x,Y) ou avec condition
initiale desolve([Y'=x*Y-x,Y(0)=2],x,Y).
Pour saisir le caractère prime de dérivation, taper F2 1.