Algorithmes de calcul formel et numérique

B. Parisse
Institut Fourier
UMR 5582 du CNRS
Université de Grenoble

Giac/Xcas est un logiciel libre de calcul formel dont une caractéristique est de nécessiter peu de ressources sans sacrifier les performances (en particulier sur les calculs polynomiaux). Ce document décrit une partie des algorithmes de calcul formel et numérique qui y sont impleémentés, l’objectif à long terme est de couvrir l’essentiel des algorithmes implémentés. Ce n’est pas le manuel d’utilisation de Xcas, ni un manuel de programmation ou d’exercices illustrés avec Xcas (voir le menu Aide, Manuels : Référence calcul formel, Programmation, Exercices, Amusements...). Ce texte regroupe donc des résultats mathématiques qui ont été ou sont utilisés dans Giac (ou sont susceptibles de l’être), ils sont en général accompagnés de preuves et souvent d’illustrations avec Xcas.
Pour plus d’informations sur Giac/Xcas, cf. :
www-fourier.ujf-grenoble.fr/~parisse/giac_fr.html

N.B.: La version HTML de ce document comporte des champs de saisie interactifs, ceux-ci apparaissent comme des commandes “mortes” dans la version PDF (elles sont exécutées une fois pour toutes par la version non interactive de giac). La version HTML est optimisée pour le navigateur Firefox. Elle est générée avec hevea.inria.fr de Luc Maranget, ou le fork de Yannick Chevallier pour le support mathjax, ainsi qu’une version modifiée de itex2MML de Jacques Distler pour la conversion en MathML. Si vous avez une machine très puissante, vous pouvez exécuter toutes les commandes interactives en cliquant sur le bouton Exécuter. En-dessous de ce bouton se trouve la console de l’interpréteur du logiciel de calcul formel.

Table des matières

Chapitre 1  Plan et index

L’index commence page suivante dans la version PDF.

Quelques conseils de lecture :

Index

Chapitre 2  Trousse de survie Xcas

Cette section peut être vue comme un tutoriel très abrégé pour rapidement prendre en main Xcas par des exemples au niveau fin de licence master de mathématique et préparation aux concours de recrutement d’enseignants. Le lecteur pourra consulter le tutoriel calcul formel (menu Xcas, Aide, Débuter en calcul formel, tutoriel) pour plus de détails ou/et à un niveau mathématique moins élevé.

2.1  Utilisation comme super-calculatrice

2.2  Calcul exact

2.2.1  Arithmétique

2.2.2  Algèbre linéaire exacte

2.3  Calcul scientifique

2.3.1  Analyse numérique

2.3.2  Algèbre linéaire numérique

Chapitre 3  Calculer sur ordinateur

3.1  Représentation des entiers

Proposition 1   Division euclidienne de deux entiers : si aa et bb sont deux entiers, a0,b>0a \geq 0, b>0, il existe un unique couple (q,r)(q,r) tel que a=bq+r,r[0,b[ a = bq +r , \quad r \in [0, b[

Preuve : On prend pour qq le plus grand entier tel que abq0a-bq \geq 0.
Exemple :

La division euclidienne permet d’écrire un nombre entier, en utilisant une base bb et des caractères pour représenter les entiers entre 0 et b1b-1. Nous écrivons les nombres entiers en base b=10b=10 avec comme caractères les chiffres de 0 à 9. Les ordinateurs utilisent des circuits binaires pour stocker les informations, il est donc naturel d’y travailler en base 2 en utilisant comme caractères 0 et 1 ou en base 16 en utilisant comme caractères les chiffres de 0 à 9 et les lettres de A à F. En général, pour trouver l’écriture d’un nombre en base bb (par exemple b=2b=2), on effectue des divisions euclidienne successives par bb du nombre puis de ses quotients successifs jusqu’à ce que le quotient soit 0 et on accolle les restes obtenus (premier reste à droite, dernier reste à gauche). Inversement, pour retrouver un entier dd à partir de son écriture d n...d 0d_n...d_0, on traduit les divisions euclidiennes successives en d = (...((d nb+d n1)b+d n2)...+d 1)b+d 0 = d nb n+d n1b n1+...+d 0 \begin{matrix} d &=&( ... ((d_n b +d_{n-1})b + d_{n-2})...+d_1)b+d_0\\ &=& d_n b^n + d_{n-1} b^{n-1} + ... + d_0 \end{matrix} Par exemple, vingt-cinq s’écrit en base 16 0x19 car 25 divisé par 16 donne quotient 1, reste 9


En base 2, on trouverait 0b11001 car 25=2 4+2 3+125=2^4+2^3+1.


On peut effectuer les opérations arithmétiques de base (+,-,*, division) directement en base 2 (ou 16). Par exemple la table de l’addition est 0+0=0, 0+1=1+0=1 et 1+1=0 je retiens 1, donc :

  01001111
+ 01101011
----------
  10111010

Exercice : comment passe-t-on simplement de la représentation d’un nombre en base 2 à un nombre en base 16 et réciproquement ?

Les microprocesseurs peuvent effectuer directement les opérations arithmétiques de base sur les entiers “machine” (déclinés en plusieurs variantes selon la taille et la possibilité d’avoir un signe). Noter que la division de deux entiers aa et bb n’a pas la même signification que la division de deux réels, comme elle ne tomberait pas forcément juste, on calcule le quotient et le reste de la division euclidienne.

Ces entiers machines permettent de représenter de manière exacte des petits entiers relatifs par exemple un entier machine signé sur 4 octets est compris entre [2 31,2 311][-2^{31},2^{31}-1].

Ces entiers machines permettent de faire très rapidement du calcul exact sur les entiers, mais à condition qu’il n’y ait pas de dépassement de capacité, par exemple pour des entiers 32 bits, 2 30+2 30+2 30+2 302^{30}+2^{30}+2^{30}+2^{30} renverra 0. Ils sont utilisables avec tous les langages de programmation traditionnels.

Les logiciels de calcul formel et certains logiciels de programmation permettent de travailler avec des entiers de taille beaucoup plus grande, ainsi qu’avec des rationnels, permettant de faire du calcul exact, mais on paie cette exactitude par un temps de calcul plus long, de plus pas mal de méthodes numériques ne gagnent rien à faire des calculs intermédiaires exacts. Néanmoins, l’utilisation d’un logiciel de calcul formel permettra dans certains cas d’illustrer certains phénomènes dus au calcul approché.

3.2  Les réels

On se ramène d’abord au cas des réels positifs, en machine on garde traditionnellement un bit pour stocker le signe du réel à représenter.

3.2.1  Virgule fixe et flottante.

La première idée qui vient naturellement serait d’utiliser un entier et de déplacer la virgule d’un nombre fixe de position, ce qui revient à mulitplier par une puissance (négative) de la base. Par exemple en base 10 avec un décalage de 4, 1234.5678 serait représenté par 12345678 et 1.2345678 par 12345 (on passe de l’entier au réel par multiplication par 10 410^{-4}. L’inconvénient d’une telle représentation est qu’on ne peut pas représenter des réels grands ou petits, comme par exemple le nombre d’Avogadro, la constante de Planck, etc.

D’où l’idée de ne pas fixer la position de la virgule, on parle alors de représentation à virgule flottante ou de nombre flottant : on représente un nombre par deux entier, l’un appelé mantisse reprend les chiffres significatifs du réel sans virgule, l’autre l’exposant, donne la position de la virgule. Attention, le séparateur est un point et non une virgule dans la grande majorité des logiciels scientifiques. On sépare traditionnellement la mantisse de l’exposant par la lettre e. Par exemple 1234.5678 peut être représenté par 12345678e-8 (mantisse 12345678, exposant -8) mais aussi par 1234567800e-10.

Naturellement, sur un ordinateur, il y a des limites pour les entiers représentant la mantisse mm et l’exposant ee. Si on écrit les nombres en base bb, la mantisse mm s’écrira avec un nombre nn fixé de chiffres (ou de bits en base 2), donc m[0,b n[m \in [0,b^n[. Soit un réel xx représenté par x=mb e,m[0,b n[ x=mb^e, \quad m \in [0,b^n[ Si m[0,b n1[m\in [0,b^{n-1}[, alors on peut aussi écrire x=mb e1x=m' b^{e-1} avec m=mb[0,b n[m'=mb \in [0,b^n[, quelle écriture faut-il choisir? Intuitivement, on sent qu’il vaut mieux prendre mm' le plus grand possible, car cela augmente le nombre de chiffres significatifs (alors que des 0 au début de mm ne sont pas significatifs). Ceci est confirmé par le calcul de l’erreur d’arrondi pour représenter un réel. En effet, si xx est un réel non nul, il ne s’écrit pas forcément sous la forme mb emb^e, on doit l’arrondir, par exemple au plus proche réel de la forme mb emb^e. La distance de xx à ce réel est inférieure ou égale à la moitié de la distance entre deux flottants consécutifs, mb emb^e et (m+1)b e(m+1)b^e, donc l’erreur d’arrondi est inférieure ou égale à b e/2b^e/2. Si on divise par xmb ex \geq mb^e, on obtient une erreur relative d’arrondi majorée par 1/(2m)1/(2m). On a donc intérêt à prendre mm le plus grand possible pour minimiser cette erreur. Quitte à mulitplier par bb, on peut toujours se ramener (sauf exceptions, cf. ci-dessous), à m[b n1,b n[m \in [b^{n-1},b^n[, on a alors une erreur d’arrondi relative majorée par 12b n1 \frac{1}{2b^{n-1}}

On appelle flottant normalisé un flottant tel que m[b n1,b n[m \in [b^{n-1},b^n[. Pour écrire un réel sous forme de flottant normalisé, on écrit le réel en base bb, et on déplace la virgule pour avoir exactement nn chiffres non nuls avant la virgule et on arrondit (par exemple au plus proche). L’exposant est égal au décalage effectué. Notez qu’en base 2, un flottant normalisé commence forcément par 1, ce qui permet d’économiser un bit dans le stockage.

Ainsi, l’erreur d’arrondi commise lorsqu’on représente un réel (connu exactement) par un double normalisé est une erreur relative inférieure à de 2 532^{-53} (b=2b=2 et n=52+1n=52+1 pour les doubles).

Exemples :

Il existe une exception à la possibilité de normaliser les flottants, lorsqu’on atteint la limite inférieure de l’exposant ee. Soit en effet e me_m le plus petit exposant des flottants normalisés et considérons les flottants x=b e m(1+1/b)x=b^{e_m}(1+1/b) et y=b e my=b^{e_m}. Ces flottants sont distincts, mais leur différence n’est plus représentable par un flottant normalisé. Comme on ne souhaite pas représenter xyx-y par 0, (puisque le test x==yx==y renvoie faux), on introduit les flottants dénormalisés , il s’agit de flottants dont l’exposant est l’exposant minimal représentable sur machine et dont la mantisse appartient à [0,b n1[[0,b^{n-1}[. Par exemple 0 est représenté par un flottant dénormalisé de mantisse 0 (en fait 0 a deux reprśentation, une de signe positif et une de signe négatif).

Enfin, on utilise traditionnellement une valeur de l’exposant pour représenter les nombres plus grands que le plus grand réel reprśentable sur machine (traditionnellement appelé plus ou moins infini) et les erreurs (par exemple 0./0. ou racine carrée d’un nombre réel négatif, traditionnellement appelé NaN, Not a Number).

Exercice : quels sont les nombres réels représentables exactement en base 10 mais pas en base 2 ? Si on écrit 1/101/10 en base 2 avec 53 bits de précision, puis que l’on arrondit avec 64 bits de précision, ou si on écrit 1/101/10 en base 2 avec 64 bits de précision, obtient-on la même chose ?

Les ordinateurs reprśentent généralement les flottants en base 2 (cf. la section suivante pour plus de précisions), mais cette représentation n’est pas utilisée habituellement par les humains, qui préfèrent compter en base 10. Les ordinateurs effectuent donc la conversion dans les routines d’entrée-sortie. Le format standard utilisé pour saisir ou afficher un nombre flottant dans un logiciel scientifique est composé d’un nombre à virgule flottante utilisant le point comme séparateur décimal (et non la virgule) suivi si nécessaire de la lettre e puis de l’exposant, par exemple 1.23e-5 ou 0.0000123. Dans les logiciels de calcul formel, pour distinguer un entiers représentés par un entier d’un entier représenté par un flottant on écrit l’entier suivi de .0 par exemple 23.0.

Remarque :
Les microprocesseurs ayant un mode BCD peuvent avoir un format de représentation des flottants en base 10, les nombres décimaux comme par exemple 0.3 peuvent être représentés exactement. Certains logiciels, notamment maple, utilisent par défaut des flottants logiciels en base 10 sur des microprocesseurs sans mode BCD, ce qui entraine une baisse de rapidité importante pour les calculs numériques (on peut partiellement améliorer les performances en utilisant evalhf en maple).

3.2.2  Les flottants au format double

Cette section développe les notions de la section précédente pour les flottants machine selon la norme IEEE-754, utilisables dans les langage de programmation usuels, elle peut être omise en première lecture. La représentation d’un double en mémoire se compose de 3 parties : le bit de signe s=±1s=\pm 1 sur 1 bit, la mantisse M[0,2 52[M \in [0,2^{52}[ sur 52 bits, et l’exposant e[0,2 11[e \in [0, 2^{11}[ sur 11 bits. Pour les nombres “normaux”, l’exposant est en fait compris entre 1 et 2 1122^{11}-2, le nombre représenté est le rationnel (1+M2 52)2 e+12 10 (1+\frac{M}{2^{52}}) 2^{e+1-2^{10}} Pour écrire un nombre sous cette forme, il faut d’abord chercher par quel multiple de 2 il faut le diviser pour obtenir un réel rr dans [1,2[[1,2[, ce qui permet de déterminer l’exposant ee. Ensuite on écrit la représentation en base 2 de r1[0,1[r-1 \in [0,1[. Exemples :

On observe que la représentation en base 2 de 6.4 a du être arrondie (car elle est infinie en base 2) bien qu’elle soit exacte (finie) en base 10. Seuls les entiers et les rationnels dont le dénominateur est une puissance de 2 peuvent être représentés exactement. Ceci entraine des résultats qui peuvent surprendre comme par exemple le fait que 0.5 - 5*0.1 n’est pas nul.

Des représentations spéciales (avec e=0e=0 ou e=2 111e=2^{11}-1) ont été introduites pour représenter ±\pm \infty (pour les flottants plus grands en valeur absolue que le plus grand flottant représentable), et pour représenter les nombres non nuls plus petits que le plus petit flottant représentable de la manière exposée ci-dessus (on parle de flottants dénormalisés), ainsi que le nombre NaN (Not a Number) lorsqu’une opération a un résultat indéfini (par exemple 0/0).

Remarque : Sur les processeurs compatibles avec les i386, le coprocesseur arithmétique i387 gère en interne des flottants avec 80 bits dont 64 bits de mantisse. Sur les architectures 64 bits (x86 ou AMD), le jeu d’instruction SSE permet de travailler avec des flottants de 128 bits. Le compilateur gcc permet d’utiliser ces flottants longs avec le type long double ou les types __float80 et __float128 en utilisant un drapeau de compilation du type -msse

3.2.3  Opérations sur les flottants

Les opérations arithmétiques de base sur les flottants se font de la manière suivante :

3.2.4  Erreurs

La représentation des nombres réels par des doubles présente des avantages, les opérations arithmétiques sont faites au plus vite par le microprocesseur. Les coprocesseurs arithmétiques (intégrés sur les microprocesseurs de PC) proposent même le calcul des fonctions usuelles (trigonométriques, racine carrée, log et exp) sur le type double et utilisent des formats de représentation interne ayant plus de 64 bits pour les doubles, ce qui permet de limiter les erreurs d’arrondi. Par contre, des erreurs vont être introduites, on parle de calcul approché par opposition au calcul exact sur les rationnels. En effet, la représentation doit d’abord arrondir tout réel qui n’est pas un rationnel dont le dénominateur est une puissance de 2. Ensuite chaque opération va entrainer une propagation de ces erreurs et va y ajouter une erreur d’arrondi sur le résultat. Enfin, l’utilisation du type double peut provoquer un dépassement de capacité (par exemple 100!*100!).

Pour diminuer ces erreurs et les risques de dépassement de capacité, il existe des types flottants multiple précision, qui permettent de travailler avec un nombre fixé à l’avance de décimales et une plage d’exposants plus grande. Les calculs sont plus longs mais les erreurs plus faibles. Attention, il s’agit toujours de calcul approché! De plus, pour des quantités dont la valeur est déterminée de manière expérimentale, la source principale de propagation d’erreurs est la précision des quantités initiales, il ne sert souvent à rien d’utiliser des types flottants multiprécision car les erreurs dus à la représentation (double) sont négligeables devant les erreurs de mesure. Dans ce cas, il est pertinent lorsqu’on évalue f(x)f(x) avec xx mal connu de calculer aussi f(x)f'(x), en effet : f(x(1+h))=f(x)+xhf(x)+O(h 2)f(x(1+h))= f(x)+xh f'(x) + O(h^2) l’erreur relative sur f(x)f(x) est donc au premier ordre multipliée par |xf(x)f(x)||\frac{xf'(x)}{f(x)}| Par exemple, l’erreur relative sur e xe^x est au premier ordre l’erreur relative sur xx multipliée par |x||x|.


3.2.5  Erreur absolue, relative, arrondi propagation des erreurs.

On a vu précédemment que pour représenter un réel, on devait l’arrondir, ce qui introduit une erreur même si le réel est connu exactement (par exemple 1/10). Voyons comment se propagent les erreurs dans les opérations arithmétiques de base : on distingue l’addition, la multiplication et l’inversion. La soustraction se ramène à l’addition car le calcul de l’opposé n’introduit aucune erreur nouvelle. Pour l’addition, si |xx 0|ε 0|x -x_0| \leq \varepsilon_0 et si |yy 0|ε 1|y-y_0| \leq \varepsilon_1 alors par l’inégalité triangulaire (|a+b||a|+|b||a+b|\leq |a|+|b|), on a : |(x+y)(x 0+y 0)||xx 0|+|yy 0|ε 0+ε 1 |(x+y)-(x_0+y_0)| \leq |x-x_0| + | y-y_0 | \leq \varepsilon_0 + \varepsilon_1 on dit que les erreurs absolues s’additionnent.

Définition 2   L’erreur absolue est définie comme un majorant de la valeur absolue de la différence entre le nombre réel et son représentant double : |xx 0|ε |x-x_0| \leq \varepsilon

Mais comme il faut représenter x 0+y 0x_0+y_0 en machine, on doit ajouter une erreur d’arrondi, qui est proportionnelle à la valeur absolue de x 0+y 0x_0+y_0 d’où la notion d’erreur relative :

Définition 3   L’erreur relative est égale à l’erreur absolue divisée par la valeur absolue du nombre |xx 0|ε|x 0| |x-x_0| \leq \varepsilon |x_0|

Remarquons au passage que les erreurs de mesure expérimentales sont pratiquement toujours des erreurs relatives.

Donc lorsqu’on effectue une addition (ou une soustraction) de deux réels sur machine, on doit additionner les deux erreurs absolues sur les opérandes et ajouter une erreur d’arrondi (relative de 2 532^{-53}, à titre d’exercice, on pourra vérifier que cette erreur d’arrondi est majorée par l’erreur absolue de la somme x+yx+y dès l’instant où xx et yy ont eux-même une erreur d’arrondi).

Lorsqu’on effectue une multiplication de deux nombres x,yx,y dont les représentants x 0,y 0x_0,y_0 sont non nuls, on a |xyx 0y 0x 0y 0|=|xx 0yy 01|=|(xx 01)(yy 01)+(xx 01)+(yy 01)| \left| \frac{xy-x_0 y_0}{x_0 y_0} \right| = \left| \frac{x}{x_0} \frac{y}{y_0} -1 \right| = \left| (\frac{x}{x_0}-1)(\frac{y}{y_0} -1)+(\frac{x}{x_0}-1)+(\frac{y}{y_0} -1) \right| l’erreur relative est donc la somme des erreurs relatives et du produit des erreurs relatives (on peut souvent négliger le produit devant la somme). Il faut aussi y ajouter une erreur relative d’arrondi de 2 532^{-53} sur x 0y 0x_0 y_0.

On observe que la multiplication est une opération posant moins de problèmes que l’addition, car on manipule toujours des erreurs relatives, par exemple si l’erreur relative sur deux doubles xx et yy non nuls est de 2 532^{-53}, alors l’erreur relative sur xyxy sera de 2 53+2 53+2 106+2 533×2 53 2^{-53} + 2^{-53} + 2^{-106} + 2^{-53} \approx 3 \times 2^{-53} Lorsque l’erreur relative sur les données est grande devant 2 532^{-53}, l’erreur relative d’arrondi final est négligeable, on peut alors dire que les erreurs relatives s’additionnent pour un produit (c’est aussi vrai pour un quotient: exercice!). Par contre, si on additionne deux nombres dont le représentant de la somme est proche de 0, la somme des erreurs absolues peut devenir non négligeable par rapport à la somme des représentants, entrainant une erreur relative très grande. Par exemple si xx est représenté par x 0=1+2 52x_0=1+2^{-52} avec une erreur d’arrondi de 2 532^{-53} et yy par y 0=1y_0=-1 avec la même erreur d’arrondi, l’addition de xx et yy renvoie 2 522^{-52} avec une erreur absolue de 2*2 532 * 2^{-53} (ici il n’y a pas d’arrondi lorsqu’on fait la somme). C’est une erreur relative de 11 (qui domine largement l’erreur d’arrondi) ce qui signifie que dans la mantisse, seul le premier bit sur les 52 a un sens, la perte de précision est très grande.

Une autre conséquence importante est que l’addition de réels sur machine n’est pas une opération associative, par exemple (2.0 53+2.0 53)+1.01+2 52 (2.0^{-53}+2.0^{-53})+1.0 \rightarrow 1+2^{-52} alors que 2.0 53+(2.0 53+1.0)1 2.0^{-53}+(2.0^{-53}+1.0) \rightarrow 1 Dans Xcas, il n’y a que 48 bits de mantisse :

Si on a plusieurs termes à additionner, il faut commencer par additionner entre eux les termes les plus petits, pour que les petits termes ne soient pas absorbés un à un dans les erreurs d’arrondi (les petits ruisseaux font les grands fleuves).

Exercice : pour calculer la valeur numérique d’une dérivée de fonction, il vaut mieux calculer (f(x+h)f(xh))/(2h)(f(x+h)-f(x-h))/(2h) que (f(x+h)f(x))/h(f(x+h)-f(x))/h car le terme d’erreur est en O(h 2)O(h^2) et non en O(h)O(h). Attention toutefois à ne pas prendre hh trop petit, sinon x+h=xx+h=x en flottants et même si x+hxx+h \neq x, l’erreur absolue sur f(x+h)f(xh)f(x+h)-f(x-h) est (au moins) d’ordre ε|f(x)|\varepsilon |f(x)|, donc l’erreur relative est d’ordre ε/h|f(x)|\varepsilon/h |f(x)|. Par exemple pour h=1e-8 le reste est en O(h 2)O(h^2) donc de l’ordre des erreurs d’arrondi mais l’erreur relative sur f(x+h)f(xh)f(x+h)-f(x-h) est d’ordre ε/h\epsilon/h largement supérieure (en flottants double-précision). On choisira plutôt hh tel que ε/h\epsilon/h soit proche de h 2h^2, donc de l’ordre de 1e-5, qui fournira une valeur approchée avec une erreur relative de l’ordre de 1e-10. Exemple : calcul de la dérivée numérique de exp(sin(x))\exp(\sin(x)) en x=1x=1

Remarquons néanmoins que les erreurs calculées ici sont des majorations des erreurs réelles (ou si on préfère l’erreur obtenue dans le pire des cas), statistiquement les erreurs sur les résultats sont moindres, par exemple si on effectue nn calculs susceptibles de provoquer des erreurs indépendantes suivant une même loi d’espérance nulle, la moyenne des erreurs divisée par l’écart-type de la loi tend vers une loi normale centrée réduite. De manière plus déterministe, on a l’inégalité de Bienaymé-Tchebyshev P(|X|>α)nσ 2α 2 P(|X|>\alpha) \leq \frac{n\sigma^2}{\alpha^2} XX est la variable aléatoire somme des nn erreurs, α\alpha l’erreur et nσ 2n\sigma^2 la variance de la somme nn erreurs supposées indépendantes, cette probabilité tend vers 0 pour nn grand si α\alpha est d’ordre nn, et ne tend pas vers 0 si α\alpha est de l’ordre de n\sqrt{n}. Exemple : somme de n=400n=400 nombres répartis sur [1,1][-1,1] selon la loi uniforme (représentant des erreurs), on divise par n=\sqrt{n}=20, on effectue plusieurs tirages (par exemple 500) on trace l’histogramme et on compare avec la loi normale de moyenne nulle (l’espérance de la somme) et d’écart-type celui de la loi uniforme.

Attention, si on effectue la somme de nn réels jx j\sum_j x_j, les erreurs d’arrondis ne satisfont pas à ces hypothèses. En effet, l’erreur d’arrondi à chaque opération est une erreur relative, l’erreur absolue correspondante est ε|x 1+x 2|\epsilon |x_1+x_2| puis ε|x 1+x 2+x 3|\epsilon |x_1+x_2+x_3| puis ... ε|x 1+x 2+...+x n|\epsilon |x_1+x_2+...+x_n|, que l’on peut majorer par ε((n1)|x 1|+(n2)|x 2|+...+|x n||)\epsilon ((n-1)|x_1|+(n-2)|x_2|+...+|x_n||) La majoration de l’erreur d’arrondi dépend donc de l’ordre des termes, on a intérêt à sommer en commençant par les termes les plus petits en valeur absolue. Mais on peut faire mieux, il est possible de corriger les erreurs d’arrondi dans une somme avec le programme suivant pour une liste (on peut bien sur adapter à la somme d’une expression dépendant d’une variable entière sans stocker de liste) :

Somme(l):={
  local x,s,c;
  s:=0.0;
  c:=0.0;
  pour x in l faire
    c += (x-((s+x)-s));
    s += x;
  fpour;
  print(c);
  return s+c;
}:;


En effet, cc devrait valoir 0 sans erreurs d’arrondis, avec les erreurs d’arrondis, on a le premier calcul s+xs+x qui donnera une erreur opposée à celui du calcul de ss à la ligne suivante, le 2ième calcul effectué (s+x)s(s+x)-s donne une erreur absolue en ε|x|\epsilon |x| au pire (car c’est une erreur relative par rapport à (s+x)s(s+x)-s), et la 3ième erreur d’arrondi est négligeable (puisque la somme vaut 0). On a donc une erreur absolue sur s+cs+c qui est au premier ordre au pire en O(ε|x i|)O(\epsilon \sum|x_i|), bien meilleure que la majoration ε((n1)|x 1|+(n2)|x 2|+...+|x n||)\epsilon ((n-1)|x_1|+(n-2)|x_2|+...+|x_n||) calculée précédemment.

Par exemple
à comparer avec
(le calcul de SS est fait en exact, celui de sum(1. /j,j,1,n) est approché sans correction).

En conclusion, il est souvent très difficile de calculer une majoration rigoureuse de l’erreur pour des calculs (sauf les plus simples), et cette majoration est en général bien trop pessimiste. Lorsqu’on doute de la précision d’un calcul, un test peu couteux consiste à refaire ce calcul en utilisant des flottants en précision plus grande et tester si le résultat varie en fonction du nombre de chiffres significatifs utilisés, ou faire varier légèrement les données et observer la sensibilité du résultat. Si on veut travailler en toute rigueur sans pour autant calculer les erreurs à priori, il faut utiliser un logiciel utilisant des intervalles pour représenter les réels (section suivante)

3.3  L’arithmétique d’intervalle.

Certains systèmes de calcul formel peuvent manipuler directement des intervalles réels, par exemple par l’intermédiaire de la bibliothèque C MPFI. Les opérations arithmétiques sur des intervalles renvoient alors le meilleur intervalle possible contenant toutes les valeurs possibles lorsque les opérandes parcourent leurs intervalles respectifs. Exemple en Xcas (version 1.1.1 et ultérieures) : [-1..2]*[-1..2] renvoie [-2..4]. Attention ici on parcourt toutes les valeurs possibles de xy,x[1,2],y[1,2]xy, \ x \in [-1,2], y \in [-1,2]. Ce qui est différent du carré d’un intervalle ou plus généralement de l’évaluation d’un polynôme en un intervalle, horner(x^2,[-1..2]) renvoie ainsi [0..4].

Les fonctions disponibles sont souvent moins riches qu’en arithmétique flottante, le calcul d’une fonction non monotone sur un intervalle peut s’avérer délicat, alors que si la fonction est monotone, il suffit de calculer l’image des deux bornes de l’intervalle. Pour les polynômes, Xcas décompose les coefficients en deux parties P=P +P P=P_+-P_- en fonction du signe, puis utilise la monotonie de P +P_+ et P P_- sur +\mathbb{R}^+ et \mathbb{R}^- respectivement.

L’arithmétique d’intervalle dans \mathbb{C} est beaucoup plus difficile à mettre en oeuvre puisqu’il n’y a plus d’ordre ni de monotonie, on doit alors s’en remettre à des estimations sur les parties réelles et imaginaires qui ne tiendront pas compte du phénomène ci-dessus sur la différence entre xy,x[1,2],y[1,2]xy, \ x \in [-1,2], y \in [-1,2] et x 2,x[1,2]x^2, \ x \in [-1,2].

3.4  Calcul exact et approché, types, évaluation.

Dans les langages de programmation traditionnel (C, Pascal,...), il existe déjà des types permettant une représentation exacte des données (type entier) ou une représentation approchée (type flottant). Mais ces types de donnée de base occupent une taille fixe en mémoire, le type entier est donc limité à un intervalle d’entiers (par exemple [0,2 321][0,2^{32}-1] pour un entier non signé sur une machine utilisant un processeur 32 bits) alors que le type flottant peut représenter des nombres réels, mais est limité à une précision en nombre de digits de la mantisse et de l’exposant (par exemple 12 chiffres significatifs et un exposant compris entre -499 et 499).

En calcul formel, on souhaite pouvoir calculer rigoureusement d’une part, et avec des paramètres dont la valeur n’est pas connue d’autre part ; il faut donc s’affranchir de ces limites :

Enfin, il faut pouvoir évaluer un objet (en particulier symbolique) : par exemple évaluer sin(x)\sin(x) lorsqu’on assigne une valeur à xx. Dans cet exemple, on voit qu’il faut d’abord remplacer xx par sa valeur avant de lui appliquer la fonction sinus. C’est le mécanisme général de l’évaluation, mais il y a quelques exceptions où on souhaite empêcher l’évaluation d’un ou plusieurs arguments d’une fonction avant l’évaluation de la fonction. Par exemple si on veut calculer la valeur numérique d’une intégrale par des méthodes de quadrature, on ne souhaitera pas rechercher une primitive de la fonction à intégrer. Dans le jargon, on parle alors de “quoter” un argument (l’origine du terme vient probablement de la notation ' du langage Lisp). Certaines fonctions doivent toujours quoter leurs arguments (par exemple la fonction qui permet de purger le contenu d’un paramètre), on parle parfois d’autoquotation.

3.5  Forme normale et reconnaissance du 0.

Une fois défini ces types de base représentant les nombres d’un système de calcul formel, il faut pouvoir comparer ces nombres, en particulier décider si deux représentations distinctes correspondent au même nombre ou, ce qui revient au même, par soustraction décider quand un nombre est nul. Par exemple 4/24/2 et 2 représentent le même nombre. Lorsqu’on dispose d’un algorithme permettant de représenter un nombre d’une manière unique, on parle de forme normale. C’est par exemple le cas pour les nombres rationnels, la forme normale usuelle est la fraction irréductible de dénominateur positif. C’est aussi le cas pour les fractions rationnelles de polynômes à coefficients entiers représentées par une fraction irréductible, avec au dénominateur un coefficient de plus haut degré positif. Malheureusement, il n’est pas toujours possible de trouver une forme normale pour diverses raisons théoriques ou pratiques :

En résumé, au mieux on a une forme normale, au pire on risque de ne pas reconnaître un zéro, entre les deux on peut ne pas avoir de forme normale mais être capable de reconnaître à coup sûr une expression nulle (par contre, si le système de calcul formel détermine qu’une expression est nulle, alors elle l’est).

Il n’existe pas d’algorithme solution pour le problème de la reconnaissance du zéro pour une classe d’expressions "assez générale". Heureusement, dans la plupart des cas pratiques on sait résoudre ce problème, en se ramenant le plus souvent au cas des polynômes et fractions rationnelles. Par exemple, pour simplifier une expression trigonométrique, on remplace les fonctions trigonométriques sin(x),cos(x),tan(x)\sin(x), \cos(x), \tan(x) par leur expression en fonction de t=tan(x/2)t=\tan(x/2), on est ainsi ramené à une fraction rationnelle en tt que l’on écrit sous forme normale.

Les polynômes ont un rôle central dans tout système de calcul formel puisque sauf dans les cas les plus simples (fractions d’entiers par exemple), la simplification d’expressions fait appel à un moment ou à un autre à des calculs de PGCD de polynômes. Le PGCD de polynômes est un algorithme très sollicité auquel nous consacrerons une section. En effet, l’application brutale de l’algorithme d’Euclide pose des problèmes d’efficacité ce qui a obligé à inventer des méthodes plus efficaces. Anticipons rapidement sur un exemple qui montre l’un des problèmes majeurs des algorithmes de calcul formel, l’explosion en taille (ici des coefficients des restes successifs). Voici donc les restes successifs lorsqu’on applique l’algorithme d’Euclide pour calculer le PGCD de P(x)=(x+1) 7(x1) 6P(x)=(x+1)^{7}-(x-1)^{6} avec sa dérivée (les deux polynômes sont premiers entre eux) : 7×(x+1) 66×(x1) 5 16249×x 5+39049×x 4+106049×x 3+78049×x 2+47449×x+7849 157780729×x 4+5076402187×x 3+290864729×x 2+101528729×x+28028729 149×(14003282645×x 3+7328882645×x 2+11333523703×x+73288818515) 12187×(21618163768324669921×x 2+5554368469444669921×x+3019170248644669921) 1907235×(469345063045455129411872×x+47641670106615129411872) 5497465490623352995840209648836272383412129 \begin{matrix} 7\* (x+1)^{6}-6\* (x-1)^{5} & &\\ \frac{162}{49} \* x^{5}+\frac{-390}{49} \* x^{4}+\frac{1060}{49} \* x^{3}+\frac{-780}{49} \* x^{2}+\frac{474}{49} \* x+\frac{-78}{49}& &\\ \frac{157780}{729} \* x^{4}+\frac{-507640}{2187} \* x^{3}+\frac{290864}{729} \* x^{2}+\frac{-101528}{729} \* x+\frac{28028}{729}& &\\ \frac{1}{49} \* (\frac{1400328}{2645} \* x^{3}+\frac{-732888}{2645} \* x^{2}+\frac{1133352}{3703} \* x+\frac{-732888}{18515})& &\\ \frac{1}{2187} \* (\frac{2161816376832}{4669921} \* x^{2}+\frac{-555436846944}{4669921} \* x+\frac{301917024864}{4669921})& &\\ \frac{1}{907235} \* (\frac{469345063045455}{129411872} \* x+\frac{-47641670106615}{129411872})& &\\ \frac{5497465490623352995840}{209648836272383412129} \end{matrix} Le lecteur voulant tester d’autres exemples pourra utiliser le programme Xcas suivant :

pgcdderiv(a):={
  local b,r,res;
  b:=diff(a,x);
  res:=NULL;
  for (;b!=0;){
    res:=res,b;
    r:=rem(a,b);
    a:=b;
    b:=r;
  }
  return(res);
}



3.6  Valeur générique des variables et hypothèses

Lorsqu’on utilise un symbole sans lui affecter de valeurs en mathématiques on s’attend à une discussion en fonction du paramètre représenté par ce symbole. Ce qui nécessiterait de créer un arborescence de calculs (on retrouve ici les problèmes d’explosion évoqués dans la section précédente). La plupart des systèmes de calcul formel contournent la difficulté en supposant que le paramètre possède une valeur générique (par exemple la solution de (t 21)x=t1(t^2-1)x=t-1 sera x=1/(t+1)x=1/(t+1)) ou choisissent une branche pour les fonctions possédant un point de branchement (par exemple pour résoudre x 2=tx^2=t en fonction de tt). Certains systèmes demandent de manière interactive à l’utilisateur si la variable est par exemple positive ou différente de 1 mais cela s’oppose à un traitement automatique. On peut aussi anticiper ce type de décision en faisant des hypothèses sur une paramètre, la plupart des systèmes de calcul formel actuel proposent cette possibilité.

3.7  Structures de données

On a vu plus haut qu’on souhaitait manipuler des entiers de taille non fixe, des réels de précision fixe ou non, des fractions, des nombres complexes, des extensions algébriques, des paramètres, des expressions symboliques. La plupart des systèmes proposent un type générique qui recouvre ces divers types de scalaire. On peut par exemple utiliser un type structuré comportant un champ type et la donnée ou un pointeur sur la donnée (avec dans ce cas un pointeur sur un compteur de références de la donnée pour pouvoir la détruire dès qu’elle n’est plus référencée1). En programmation orientée objet, on utiliserait plutôt un type abstrait dont dérivent ces différents scalaires et le polymorphisme.

Il faut aussi un type pour les vecteurs, les matrices et les listes. Il faut prendre garde à la méthode utilisée par le système lorsqu’on modifie un élément d’un vecteur, matrice ou liste : soit on effectue une copie de tout l’objet en modifiant l’élément, soit on modifie l’élément de l’objet original. La première méthode (par valeur) est plus aisée à comprendre pour un débutant mais la seconde méthode (par référence) est bien plus efficace.

On peut se poser la question de savoir s’il faut inclure ces types dans le type générique ; en général la réponse est affirmative, une des raisons étant que les interpréteurs qui permettront de lire des données dans un fichier texte sont en général basé sur le couple de logiciels lex(flex)/yacc(bison) qui ne peut compiler qu’à destination d’un seul type. Ceci permet également d’unifier en un seul type symbolique les fonctions ayant un ou plusieurs arguments en voyant plusieurs arguments comme un vecteur d’arguments. Les fonctions sont le plus souvent elle-même incluses dans le type générique permettant ainsi à l’utilisateur de saisir des commandes ou programmes fonctionnels (on peut utiliser une fonction comme argument d’une commande).

Pour des raisons d’efficacité, les systèmes de calcul formel utilisent souvent des représentations particulières pour les polynômes dont on a dit qu’ils jouaient un rôle central. Pour les polynômes à une variable, on peut utiliser la liste des coefficients du polynôme, on parle alors de représentation dense. On peut aussi décider de ne stocker que les coefficients non nuls, on parle alors de représentation creuse (on stocke alors un couple formé par le coefficient et le degré du monôme correspondant). Pour les polynômes à plusieurs variables, on peut les considérer comme des polynômes à une variable à coefficients polynomiaux, on parle alors de représentation récursive. On peut aussi décider de ne pas briser la symétrie entre les variables (pas de variable principale), on parle alors de représentation distribuée, le plus souvent les représentation distribuées sont creuses car les représentations denses nécessitent très vite beaucoup de coefficients. Les méthodes de représentation creuses sont parfois aussi utilisées pour les matrices ayant beaucoup de coefficients nuls.

Voyons maintenant plus précisément sur quelques exemples de logiciels de calcul formel répandus quelles structures de données sont utilisées. Plusieurs éléments entrent en compte dans les choix faits :

Voyons quelques exemples, d’abord Giac, puis des systèmes pour ordinateur où les ressources (par exemple mémoire) sont moins limitées ce qui permet d’utiliser des langages de programmation de plus haut niveau. On termine par les calculatrices formelles HP et TI des années 20002. Ce sont des systèmes plutôt destinés à l’enseignement, soumis à de fortes contraintes en termes de taille mémoire, et destinés à traiter des petits problèmes.

3.7.1  Maple, Mathematica, ...

Ces systèmes ont un noyau fermé, au sens où l’utilisateur n’a pas accès du tout, ou en tout cas pas facilement, aux structures de données de base. Je ne dispose donc pas d’information sur les structures de données utilisées par le noyau.

L’interaction système-utilisateur se fait quasiment toujours en utilisant le langage de programmation propre au système, langage interprété par le noyau du système (ce qui ralentit l’exécution). Ces langages utilisateurs sont essentiellement non typés : on travaille avec des variables du type générique sans pouvoir accéder aux types sous-jacents. On ne bénéficie en général pas des vérifications faites lors de la compilation avec un langage typé, de plus ces systèmes ne sont pas toujours fourni avec de bon outils de mise au point. Enfin ces langages ne sont pas standardisés d’un système à l’autre et il est en général impossible d’utiliser ces systèmes comme des librairies depuis un langage de programmation traditionnel. Leur intérêt principal réside donc dans une utilisation interactive en profitant de la librairie de fonctions accessibles.

3.7.2  Giac/Xcas

Il s’agit du système de calcul formel que j’implémente actuellement sous forme d’une bibliothèque C++ (ce qui permettra aux programmes tiers d’utiliser beaucoup plus facilement du calcul formel qu’avec les systèmes précédents). L’objectif est d’avoir un système facile à programmer directement en C++, proche du langage utilisateur, lui-même compatible avec Maple ou MuPAD, tout cela sans trop perdre en performances comparativement aux librairies spécialisées écrites en C/C++. Ce qui explique un choix de type générique (gen) non orienté objet, avec un champ type et soit une donnée immédiate (pour les nombres flottants par exemple), soit un pointeur vers un objet du type correspondant au champ type pour les données de taille non fixe (on pourrait donc se contenter du langage C, mais le langage C++ permet de redéfinir les opérateurs sur des types utilisateurs ce qui améliore considérablement la lisibilité du code source). Les données dynamiques ne sont pas dupliquées, Giac utilise un pointeur sur un compteur de référence pour détruire ces données lorsqu’elles ne sont plus référencées.

Les entiers en précision arbitraire sont hérités de la bibliothque GMP (écrite en C) du projet GNU. Les flottants en précision arbitraire utiliseront aussi GMP (plus précisément MPFR). Il y a un type fraction, structure C composé d’un champ numérateur et d’un champ dénominateur, et un type nombre complexe.

Les listes, vecteurs, matrices utilisent le type paramétré vector<> de la librairie standard C++ (Standard Template Library). Les objets symboliques sont des structures composés d’un champ sommet qui est une fonction prenant un argument de type gen et renvoyant un résultat de type gen, et d’un champ feuille qui est de type gen. Lorsqu’une fonction possède plusieurs arguments, ils sont rassemblés en une liste formant le champ feuille de l’objet symbolique. Les programmes sont aussi des objets symboliques, dont le champ sommet est la fonction évaluation d’un programme. Les listes sont aussi utilisées pour représenter vecteurs, matrices et polynômes en une variable en représentation dense, on peut y accéder par valeur (:=) ou par référence (=<). Ces polynômes servent eux-mêmes á représenter des éléments d’une extension algébrique de \mathbb{Q} (vus comme un couple de polynômes P,QP,Q, où QQ est un polynome minimal irréductible à coefficients entiers, autrement dit P,QP,Q vaut P(α)P(\alpha)Q(α)=0Q(\alpha)=0), ou des éléments d’un corps fini (comme ci-dessus, mais ici QQ est à coefficients dans /p\mathbb{Z}/p\mathbb{Z} avec pp premier, cf. la commande GF). Giac posséde aussi un type pour les polynômes en représentation creuse distribuée en plusieurs indéterminées (cf. les commandes symb2poly et poly2symb).

L’évaluation d’un objet symbolique se fait en regardant d’abord si la fonction au sommet doit évaluer ou non ses arguments (autoquote), on évalue les arguments si nécessaire puis on applique la fonction.

Une hypthèse sur un paramètre est une valeur spéciale affectée au paramètre, valeur ignorée par la routine d’évaluation.

3.7.3  Calculatrices formelles HP48/49

Les langages utilisés pour programmer ces calculateurs sont l’assembleur et le RPL (Reverse Polish Lisp) adapté à l’écriture de code en mémoire morte très compact.

Le type générique est implémenté avec un champ type appelé prologue (qui est en fait un pointeur sur la fonction chargée d’évaluer ce type d’objet) suivi de la donnée elle-même (et non d’un pointeur sur la donnée, on économise ainsi la place mémoire du compteur de référence).

Le type entier en précision arbitraire est codé par le nombre de digits (sur 5 quartets3) suivi du signe sur un quartet et de la représentation BCD (en base 10) de la valeur absolue de l’entier. Le choix de la représentation BCD a été fait pour optimiser les temps de conversion en chaîne de caractères pour l’affichage. La mémoire vive disponible est de 256K, c’est elle qui limite la taille des entiers et non le champ longueur de l’entier. Il n’y a pas de type spécifique pour les rationnels (on utilise un objet symbolique normal).

Les fonctions internes des HP49/50/40 utilisent le type programme pour représenter les entiers de Gauß (complexes dont la partie réelle et imaginaire est entière). Les nombres algébriques ne sont pas implémentés, sauf les racines carrées (représentée de manière interne par le type programme). Il y a un type spécifique prévu pour les flottants en précision arbitraire, mais l’implémentation des opérations sur ces types n’a pas été intégrée en ROM à ce jour.

Les types listes, programmes et objet symbolique sont composés du prologue (champ type) suivi par la succession d’objets situés en mémoire vive ou de pointeurs sur des objets situés en mémoire en lecture seule (ROM) et se terminent par un pointeur sur une adresse fixe (appelée SEMI). Ces types sont eux-mêmes des objets et peuvent donc être utilisés de manière récursive. La longueur des types listes, programmes, symboliques n’est stockée nulle part, c’est le délimiteur final qui permet de la connaître, ce qui est parfois source d’inefficacité. On utilise de manière interne les listes pour représenter les polynômes denses (avec représentation récursive pour les polynômes à plusieurs variables).

Les calculatrices HP4xG utilisent une pile4, c’est-à-dire une liste de taille non fixée d’objets. On place les objets sur la pile, l’exécution d’une fonction prend ces arguments sur la pile et renvoie un ou plusieurs résultats sur la pile (ce qui est une souplesse du RPN comparé aux langages où on ne peut renvoyer qu’une valeur de retour). Il faut donc donner les arguments avant d’appeler la fonction correspondante. Par exemple pour calculer a+ba+b on tapera a b +. C’est la syntaxe dite polonaise inversée (RPN). Un avantage de cette syntaxe est que le codage d’un objet symbolique par cette syntaxe est évidente, il suffit de stocker la liste précédente {a b +}. Les objets symboliques sont donc représenté par une suite d’objets écrit en syntaxe polonaise inversée. L’évaluation d’un objet symbolique se fait dans l’ordre polonaise inversé : les arguments sont évalués puis les fonctions leur sont appliqués. Pour des raisons d’efficacité, on représente souvent les objets composites (listes, symboliques) par leurs composants placés sur la pile (appelé meta-objets).

Une rigidité de la syntaxe polonaise est que les fonctions ont toujours un nombre fixe d’arguments5, par exemple l’addition a toujours 2 arguments, ainsi a+b+ca+b+c est obtenu par (a+b)+c(a+b)+c ou par a+(b+c)a+(b+c) c’est-à-dire respectivement a b + c + ou a b c + + ce qui brise parfois artificiellement la symétrie de certaines opérations. En polonaise inversée, le système doit de plus jongler avec l’autoquote puisque les arguments sont évalués avant l’opérateur qui éventuellement demanderait à ne pas évaluer ses arguments. À noter l’existence d’une commande QUOTE permettant à l’utilisateur de quoter une sous-expression.

Les hypothèses sur des variables réelles sont regroupées dans une liste stockée dans la variable globale REALASSUME, on peut supposer qu’une variable est dans un intervalle. Il n’y a pas à ce jour de possibilité de supposer qu’une variable est entière (ni à fortiori qu’une variable à une valeur modulo un entier fixé), bien qu’il ait été décidé de réserver la variable globale INTEGERASSUME à cet effet. Il n’y a pas de possibilité de faire des hypothèses ayant une portée locale.

3.7.4  Calculatrices formelles TI92/89/Voyage 200

Le langage utilisé pour programmer ces calculatrices est le langage C (on peut aussi écrire du code en assembleur pour ces calculatrices). On retrouve ici les différents types de données regroupé en un type générique qui est un tableau d’octets (aussi appelé quantum). Le champ type est appelé tag dans la documentation TI. Contrairement à ce qui précède, ce champ type est placé en mémoire à la fin de l’objet, ce qui est possible car la longueur d’un objet est toujours indiquée au début de l’objet. Ceci est fait afin de faciliter l’évaluation (cf. infra).

Les entiers en précision arbitraire sont codés par un tag parmi deux (pour différencier le signe), un octet pour la longueur, puis la valeur absolue de l’entier (en base 256). Ils sont donc limités par le champ longueur à 255 octets, le plus grand entier représentable est 6 (256 2551)(256^{255}-1). Il existe un tag spécifique pour les rationnels, pour les constantes réelles et entières qui apparaissent par exemple en résolvant une équation. Il existe des tags utilisés de manière interne, par exemple pour les nombres complexes. Il n’y a pas de tag prévu pour les flottants en précision arbitraire. ni pour les nombres algébriques (racines carrées par exemple).

Les listes sont codées par la succession de leurs éléments. En principe elles ne peuvent pas contenir des listes (sauf pour représenter une matrice). Quelques fonctions utilisent les listes pour représenter des polynômes denses à une variable, mais probablement pas pour représenter de manière récursive des polynômes à plusieurs variables (puisque le type liste n’est en principe pas récursif).

Comme les HP, les TI utilisent une pile (non visible par l’utilisateur) appelée expression stack afin de traduire un expression mathématique sous forme d’un texte en un objet symbolique codé exactement comme ci-dessus en syntaxe polonaise. Toutefois, la présence du champ longueur permet d’évaluer un objet symbolique sans perdre en efficacité en partant de l’opérateur final et en redescendant ensuite sur ces arguments, c’est la stratégie adoptée. C’est pour cela que le tag d’identification se trouve à la fin de l’objet. L’utilisation de cette méthode facilite grandement l’autoquotation (on peut toutefois regretter que le système n’ait pas prévu d’instruction permettant à l’utilisateur d’empêcher l’évaluation d’une sous-expression).

On ne peut pas faire d’hypothèse globale sur un paramètre par contre on peut faire des hypothèses de type appartenance à un intervalle ayant une portée locale.

3.8  Algorithmes et complexité.

On va présenter dans la suite quelques algorithmes que l’on peut considérer comme classiques dans le domaine du calcul formel. Avant d’implémenter ce type d’algorithmes, on a besoin des algorithmes de base en arithmétique.

La plupart des problèmes posés en calcul formel nécessitent des calculs dont la taille croit de manière exponentielle voire doublement exponentielle en fonction de la taille des données et ce même si le résultat est lui aussi de taille petite. Un exemple est la réduction des systèmes de plusieurs équations polynomiales (bases de Groebner).

3.8.1  Algorithmes modulaires ou p-adiques

Dans certains cas, l’application de théories mathématiques parfois sophistiquées permet de réduire la complexité (par exemple, M. Van Hoeij a découvert récemment qu’un algorithme très utilisé en théorie des nombres, l’algorithme LLL, permettait d’améliorer la complexité d’une des étapes de la factorisation des polynomes à coefficients entiers sur les entiers). Heureusement, dans de nombreux cas, on peut réduire la complexité (donc le temps de calcul) par des adaptations au problème d’une même idée à condition de faire des hypothèses sur les données (autrement dit en abandonnant la volonté d’implémenter un algorithme très générique, ou tout au moins en spécialisant des algorithmes génériques). Par exemple lorsqu’on travaille avec des entiers (ou des polynômes à coefficients entiers, ou des matrices à coefficients entiers...) on utilise souvent des algorithmes modulaires et pp-adiques. Comme le calcul exact nécessite presque toujours de calculer avec des entiers, ces méthodes ont un rôle central en calcul formel, nous les présentons donc maintenant brièvement. Dans les prochaines sections, nous utiliserons ce type de méthode, par exemple pour le calcul de PGCD ou la factorisation de polynômes à coefficients entiers.

Les méthodes modulaires consistent à réduire un problème dans \mathbb{Z} à son équivalent dans /n\mathbb{Z}/n\mathbb{Z} pour une ou plusieurs valeurs de nn, nombre premier. Le calcul dans /n\mathbb{Z}/n\mathbb{Z} a l’avantage de se faire avec des entiers dont la taille est bornée. Ensuite à l’aide d’estimations à priori sur la taille des solutions éventuelles du problème initial, on reconstruit la solution au problème initial avec le théorème des restes chinois.

Par exemple, on peut calculer un déterminant d’une matrice à coefficients entiers en cherchant ce déterminant dans /n\mathbb{Z}/n\mathbb{Z} pour plusieurs nombres premiers nn, dont le produit est deux fois plus grand qu’une estimation à priori de la taille du déterminant (donnée par exemple par l’inégalité d’Hadamard, cf. Cohen, p. 50).

Les méthodes pp-adiques commencent de manière identique par un calcul dans /n\mathbb{Z}/n\mathbb{Z}, on augmente ensuite la précision de la solution en la «liftant»de /n k\mathbb{Z}/n^k \mathbb{Z} vers /n k+1\mathbb{Z}/n^{k+1}\mathbb{Z} ou vers /n 2k\mathbb{Z}/n^{2k}\mathbb{Z} (lift linéaire ou lift quadratique), on s’arrête lorsque kk est assez grand (à l’aide d’estimations à priori) et on reconstruit alors la solution initiale. L’étape de «lift»est en général un lemme de Hensel dont on verra quelques exemples dans les prochains articles. L’algorithme commun au lemme de Hensel et au théorème des restes chinois est l’identité de Bézout, que l’on retrouve d’ailleurs un peu partout (par exemple pour le calcul de primitives).

Illustrons cette méthode sur un exemple simple, la recherche de racines rationnelles d’un polynôme P(X)=a dX d++a 0P(X)=a_d X^d + \cdots + a_0 à coefficients entiers ou polynomiaux, avec a da_d et a 0a_0 non nuls. L’algorithme générique (assez connu) consiste à chercher les diviseurs de a 0a_0 et de a da_d et à tester toutes les fractions de ces diviseurs, on montre en effet aisément que si X=p/qX=p/q fraction irréductible est racine de PP alors qq divise a da_d et pp divise a 0a_0. Cet algorithme est très inefficace si a da_d ou a 0a_0 est un grand entier (car on ne sait pas forcément le factoriser) ou s’il a beaucoup de facteurs premiers (la liste des diviseurs à tester est alors très grande).

Lorsque les coefficients de PP sont entiers, la recherche précédente revient à trouver un facteur à coefficients entiers qXpqX-p de PP, on peut donc réduire le problème modulo un entier premier nn qui ne divise pas a da_d : si un tel facteur existe dans \mathbb{Z} alors ce facteur (réduit modulo nn) est un facteur de PP dans /n\mathbb{Z}/n\mathbb{Z} donc PP admet une racine dans /n\mathbb{Z}/n\mathbb{Z} (puisque qq est inversible modulo nn car on a choisi nn premier ne divisant pas a da_d). On évalue maintenant PP en les nn éléments de /n\mathbb{Z}/n\mathbb{Z}. S’il n’y a pas de 0, alors PP n’a pas de racine rationnelle. S’il y a des racines, on va les lifter de /n k\mathbb{Z}/n^k\mathbb{Z} dans /n 2k\mathbb{Z}/n^{2k}\mathbb{Z}.

On suppose donc que pour k1k\geq 1, il existe un entier p kp_k tel que P(p k)=0(modn k) P(p_k)=0 \pmod{n^k} Il s’agit de trouver un entier xx tel que p k+1=p k+n k×xp_{k+1}=p_k+n^k \* x vérifie P(p k+1)=0(modn 2k) P(p_{k+1})=0 \pmod{n^{2k}} On applique la formule de Taylor à l’ordre 1 pour PP en p kp_k, le reste est nul modulo n 2kn^{2k}, donc : P(p k)+n k×xP(p k)=0(modn 2k) P(p_k)+ n^k \* x P'(p_k)=0 \pmod{n^{2k}} soit finalement : x=P(p k)n k×(P(p k)(modn k)) 1 x=-\frac{P(p_k)}{n^k} \* ( P'(p_k) \pmod{n^k}) ^{-1} On reconnaît au passage la méthode de Newton, pour qu’elle fonctionne il suffit que P(p k)0(modn)P'(p_k) \neq 0 \pmod n ce qui permet de l’inverser modulo n kn^k (et c’est ici qu’intervient l’identité de Bézout). En pratique quand on factorise un polynôme, on commence par retirer les multiplicités, on peut donc supposer que PP est sans facteur multiple dans \mathbb{Z}. Ceci n’entraîne pas forcément qu’il le reste dans /n\mathbb{Z}/n\mathbb{Z} ce qui crée une contrainte supplémentaire sur le choix de nn, à savoir que PP et PP' restent premier entre eux dans /n\mathbb{Z}/n\mathbb{Z} (il existe forcément de tels nn, par exemple nn premier plus grand que le plus grand entier intervenant dans le calcul du PGCD de PP et PP' dans \mathbb{Z}).

Reste donc à revenir dans \mathbb{Z} à partir d’une racine p kp_k dans /(n k)\mathbb{Z}/(n^k \mathbb{Z}) (où on peut choisir kk). On va maintenant utiliser la représentation modulaire symétrique : on prend comme représentant modulaire d’un entier zz dans /n k\mathbb{Z}/n^k\mathbb{Z} l’unique entier congru à zz modulo nn qui est strictement compris entre n k/2-n^k/2 et n k/2n^k/2 (si nn est pair, la deuxième inégalité est choisie large).

Si qXpqX-p est un facteur de PP, alors a dXa dqpa_dX-\frac{a_d}{q}p est encore un facteur de PP (le quotient de PP par a dXa dqpa_dX-\frac{a_d}{q}p est à coefficients rationnels mais le facteur est à coefficients entiers). Si on a choisi kk tel que n k>2|a da 0|n^k&gt;2|a_d a_0|, l’écriture en représentation modulaire symétrique de a dXa dqpa_dX-\frac{a_d}{q}p est inchangée, en effet on a des estimations à priori sur les entiers pp et qq : |q||a d||q|\leq |a_d| et |p||a 0||p| \leq |a_0| puisque qq divise a da_d et pp divise a 0a_0. Comme a dXa dqpa_dX-\frac{a_d}{q}p est égal à a d(Xp k)a_d(X-p_k) dans /(n k)\mathbb{Z}/(n^k \mathbb{Z}), il nous suffit d’écrire en représentation modulaire symétrique a d(Xp k)=a dXpa_d(X-p_k)=a_d X-p'. Pour conclure, on sait que a dXpa_d X-p' est un multiple entier de qXpqX-p. On divise donc le facteur a dXpa_d X-p' par le pgcd de a da_d et pp' et on teste la divisibilité de PP par ce facteur réduit.

Exemple
Considérons le polynôme 2X 3X 2X32 X^3-X^2-X-3 qui est sans facteur carré. On ne peut pas choisir n=2n=2 car on réduirait le degré, pour n=3n=3, on a P=X1P'=X-1 qui est facteur de PP, pour n=5n=5, P=6X 22X1P'=6X^2-2X-1, on vérifie que PP et PP' sont premiers entre eux (par exemple avec GCDMOD sur une HP49 où on aura fixé la variable MODULO à 5).

On teste ensuite les entiers de -2 à 2 sur PP. Seul -1 est racine modulo 5 (P(1)=5P(-1)=-5), on va maintenant lifter p 1=1p_1=-1.

L’estimation à priori est 2|a d||a 0|=122|a_d||a_0|=12 donc k=2k=2 (5 2=25>125^2=25&gt;12), une itération suffira. On a P(1)=7P'(-1)=7, l’inverse de P(1)(mod5)P'(-1) \pmod 5 est -2 donc: x=P(1)5(2)=(1)×(2)=2 x= -\frac{P(-1)}{5} (-2) = -(-1) \* (-2)=-2 et p 2=1+5×(2)=11p_2=-1+5\times(-2)=-11 est racine de PP dans /25\mathbb{Z}/25\mathbb{Z}. On calcule ensuite a d(Xp k)=2(X+11)=2X+22=2X3a_d(X-p_k)=2(X+11)=2X+22=2X-3 en représentation symétrique, le PGCD de 2 et -3 est 1 donc on teste le facteur 2X32X-3, ici il divise PP donc PP admet un unique facteur entier de degré 1 qui est 2X32X-3.

3.8.2  Algorithmes déterministes. Algorithmes probabilistes: Las Vegas et Monte-Carlo

L’algorithme p-adique présenté ci-dessus est un algorithme déterministe, il renvoie toujours un résultat certifié et le temps de calcul nécessaire à son exécution ne dépend pas du hasard (sauf si on choisit le nombre premier pp au hasard...). Ce type d’algorithmes est parfois trop long par rapport à d’autres type d’algorithmes utilisant le hasard :

Dans Xcas, certains algorithmes sont de type Monte-Carlo par défaut, notamment le calcul de déterminant de grandes matrices à coefficients entiers ou de bases de Gröbner, et un warning s’affiche alors. La variable proba_epsilon permet de régler le niveau de probabilité d’erreur acceptée, on peut la mettre à 0 pour forcer l’utilisation d’algorithmes déterministes ou de type Las Vegas avec certification du résultat. Si l’on fait des calculs à but expérimental pour établir une conjecture, il n’est pas nécessaire de certifier un calcul et il ne sert à rien de mettre proba_epsilon à 0. Par contre, pour établir une preuve (au sens mathématique du terme) qui nécessite un calcul fait sur machine, on prendra soin de mettre proba_epsilon à 0. On remarquera au passage que ce type de preuve ne peut se faire qu’avec un logiciel open-source, puisqu’il faut aussi pouvoir montrer que l’algorithme utilisé est correctement implémenté.

3.9  Quelques algorithmes d’arithmétique de base.

3.9.1  Exemple de multiplication rapide : l’algorithme de Karatsuba

Soient P,QP, Q deux polynômes de degrés strictement inférieur à 2n2n. On suppose que le cout d’une opération arithmétique dans le corps des coefficients vaut 1 et on néglige les autres opérations (on suppose par exemple que le corps des coefficients est un corps fini). On écrit P=A+x nB,Q=C+x nD P=A+x^n B, \quad Q=C+x^n D avec A,B,C,DA,B,C,D de degrés strictement inférieur à nn, on a alors : PQ=AC+x n(AD+BC)+x 2nBDP Q = AC + x^n(AD+BC)+x^{2n} BD Il y a 4 produits de polynômes de degrés <n&lt;n, mais au prix d’additions intermédiaires, on peut se ramener à 3 produits, en effet (A+B)(C+D)ACBD=AD+BC(A+B)(C+D)-AC-BD = AD+BC donc pour calculer le cofacteur de x nx^n il suffit de soustraire à (A+B)(C+D)(A+B)(C+D) les produits ACAC et BDBD que l’on calcule par ailleurs. Soit M(n)M(n) le temps nécessaire pour calculer le produit de 2 polynômes par cette méthode, on a alors M(2n)=3M(n)+8nM(2n) = 3M(n)+ 8n 8n8n représente le nombre d’additions ou de soustractions pour former A+BA+B, C+DC+D, soustraire ACAC et BDBD, et tenir compte des "retenues" (les termes de degré n\geq n de ACAC se combinent avec ceux de degré <2n&lt;2n de AD+BCAD+BC et les termes de degré <3n&lt; 3n de x 2nBDx^{2n}BD avec ceux de degré 2n\geq 2n de AD+BCAD+BC). On en déduit u n=M(2 n),u n+1=3u n+8×2 nu_n=M(2^n), \quad u_{n+1}=3u_n+8 \times 2^n cette récurrence se résoud facilement par la commande
rsolve(u(n+1)=3*u(n)+8*2^n,u(n),u(0)=1)
qui donne M(2 n)=u n=82 n+93 nM(2^n)=u_n=-8\cdot 2^{n}+9\cdot 3^{n}.

Asymptotiquement, M(2 n)93 nM(2^n) \approx 9\cdot 3^{n} ce qui est bien meilleur que la multiplication naive en 24 n2 \cdot 4^n, mais pour de petites valeurs de nn, la multiplication naive est plus rapide, on utilise Karatsuba (récursivement) uniquement pour des valeurs de nn suffisamment grandes (théoriquement lorsque 8n8n, le surcout dû aux additions est plus petit que la multiplication économisée, soit 8n<2n 28n&lt;2n^2 soit n>4n&gt;4, en pratique plutôt pour nn de l’ordre de quelques dizaines selon les implémentations, car nous n’avons tenu compte que des opérations arithmétiques).

3.9.2  Calcul de la racine carrée entière

Étant donné un entier NN, il s’agit de déterminer le plus grand entier nn tel que n 2Nn^2\leq N, nn est la racine carrée de NN. On choisit une base bb par exemple b=10b=10 pour un humain ou une puissance de 2 pour une machine, et on écrit NN en base bb, en découpant les chiffres par blocs de 2 en commençant par la droite, par exemple 2 00 00 00. On initialise la racine carrée nn à 0 et son carré cc à 0, on va calculer la racine carrée entière bloc par bloc en commençant par la gauche. Pour calculer le bloc suivant, on multiplie nn par bb et cc par b 2b^2 (c’est un simple décalage de l’écriture en ajoutant un ou deux zéros). Puis on ajoute les nombres impairs successifs 2n+12n+1, (2n+1)+2(2n+1)+2, ... à cc tant que l’on est inférieur à NN tronqué au bloc. Le nombre d’impairs successifs ajouté est ajouté à nn. En pratique, il suffit de conserver NcN-c tronqué et de lui retrancher les impairs successifs.

Ainsi, pour 2 00 00 00, au 1er bloc 2, on initialise n=c=0n=c=0, on ajoute 2n+1=12n+1=1 à cc qui vaut alors 1 et on s’arrête car 1+3 est supérieur à 2. On passe au 2ième bloc, NcN-c tronqué vaut 100, nn vaut 10, 2n+12n+1 vaut 21, on retranche donc à 100 successivement 21, 23, 25, 27 et on s’arrête car le reste est 4. Donc nn devient 14, et Nc=4N-c=4. On passe au troisième bloc, Nc=400N-c=400 et n=140n=140 donc 2n+1=2812n+1=281, on retranche de 400 les impairs successifs à partir de 281, ce qui n’est possible qu’une seule fois, cela donne Nc=119N-c=119 et n=141n=141. On passe au dernier bloc, Nc=11900N-c=11900 et n=1410n=1410 donc 2n+1=28212n+1=2821, on soustrait 2821, 2823, 2825, 2827 de 11900, il reste 604 et n=1414n=1414.

Exercice : calculer la quatrième décimale de 2\sqrt{2} de cette manière.

La complexité de cet algorithme est en O(log b(N) 2)O(\log_b(N)^2). En effet, pour calculer un chiffre il faut faire un nombre de soustraction au plus égal à bb, ces soustractions ayant au plus le nombre de chiffres de NN en base bb. (On peut accélérer le calcul à la manière de Karatsuba en choisissant une base bb puissance de 2 (ou 10) de l’ordre de N\sqrt{N} et en divisant pour régner).

isqrt(x):={
  local l,j,k,s,n,N,res;
  l:=revlist(convert(x,base,100));
  res:=seq(0,size(l));
  s:=0;
  N:=0;
  pour k de 0 jusque size(l)-1 faire
    N := (N-s)*100+l[k];
    n:=2*horner(res[0..k],10)+1;
    s:=n; // ajout de la somme des impairs consecutifs
    pour j de 0 jusque 10 faire
      si s>N alors break; fsi;
      n+=2;
      s+=n;
    fpour;
    s -= n;
    res[k]:=j;
  fpour;
  retourne horner(res,10);
}:;



3.9.3  Bezout sur les entiers et les fractions continues

Il existe une variante de l’identité de Bézout présentée ci-dessus pour les entiers. Soient ab>0a\geq b&gt;0 deux entiers, on pose (L n)au nbv n=(1) nr n(L_n) \quad a u_n - b v_n = (-1)^n r_n r 0=a,r 1=br_0=a, r_1=b et r n+2r_{n+2} est le reste de la division euclidienne de r nr_n par r n+1r_{n+1} (q n+2q_{n+2} le quotient), u 0=1,u 1=0,v 0=0,v 1=1u_0=1, u_1=0, v_0=0,v_1=1. Comme précedemment, chaque ligne s’obtient par combinaison linéaire des deux précédentes, mais cette fois avec une addition L n+2=L n+q n+2L n+1L_{n+2}=L_n+q_{n+2} L_{n+1} ce qui se traduit par : u n+2=u n+q n+2u n+1,v n+2=v n+q n+2v n+1u_{n+2}=u_n+q_{n+2} u_{n+1}, \quad v_{n+2}=v_n+q_{n+2} v_{n+1} Les suites u nu_n et v nv_n sont alors strictement croissantes (à partir du rang 1 pour u nu_n). Au rang kk du dernier reste non nul on a : au kbv k=(1) kr k,r k=d=gcd(a,b)a u_k - b v_k = (-1)^k r_k, \quad r_k=d=\mbox{gcd}(a,b) et au rang suivant : au k+1bv k+1=0au_{k+1} -b v_{k+1}=0 On montre par récurrence que v nr n+1+v n+1r n=av_n r_{n+1} + v_{n+1} r_n=a et une relation analogue pour u nu_n, on en déduit alors que v k+1=a/dv_{k+1}=a/d et u k+1=b/du_{k+1}=b/d (ce sont les cofacteurs du PPCM de aa et bb), en particulier les coefficients de Bézout vérifient u k<bu_k&lt;b et v k<av_k&lt;a.

On va aussi voir que u n+2/v n+2u_{n+2}/v_{n+2} est la nn-ième réduite du développement en fractions continues de a/ba/b (donc les coefficients de Bézout se lisent sur l’avant-dernière réduite). On introduit la notation [a 0,a 1,..,a n]=a 0+1a 1+1a 2+...a k[a_0,a_1,..,a_n] =a_0+\frac{1}{a_1+\frac{1}{a_2+\frac{...}{a_k}}} pour a 00,a 1>0,...,a n>0a_0 \geq 0, a_1&gt;0, ..., a_n&gt;0. On a alors : ab=[q 2,q 3,..,q k]\frac{a}{b}=[q_2,q_3,..,q_k] En effet : ab=r 0r 1=q 2+r 2r 1=q 2+1r 1r 2=...\frac{a}{b}= \frac{r_0}{r_1}=q_2 +\frac{r_2}{r_1} = q_2 + \frac{1}{\frac{r_1}{r_2}} = ... D’autre part, on montre par récurrence sur n1n\geq 1 que si x>0x&gt;0 [q 2,...,q n,x]=v nx+v n1u nx+u n1[q_2,..., q_n,x]=\frac{v_{n}x+v_{n-1}}{u_{n}x+u_{n-1}} en effet au rang n=1n=1 [x]=x=v 1x+v 0u 1x+u 0[x]=x=\frac{v_1 x + v_0}{u_1 x+u_0 } et pour l’induction : [q 2,...,q n,x] = [q 2,...,q n1,q n+1x] = v n1(q n+1/x)+v n2u n1(q n+1/x)+u n2 = x(v n1q n+v n2)+v n1x(u n1q n+u n2)+u n1 = v nx+v n1u nx+u n1 \begin{matrix} [q_2,..., q_n,x] &= & [q_2,..., q_{n-1},q_n+\frac{1}{x}] \\ &=& \frac{v_{n-1}(q_n+1/x)+v_{n-2}}{u_{n-1}(q_n+1/x)+u_{n-2}} \\ &=& \frac{x(v_{n-1}q_n+v_{n-2})+v_{n-1}}{x(u_{n-1}q_n+u_{n-2})+u_{n-1}} \\ & = & \frac{v_{n}x+v_{n-1}}{u_{n}x+u_{n-1}} \end{matrix} Donc au rang n1n-1 et pour x=q nx=q_{n}, on obtient [q 2,...,q n]=v n+1u n+1[q_2,..., q_n]=\frac{v_{n+1}}{u_{n+1}}

Les fractions continues servent bien entendu aussi et d’abord à approcher les réels par des rationnels. L’algorithme de calcul des termes du développement est le suivant : Soit x0x\geq0. On initialise y=xy=x et la liste des a pa_p à vide. Puis on fait une boucle : on ajoute la partie entière de yy à la liste, on calcule la partie fractionnaire de yy, si elle est nulle on s’arrête (dans ce cas xx\in \mathbb{Q}), sinon on stocke dans yy l’inverse de cette partie fractionnaire et on recommence. On note classiquement : h 2=0, h 1=1, h p=a ph p1+h p2 k 2=1, k 1=0, k p=a pk p1+k p2(1) \begin{matrix} h_{-2}=0, & h_{-1}=1, & h_p=a_p h_{p-1}+h_{p-2}\\ k_{-2}=1, & k_{-1}=0, & k_p=a_p k_{p-1}+k_{p-2} \end{matrix} \qquad (1) On a h 0=a 0,h 1=a 1a 0+1,k 0=1,k 1=a 1h_0=a_0, h_1=a_1 a_0+1, k_0=1, k_1=a_1. Les suites h ph_p et k pk_p sont donc positives et strictement croissantes pour p1p \geq 1, puisque pour p1p \geq 1, a p1a_p\geq 1, elles tendent vers l’infini au moins aussi vite que des suites de Fibonacci (à vitesse au moins géométrique donc). On a aussi aisément par récurrence : h pk p1h p1k p=(1) p+1(2) h_p k_{p-1} - h_{p-1}k_p=(-1)^{p+1} \qquad (2) On montre aussi comme ci-dessus : [a 0,...,a p1,y]=yh p1+h p2yk p1+k p2[a_0,...,a_{p-1},y]=\frac{yh_{p-1}+h_{p-2}}{yk_{p-1}+k_{p-2}} On définit x px_p par x=[a 0,...,a p1,x p]x=[a_0,...,a_{p-1},x_p], en faisant y=x py=x_p on a alors x=x ph p1+h p2x pk p1+k p2x=\frac{x_ph_{p-1}+h_{p-2}}{x_p k_{p-1}+k_{p-2}} ce qui donne x px_p en fonction de xx et a p=floor(xk p2h p2xk p1h p1)a_p=\mbox{floor}\left( - \frac{xk_{p-2}-h_{p-2}}{xk_{p-1}-h_{p-1}} \right) En faisant y=a py=a_p on obtient [a 0,...,a p]=h pk p[a_0,...,a_p]=\frac{h_p}{k_p}. On montre ensuite que les suites (h p/k p)(h_p/k_p) pour les indices pairs et impairs sont deux suites adjacentes qui convergent vers xx, et on a h pk ph p1k p1=(1) p1k pk p1(3) \frac{h_p}{k_p} - \frac{h_{p-1}}{k_{p-1}} = \frac{(-1)^{p-1}}{k_p k_{p-1}} \qquad (3) En effet, la dernière égalité est une conséquence immédiate de (2), la croissance ou décroissance des suites d’indice pair ou impair s’en déduit en ajoutant (3) au cran suivant. La convergence vient de la limite infinie de k pk_p en l’infini. On a donc x=a 0+ p=0 (1) p1k pk p+1,1k p(k p+k p+1)|xh pk p|1k pk p+1x=a_0+\sum_{p=0}^\infty \frac{(-1)^{p-1}}{k_p k_{p+1}}, \quad \frac{1}{k_p(k_p+k_{p+1})} \leq |x-\frac{h_p}{k_p}| \leq \frac{1}{k_p k_{p+1}} La convergence est d’autant plus rapide que les k pk_p tendent rapidement vers l’infini, donc si les a pa_p sont plus grands que 1. La convergence la plus lente correspond au cas où tous les a p=1a_p=1 cas du nombre d’or, ou à partir d’un certain rang (nombre de Q[5]Q[\sqrt{5}]).

3.9.4  La puissance rapide itérative

Pour calculer a k(modn)a^k \pmod n, on décompose kk en base 2 k= j=0 Jk j2 j,a k= j=0 Ja k j2 j= j/k j0a 2 jk=\sum_{j=0}^J k_j 2^j, \quad a^k = \prod_{j=0}^{J} a^{k_j 2^j} = \prod_{j/k_j \neq 0} a^{2^j} On initialise une variable B à 1, B vaudra a k(modn)a^k \pmod n en fin de calcul, on initialise une variable k à kk. On calcule dans une boucle les carrés successifs de a(modn)a \pmod n que l’on stocke dans une variable A (A vaudra donc successivement a(modn),a 2(modn),a 4(modn),...a \pmod n, a^2 \pmod n, a^{4} \pmod n, ...) et simultanément on teste si k jk_j vaut 1 en prenant le reste de la division par 2 de k (dans ce cas on multuplie B par A modulo nn), on divise ensuite k par 2 au sens du quotient euclidien.

rapide(a,k,n):={
  local A,B;
  A:=a; B:=1;
  tantque k!=0 faire
    si irem(k,2)==1 alors B:=irem(A*B,n); fsi;
    k:=iquo(k,2);
    A:=irem(A*A,n);
  ftantque;
  return B;
}




En mode pas à pas :


3.10  Pour en savoir plus.

Sur des aspects plus théoriques :

Sur des aspects plus pratiques, quelques références en ligne, la plupart sont accessibles gratuitement :

3.11  Exercices sur types, calcul exact et approché, algorithmes de bases

Vous pouvez tester directement dans votre navigateur Pour télécharger et installer Xcas sur votre ordinateur, suivre les instructions données sur
http://www-fourier.ujf-grenoble.fr/~parisse/giac_fr.html
Pour lancer xcas sous linux, cherchez Xcas dans le menu Education ou ouvrir un fenêtre terminal et taper la commande
xcas &
Lors de la première exécution, vous devrez choisir entre différents types de syntaxe (compatible C, maple ou TI89). Vous pouvez changer ce choix à tout moment en utilisant le menu Configuration->mode (syntaxe). On vous propose aussi d’ouvrir le tutoriel, qui est également accessible depuis le menu Aide, Débuter en calcul formel.

L’aide en ligne est accessible en tapant ?nom_de_commande. Dans Xcas, vous pouvez aussi taper le début d’un nom de commande puis la touche de tabulation (à gauche du A sur un clavier francais), sélectionner la commande dans la boite de dialogues puis cliquer sur Details pour avoir une aide plus complète dans votre navigateur. Pour plus de détails sur l’interface de Xcas, consultez le manuel (Aide->Interface). Si vous n’avez jamais utilisé de logiciel de calcul formel, vous pouvez commencer par lire le tutoriel (menu Aide->Debuter en calcul formel->tutoriel) et faire certains des exercices proposés (des corrigés sous forme de sessions Xcas sont dans Aide->Debuter en calcul formel->solutions)

Il peut être interessant de tester ces exercices en parallèle avec Xcas et des calculatrices formelles....

  1. À quelle vitesse votre logiciel multiplie-t-il des grands entiers (en fonction du nombre de chiffres)? On pourra tester le temps de calcul du produit de a(a+1)a(a+1)a=10000!a=10 000!, a=15000!a=15000!, etc. . Même question pour des polynômes en une variable (à générer par exemple avec symb2poly(randpoly(n)) ou avec poly1[op(ranm(.))]).
  2. Comparer le temps de calcul de a n(modm)a^n \pmod m par la fonction powmod et la méthode prendre le reste modulo mm après avoir calculé a na^n.

    Programmez la méthode rapide et la méthode lente. Refaites la comparaison. Pour la méthode rapide, programmer aussi la version itérative utilisant la décomposition en base 2 de l’exposant : on stocke dans une variable locale bb les puissances successives a 2 0(modm),a 2 1(modm),...,a 2 k(modm),...a^{2^0} \pmod m,a^{2^1} \pmod m, ..., a^{2^k} \pmod m, ..., on forme a n(modn)a^n \pmod n en prenant le produit modulo mm de ces puissances successives lorsque le bit correspondant est à 1 (ce qui se détecte par le reste de divisions euclidiennes sucessives par 2, le calcul de bb et du bit correspondant se font dans une même boucle).
  3. Déterminer un entier cc tel que c=1(mod3)c=1 \pmod 3, c=3(mod5)c=3 \pmod 5, c=5(mod7)c=5 \pmod 7 et c=2(mod11)c=2 \pmod{11}.
  4. Calculez dans /11\mathbb{Z}/11\mathbb{Z} a=0 10(xa) \prod_{a=0}^{10} (x-a)
  5. Algorithmes fondementaux : écrire des programmes implémentant
    1. le pgcd de 2 entiers
    2. l’algorithme de Bézout
    3. l’inverse modulaire en ne calculant que ce qui est nécessaire dans l’algorithme de Bézout
    4. les restes chinois
  6. Construire un corps fini de cardinal 128 (GF), puis factoriser le polynôme x 2yx^2-yyy est un élément quelconque du corps fini. Comparer avec la valeur de y\sqrt{y}.
  7. Utiliser la commande type ou whattype ou équivalent pour déterminer la représentation utilisée par le logiciel pour représenter une fraction, un nombre complexe, un flottant en précision machine, un flottant avec 100 décimales, la variable xx, l’expression sin(x)+2\sin(x)+2, la fonction x->sin(x), une liste, une séquence, un vecteur, une matrice. Essayez d’accéder aux parties de l’objet pour les objets composites (en utilisant op par exemple).
  8. Comparer le type de l’objet t si on effectue la commande t[2]:=0; après avoir purgé t ou après avoir affecté t:=[1,2,3] ?
  9. Comparer l’effet de l’affectation dans une liste et dans un vecteur ou une matrice sur votre logiciel (en Xcas, on peut utiliser =< au lieu de := pour stocker par référence).
  10. Voici un programme qui calcule la base utilisée pour représenter les flottants.
    Base():={
      local A,B;
      A:=1.0; B:=1.0;
      while evalf(evalf(A+1.0)-A)-1.0=0.0 do  A:=2*A; od;
      while evalf(evalf(A+B)-A)-B<>0 do B:=B+1; od;
      return B;
    } :;
    

    Testez-le
    et expliquez.
  11. Déterminer le plus grand réel positif xx de la forme 2 n2^{-n} (nn entier) tel que (1.0+x)1.0(1.0+x)-1.0 renvoie 0 sur PC avec la précision par défaut puis avec Digits:=30.
  12. Calculer la valeur de a:=exp(π163)a:=\exp(\pi \sqrt{163}) avec 30 chiffres significatifs, puis sa partie fractionnaire. Proposez une commande permettant de décider si aa est un entier.
  13. Déterminer la valeur et le signe de la fraction rationnelle F(x,y)=13354y 6+x 2(11x 2y 2y 6121y 42)+112y 8+x2y F(x,y)= \frac{1335}{4} y^6 + x^2 (11x^2 y^2-y^6 -121y^4-2) + \frac{11}{2} y^8 + \frac{x}{2y} en x=77617x=77617 et y=33096y=33096 en faisant deux calculs, l’un en mode approché et l’autre en mode exact. Que pensez-vous de ces résultats? Combien de chiffres significatifs faut-il pour obtenir un résultat raisonnable en mode approché?

  14. Que se passe-t-il si on essaie d’appliquer l’algorithme de la puissance rapide pour calculer (x+y+z+1) k(x+y+z+1)^{k} par exemple pour k=64k=64 ? Calculer le nombre de termes dans le développement de (x+y+z+1) n(x+y+z+1)^n et expliquez.
  15. Programmation de la méthode de Horner
    Il s’agit d’évaluer efficacement un polynôme P(X)=a nX n+...+a 0 P(X) = a_n X^n + ... + a_0 en un point. On pose b 0=P(α)b_0=P(\alpha ) et on écrit : P(X)b 0=(Xα)Q(X) P(X)-b_0=(X-\alpha )Q(X) où : Q(X)=b nX n1+...+b 2X+b 1 Q(X) = b_n X^{n-1} + ... +b_2 X + b_1 On calcule alors par ordre décroissant b nb_n, b n1b_{n-1}, ..., b 0b_0.
    1. Donner b nb_n en fonction de a na_n puis pour in1i\leq n-1, b ib_i en fonction de a ia_i et b i+1b_{i+1}. Indiquez le détail des calculs pour P(X)=X 32X+5P(X)=X^3-2X+5 et une valeur de α\alpha non nulle.
    2. Écrire un fonction horn effectuant ce calcul: on donnera en arguments le polynôme sous forme de la liste de ces coefficients (dans l’exemple [1,0,-2,5]) et la valeur de α\alpha et le programme renverra P(α)P(\alpha ). (On pourra aussi renvoyer les coefficients de QQ).
    3. En utilisant cette fonction, écrire une fonction qui calcule le développement de Taylor complet d’un polynôme en un point.

1
Certains systèmes de calcul formel (calculatrices par exemple) utilisent d’ailleurs des méthodes spécifiques pour gérer le problème de la fragmentation de la mémoire, appelés “garbage collector”. Ce type de méthode est intégré dans des langages comme Lisp ou Java, en C/C++ on trouve des libraries pour cela, par exemple GC de Boehm, incluse dans la distribution de GCC.
2
Les HP Prime utilisent Giac comme noyau de calcul formel, les TI Nspire CAS utilisent sans doute une version actualisée du système utilisé sur les TI 89, 92, Voayge 200.
3
un quartet=un demi octet
4
Plus précisément deux piles, la pile de donnée et la pile gérant le flux d’exécution. Cette dernière n’est pas visible par l’utilisateur
5
Sauf si on utilise comme dernier argument le nombre d’arguments de la fonction ou si on utilise (cf. infra) un tag de début de liste d’arguments
6
Toutefois une adaptation du logiciel utilisant comme quantum de base par exemple 32 bits porterait cette limite à 65536 65535165536^{65535}-1

Chapitre 4  Les générateurs de nombres pseudo-aléatoires.

4.1  Selon la loi uniforme

Les générateurs d’entiers dans une plage donnée selon la loi uniforme servent en général de base pour générer des nombres aléatoires entiers ou non selon des lois classiques. Ils doivent à la fois être rapides, avoir une période égale à la plage donnée et avoir de bonnes propriétés statistiques.

Xcas utilise un “tiny” Mersenne Twister (de période environ 2 1272^{127}), certaines implantations de Giac utilisent un générateur congruentiel.

4.1.1  Les générateurs congruentiels à 1 cran.

Etant donnés trois entiers a,ca, c et mm on considère la suite u n+1=au n+c(modm)u_{n+1}=au_n+c \pmod m où on choisit (par exemple) comme représentant de u nu_n le reste de la division euclidienne par mm. La valeur de u 0u_0 est appelée seed en anglais, elle est initialisée usuellement soit à 0 (ce qui permet de reproduire des bugs dans un programme dépendant du hasard), soit avec l’horloge système ou tout autre entrée de l’ordinateur (par exemple périphériques).

On supposera que a1a\neq 1, le cas a=1a=1 n’est pas très intéressant. On a alors : u n=a nu 0+a n1a1c(modm)u_n=a^n u_0 + \frac{a^n-1}{a-1} c \pmod m On cherche à réaliser une période la plus grande possible idéalement mm, mais m1m-1 peut fort bien convenir, et c’est possible si mm est premier en choisissant aa générateur du groupe cyclique, car on a alors a1(modm)a\neq 1 \pmod m et : u n=a n(u 0+ca1)ca1(modm)u_n=a^n (u_0 + \frac{c}{a-1}) - \frac{c}{a-1} \pmod m donc la suite est stationnaire ou prend toutes les valeurs sauf ca1- \frac{c}{a-1} .

Exemple : choisir pour mm une puissance de 2 permet d’effectuer la division euclidienne très rapidement, mais cela a un inconvénient assez important : les bits de poids faible de u nu_n ont une périodicité très (trop) petite. Il est alors intéressant de prendre m=2 k±1m=2^k \pm 1, parce que la division euclidienne par mm peut se coder efficacement en base 2, on divise par 2 k2^k (décalage de kk bits) et on ajuste x=(2 k±1)q+r=2 kq+(r±q)x=(2^k \pm 1)q+r=2^k q + (r \pm q). Ainsi pour k=4k=4 et m=2 4+1=17m=2^4+1=17, mm est premier. On peut construire une suite de période 16 en choisissant aa générateur de (/17) *(\mathbb{Z}/17\mathbb{Z})^*, par exemple a=3a=3 et c=2c=2 donne la suite 0,2,8,9,12,4,14,10,15,13,7,6,3,11,1,50,2,8,9,12,4,14,10,15,13,7,6,3,11,1,5.

On a le :

Théorème 4   La suite (u n)(u_n) définie ci-dessus est de périodicité maximale mm si et seulement si :
  1. cc et mm sont premiers entre eux
  2. a1a-1 est divisible par tous les facteurs premiers de mm
  3. a1a-1 est multiple de 4 si mm l’est.

On observe d’abord que vouloir la périodicité maximale revient à pouvoir supposer que u 0=0u_0=0. Il est donc nécessaire d’avoir cc et mm premiers entre eux, sinon tous les u nu_n sont multiples du pgcd de cc et mm. Ensuite, on pose m=p i r im=\prod p_i^{r_i} la décomposition en facteurs premiers de mm et on raisonne modulo chaque premier (par le lemme chinois, la périodicité est le PPCM des périodicités modulo chaque p i r ip_i^{r_i}). Si a1(modp) ia\neq 1 \pmod p_i alors a1a-1 est inversible modulo p ip_i donc modulo p i r ip_i^{r_i} on a u n=a n(u 0+ca1)+ca1u_n=a^n (u_0 + \frac{c}{a-1}) + \frac{-c}{a-1} et la valeur c/(a1)-c/(a-1) ne peut pas être atteinte (ou alors la suite est stationnaire). Donc a1a-1 doit être divisible par tous les facteurs premiers de mm pour avoir la périodicité maximale. Réciproquement, il faut trouver le premier ordre nn tel que (a n1)/(a1)=0(modp r)(a^n-1)/(a-1)=0 \pmod{p^r}. On pose a=b+1a=b+1, on a a n1a1=(b+1) n1b= k=1 n(nk)b k1=n+n(n1)2b+...\frac{a^n-1}{a-1}=\frac{(b+1)^n-1}{b} = \sum_{k=1}^n \left(^n_k\right) b^{k-1} = n +\frac{n(n-1)}{2}b +... On sait que b=a1b=a-1 est un multiple de pp, disons b=qpb=qp, on en déduit que pour n=p rn=p^r, on a bien (a n1)/(a1)=0(modp r)(a^n-1)/(a-1)=0 \pmod{p^r}, alors que pour n=p r1n=p^{r-1} et p2p\neq 2, (a n1)/(a1)=n(modp r)0(a^n-1)/(a-1)=n \pmod{p^r} \neq 0. Le même calcul pour p=2p=2 (prise en compte de la division par 2 de n(n1)n(n-1)) donne la condition b=a1b=a-1 est multiple de 4 si mm l’est.

On trouvera dans Knuth une discussion détaillée du choix de a,b,ma, b, m.

Exemple : m=2 311m=2^{31}-1 est premier, on peut donc construire un générateur congruentiel de période m1m-1 en choisissant aa générateur de /m *\mathbb{Z}/m\mathbb{Z}^*. Pour en trouver un, on peut tester aa pris au hasard et voir si a m1j1(modm)a^{\frac{m-1}{j}} \neq 1 \pmod m pour tous les diviseurs premiers de m1m-1. Par exemple





initialise l’état du générateur. Un appel à r() renvoie un entier entre 1 et m1m-1, pour avoir un g’enérateur pseudo-aléatoire selon la loi uniforme sur ]0,1[]0,1[, on tape
.

Ainsi

permet de vérifier visuellement si les réels générés sont bien répartis, ou bien

qui détecte des biais invisibles avec le test précédent, par exemple pour
.

4.1.2  Récurrence à kk éléments

Au lieu d’une récurrence u k+1=au k+cu_{k+1}=au_k+c on conserve en mémoire k+1k+1 valeurs successives de la suite et on calcule u n+k+1=a 0u n+...+a ku n+k(modp)u_{n+k+1} = a_0 u_n+...+a_{k}u_{n+k} \pmod p Si on note U nU_n le vecteur (u n,...,u n+k)(u_n,...,u_{n+k}) et AA la matrice companion du polynôme a 0+a 1x+...+a kx ka_0+a_1x+...+a_kx^k, on a U n+1=AU nU_{n+1}=AU_n. Rechercher un générateur de période maximale revient à chercher AA d’ordre le plus grand possible, donc les valeurs propres de AA, i.e. les racines de PP, doivent être racines de l’unité d’ordre le plus grand possible donc p k1p^k-1. Ce que l’on peut faire en construire un polynôme PP irréductible primitif (cf. la section 16 sur la construction de représentation des corps finis).

4.1.3  Mersenne twister.

Ce sont des générateurs plus performants, avec un état interne en général plus grand, dont l’état initial est généré par un générateur congruentiel. Ils utilisent une relation de récurrence qui ressemble aux générateurs congruentiels, mais au lieu de travailler sur de grands entiers, on découpe l’entier en mots de taille gérée par le CPU, et on fait des opérations de type matriciels avec des opérations bit à bit (ou exclusif par exemple) au lieu d’opérations arithmétiques.

4.2  Selon plusieurs lois classiques

La méthode générale consiste à calculer la distribution cumulée de la loi et à prendre la fonction réciproque d’un réel généré aléatoirement entre 0 et 1 selon la loi uniforme. Lorsqu’on a un nombre discret de valeurs possibles pas trop grand et que l’on veut générer plusieurs nombres selon la même loi, on peut précalculer la distribution cumulée en chaque valeur, et faire une dichotomie pour trouver la valeur de la fonction réciproque du nombre aléatoire généré. Les calculs peuvent être rendus difficiles par des dépassement de capacité des flottants si on utilise des méthodes naives pour estimer les fonction de répartition. On trouvera dans Abramowitz-Stegun diverses formules pour initialiser les méthodes de Newton pour inverser les fonction de répartition courante.

Il existe aussi quelques cas particuliers où on peut obtenir plus facilement un réel selon la loi donnée :

Chapitre 5  Le PGCD de polynômes.

Comme on l’a remarqué dans le premier article, l’algorithme d’Euclide est inefficace pour calculer le pgcd de deux polynômes à coefficients entiers. On va présenter ici les algorithmes utilisés habituellement par les systèmes de calcul formel: sous-résultant (PRS), modulaire (GCDMOD), pp-adique (EEZGD) et heuristique (GCDHEU). Le premier est une adaptation de l’algorithme d’Euclide et s’adapte à des coefficients assez génériques. Les trois autres ont en commun d’évaluer une ou plusieurs variables du polynôme (dans ce dernier cas il est nécessaire de bien distinguer le cas de polynômes à plusieurs variables) et de reconstruire le pgcd par des techniques distinctes, la plupart du temps ces algorithmes fonctionnent seulement si les coefficients sont entiers.

Soit donc P P et QQ deux polynômes à coefficients dans un corps. Le pgcd de PP et QQ n’est défini qu’à une constante près. Mais lorsque les coefficients de PP et QQ sont dans un anneau euclidien comme par exemple \mathbb{Z} ou [i]\mathbb{Z}[ i ], on appellera pgcd de PP et QQ un polynôme DD tel que P/DP / D et Q/DQ / D soient encore à coefficients dans l’anneau, et que DD soit optimal, c’est-à-dire que si un multiple μD\mu D de DD vérifie P/μDP / \mu D et Q/μDQ / \mu D sont à coefficients dans l’anneau, alors μ\mu est inversible.

La première étape d’un algorithme de calcul de pgcd consiste donc à diviser par son contenu (pgcd des coefficients entiers) chaque polynôme.

Exemple: P=4X 24P = 4 X^2 - 4 et Q=6X 2+12X+6Q = 6 X^2 + 12 X + 6. Le polynôme X+1X + 1 est un pgcd de PP et QQ puisqu’il est de degré maximal divisant PP et QQ mais le pgcd de PP et QQ est 2(X+1)2 ( X + 1 ). Remarquons qu’avec notre définition 2(X+1)- 2 ( X + 1 ) convient aussi. Par convention on appelera pgcd dans [X]\mathbb{Z}[X] le polynôme ayant un coefficient dominant positif.

Définition: On appelle contenu c(P)c ( P ) d’un polynôme PP le pgcd des coefficients de PP. On définit alors la partie primitive de PP: pp(P)=P/c(P)( P ) = P / c ( P ). Si c(P)=1c(P)=1, on dit que PP est primitif.

Proposition : Si AA et BB sont primitifs alors ABAB est primitif.
Sinon, on prend un facteur premier pp du contenu de ABAB, AB=0(modp)AB=0 \pmod p donc A=0A=0 ou B=0B=0 modulo pp, absurde.

Proposition : le contenu de ABAB est le produit des contenus de AA et de BB.
En effet le produit des contenus de AA et BB divise le contenu de ABAB, et AA/contenu de AA est primitif, BB/contenu de BB est primitif donc le produit l’est,

Proposition : Si AA et BB sont primitifs et si BB divise AA dans [X]\mathbb{Q}[X] alors A/B[X]A/B \in \mathbb{Z}[X].

Preuve : Soit Q=A/B[X]Q=A/B \in \mathbb{Q}[X]. Soit qq \in \mathbb{N} le PPCM des dénominateurs des coefficients de QQ et notons P=qQ[X]P=qQ \in \mathbb{Z}[X]. On a A=BQA=BQ donc qA=BPqA=BP donc le contenu de qAqA est le produit du contenu de BB par celui de PP, donc le contenu de P=qQP=qQ est qq, donc Q[X]Q \in \mathbb{Z}[X].

Donc le PGCD de AA et BB, polynômes primitifs de [X]\mathbb{Z}[X] est obtenu en prenant un PGCD de AA et BB dans [X]\mathbb{Q}[X], en multipliant par le PPCM des dénominateurs et en rendant le polynôme obtenu primitif (on change le signe du résultat si nécessaire pour avoir un coefficient dominant positif).

On en déduit que : D=pgcd(P,Q)=pgcd(c(P),c(Q))pgcd(pp(P),pp(Q)) D = \mbox{pgcd} ( P, Q ) = \mbox{pgcd} ( c ( P ), c ( Q )) \mbox{pgcd} ( \mbox{pp} ( P ), \mbox{pp} ( Q ))

5.1  Le sous-résultant.

La première idée qui vient à l’esprit pour améliorer l’efficacité de l’algorithme d’Euclide consiste à éviter les fractions qui sont créées par les divisions euclidiennes. On utilise à cet effet la pseudo-division: au lieu de prendre le reste RR de la division euclidienne du polynôme PP par QQ, on prend le reste de la division de Pq δ+1P q^{\delta + 1} par QQ, où qq désigne le coefficient dominant de QQ et δ\delta la différence entre le degré de PP et de QQ.

Exercice: En utilisant votre système de calcul formel préféré, calculez les restes intermédiaires générés dans l’algorithme d’Euclide lorsqu’on utilise la pseudo-division par exemple pour les polynômes P(x)=(x+1) 7(x1) 6P ( x ) = ( x + 1 )^7 - ( x - 1 )^6 et sa dérivée.

Une solution avec giac/xcas:

pgcd(a,b,prs):={ 
 local P,p,Q,q,R,g,h,d,res;
 res:=NULL;
 // convertit a et b en polynomes listes 
 // et extrait la partie primitive   
 P:=symb2poly(a);
 p:=lgcd(P); // pgcd des elements de la liste
 P:=P/p; 
 Q:=symb2poly(b);
 q:=lgcd(Q);
 Q:=Q/q; 
 if (size(P)<size(Q)){ // echange P et Q
  R:=P; P:=Q; Q:=R; 
 } 
 // calcul du contenu du pgcd
 p:=gcd(p,q);
 g:=1;
 h:=1;
 while (size(Q)!=1){
  q:=Q[0]; // coefficient dominant
  d:=size(P)-size(Q);
  R:=rem(q^(d+1)*P,Q);
  if (size(R)==0) return(p*poly12symb(Q/lgcd(Q),x));
  P:=Q;
  Q:=R;
  if (prs==1) Q:=Q/content(Q);
  if (prs==2) Q:=R/(g*h^d);
  res:=res,Q;
  if (prs==2) g:=q; h:=q^d/h^(d-1);
 } 
 return(p,res);
}:;



On s’aperçoit que les coefficients croissent de manière exponentielle (comparer avec ce qui se passe en mettant 1 comme dernier argument). La deuxième idée qui vient naturellement est alors à chaque étape de rendre le reste primitif, donc de diviser RR par le pgcd de ces coefficients. Cela donne un algorithme plus efficace, mais encore assez peu efficace car à chaque étape on doit calculer le pgcd de tous les coefficients, on peut imaginer le temps que cela prendra en dimension 1 et à fortiori en dimension supérieure. L’idéal serait de connaitre à l’avance une quantité suffisamment grande qui divise tous les coefficients du reste.

C’est ici qu’intervient l’algorithme du sous-résultant : après chaque pseudo-division euclidienne, on exhibe un coefficient "magique" qui divise les coefficients du reste (pour tester mettre le dernier argument de pgcd à 2). Ce coefficient n’est pas le pgcd mais il est suffisamment grand pour qu’on évite la croissance exponentielle des coefficients.

Algorithme du sous-résultant

Arguments: 2 polynômes PP et QQ primitifs. Valeur de retour: le pgcd de PP et QQ.

Pour calculer le coefficient "magique" on utilise 2 variables auxiliaires gg et hh initialisées a 1.

Boucle à effectuer tant que QQ est non nul:

Si on sort normalement de la boucle, QQ est nul, on renvoie donc la partie primitive de PP qui est le pgcd cherché.

Pour tester l’algorithme avec xcas, il suffit de décommenter les deux lignes Q:=R/(g*h^d); et g:=q; h:=q^d/h (d-1); ci-dessus.

La preuve de l’algorithme est un peu longue et par ailleurs bien expliquée dans le 2ème tome de Knuth (The Art of Computer Programming, Semi-numerical Algorithms), on y renvoie donc le lecteur intéressé. L’idée générale (et l’origine du nom de l’algorithme) est de considérer la matrice de Sylvester des polynômes de départ PP et QQ (celle dont le déterminant est appelé résultant de PP et QQ) et de traduire les pseudo-divisions qui permettent de calculer les restes successifs du sous-résultant en opération de ligne sur ces matrices. On démontre alors que les coefficients de RR divisés par gh δg h^{\delta} peuvent être interprétés comme des déterminants de sous-matrices de la matrice de Sylvester après réduction et c’est cela qui permet de conclure qu’ils sont entiers.

Par exemple, supposons que P=R 0P=R_0, Q=R 1Q=R_1, R 2R_2... diminuent de 1 en degré à chaque division (c’est le cas générique dans le déroulement de l’algorithme d’Euclide). Dans ce cas, δ=1\delta=1, il s’agit par exemple de montrer que le reste R 3R_3 de Q=R 1Q=R_1 par R 2R_2 est divisible par le carré du coefficient dominant de Q=R 1Q=R_1. Voyons comment on obtient les coefficients de R 3R_3 à partir de la matrice de Sylvester de PP et QQ. Prenons la sous-matrice constituée des 2 premières lignes de PP et des 3 premières lignes de QQ et réduisons-la sous forme échelonnée sans introduire de dénominateur. (p n p n1 p n2 p n3 ... 0 p n p n1 p n2 ... q n1 q n2 q n3 q n4 ... 0 q n1 q n2 q n3 ... 0 0 q n1 q n2 ...) \left( \begin{array}{ccccc} p_n & p_{n-1} & p_{n-2} & p_{n-3} & ... \\ 0 & p_n & p_{n-1} & p_{n-2} & ... \\ q_{n-1} & q_{n-2} & q_{n-3} & q_{n-4} & ... \\ 0 & q_{n-1} & q_{n-2} & q_{n-3} & ... \\ 0 & 0 & q_{n-1} & q_{n-2} & ... \end{array} \right) On effectue L 1q n1L 1p nL 3L_1 \leftarrow q_{n-1} L_1 - p_n L_3 et L 2q n1L 2p nL 4L_2 \leftarrow q_{n-1} L_2 - p_n L_4, ce qui correspond à l’élimination du terme en xx du quotient de PP par QQ (0 q n1p n1p nq n2 ... ... ... 0 0 q n1p n1p nq n2 ... ... q n1 q n2 q n3 q n4 ... 0 q n1 q n2 q n3 ... 0 0 q n1 q n2 ...) \left( \begin{array}{ccccc} 0 & q_{n-1} p_{n-1} - p_n q_{n-2} & ... & ... & ... \\ 0 & 0 & q_{n-1} p_{n-1} - p_n q_{n-2} & ... & ... \\ q_{n-1} & q_{n-2} & q_{n-3} & q_{n-4} & ... \\ 0 & q_{n-1} & q_{n-2} & q_{n-3} & ... \\ 0 & 0 & q_{n-1} & q_{n-2} & ... \end{array} \right) on effectue ensuite L 1 q n1L 1(q n1p n1p nq n2)L 4 L 2 q n1L 2(q n1p n1p nq n2)L 5 \begin{matrix} L_1 & \leftarrow &q_{n-1} L_1 - (q_{n-1} p_{n-1} - p_n q_{n-2}) L_4 \\ L_2 & \leftarrow & q_{n-1} L_2 - (q_{n-1} p_{n-1} - p_n q_{n-2}) L_5 \end{matrix} ce qui correspond à l’élimination du terme constant du quotient de PP par QQ, on obtient (0 0 r 2,n2 ... ... 0 0 0 r 2,n2 ... q n1 q n2 q n3 q n4 ... 0 q n1 q n2 q n3 ... 0 0 q n1 q n2 ...) \left( \begin{array}{ccccc} 0 & 0 & r_{2,n-2} & ... & ... \\ 0 & 0 & 0 & r_{2,n-2} & ... \\ q_{n-1} & q_{n-2} & q_{n-3} & q_{n-4} & ... \\ 0 & q_{n-1} & q_{n-2} & q_{n-3} & ... \\ 0 & 0 & q_{n-1} & q_{n-2} & ... \end{array} \right) si on enlève les lignes 3 et 4, et les colonnes 1 et 2, on obtient (après échanges de lignes) une sous-matrice de la matrice de Sylvester de QQ et R 2R_2 (q n1 q n2 ... r 2,n2 ... ... 0 r 2,n2 ...) \left( \begin{array}{ccc} q_{n-1} & q_{n-2} & ... \\ r_{2,n-2} & ... & ... \\ 0 & r_{2,n-2} & ... \end{array} \right) On recommence les opérations de réduction de cette sous-matrice correspondant à la division euclidienne de QQ par R 2R_2, on obtient (0 0 r 3,n3 r 2,n2 ... ... 0 r 2,n2 ...) \left( \begin{array}{ccc} 0 & 0 & r_{3,n-3} \\ r_{2,n-2} & ... & ... \\ 0 & r_{2,n-2} & ... \end{array} \right) puis après suppression des colonnes 1 et 2 et des lignes 2 et 3 la ligne des coefficients de R 3R_3.

Supposons qu’on se limite dès le début de la réduction à ne garder que les colonnes 1 à 4 et une 5-ième colonne parmi les suivantes, on obtient à la fin de la réduction une matrice 1,1 qui contient un des coefficients de R 3R_3 (selon le choix de la 5-ième colonne). Donc ce coefficient est égal au déterminant de la matrice 1,1 qui est égal, au signe près, au déterminant de la matrice 3,3 dont il est issu par notre réduction (en effet, dans la 2ième partie de la réduction, on a multiplié deux fois L 1L_1 par r 2,n2r_{2,n-2}, mais on doit ensuite diviser le déterminant par r 2,n2 2r_{2,n-2}^2 pour éliminer les colonnes 1 et 2). Quant au déterminant de la matrice 3,3, il se déduit du déterminant de la matrice 5,5 par multiplication par q n1 4q_{n-1}^4 (2 lignes ont été multipliées 2 fois par q n1q_{n-1}) et division par q n1 2q_{n-1}^2 (élimination des colonnes 1 et 2). Au final, tout coefficient de R 3R_3 est égal au produit d’un déterminant 5,5 extrait de la matrice de Sylvester de PP et QQ par q n1 2q_{n-1}^2, qui est justement le coefficient “magique” par lequel on divise le reste de R 1=QR_1=Q par R 2R_2 lors de l’algorithme du sous-résultant.

5.2  Le pgcd en une variable.

5.2.1  Le pgcd heuristique.

On suppose ici que les coefficients sont entiers ou entiers de Gauss. On peut donc se ramener au cas où les polynômes sont primitifs.

L’idée consiste à évaluer PP et QQ en un entier zz et à extraire des informations du pgcd gg des entiers P(z)P ( z ) et Q(z)Q ( z ). Il faut donc un moyen de remonter de l’entier gg à un polynôme GG tel que G(z)=gG ( z ) = g. La méthode consiste à écrire en base zz l’entier gg, avec une particularité dans les divisions euclidiennes successives on utilise le reste symétrique (compris entre z/2- z / 2 et z/2z / 2). Cette écriture donne les coefficients d’un polynôme GG unique. On extrait ensuite la partie primitive de ce polynôme GG. Lorsque zz est assez grand par rapport aux coefficients des polynômes PP et QQ, si pp(G)\mbox{pp} ( G ) divise PP et QQ, on va montrer que le pgcd de PP et de QQ est D=pp(G)D = \mbox{pp} ( G ).

On remarque tout d’abord que d:=D(z)d : = D ( z ) divise gg. En effet DD divise PP et QQ donc pour tout entier (ou entier de Gauss) zz, D(z)D ( z ) divise P(z)P ( z ) et Q(z)Q ( z ). Il existe donc une constante aa telle que g=ad g = a d On a aussi pp(G)\mbox{pp} ( G ) divise DD. Il existe donc un polynôme CC tel que : D=pp(G)C D = \mbox{pp} ( G ) C Nous devons prouver que CC est un polynôme constant. On suppose dans la suite que ce n’est pas le cas. Evaluons l’égalité précédente au point zz, on obtient d=gc(G)C(z) d = \frac{g}{c ( G )} C ( z ) Finalement 1=ac(G)C(z) 1 = \frac{a}{c ( G )} C ( z ) La procédure de construction de GG nous donne une majoration de ces coefficients par |z|/2| z | / 2, donc de c(G)c ( G ) par |z|/2| z | / 2, donc C(z)C ( z ) divise un entier de module plus petit que |z|/2| z | / 2, donc |C(z)||z|2 | C ( z ) | \leq \frac{| z |}{2} On considère maintenant les racines complexes z 1,.,z nz_1, \ldots ., z_n du polynôme CC (il en existe au moins une puisqu’on a supposé CC non constant). On a: C(X)=c n(Xz 1).(Xz n) C ( X ) = c_n ( X - z_1 ) \ldots . ( X - z_n ) Donc, comme c nc_n est un entier (ou entier de Gauss) non nul, sa norme est supérieure ou égale à 1 et : |C(z)| j=1 n(|z||z j|) | C ( z ) | \geq \prod^n_{j = 1} ( | z | - | z_j | ) Il nous reste à majorer les racines de CC pour minorer |C(z)|| C ( z ) |. Comme CC divise DD il divise PP et QQ donc les racines de CC sont des racines communes à PP et QQ. On va appliquer le:

Lemme 5   Soit x une racine complexe d’un polynôme P=a nX n+.+a 0P = a_n X^n + \ldots . + a_0.

Alors  |x|<|P||a n|+1,|P|=max 0in(|a i|) | x | &lt; \frac{| P |}{| a_n |} + 1, | P | = \max_{0 \leq i \leq n} ( | a_i | )

Application du lemme à C(X)C(X) : on a 1/|c n|11/|c_n|\leq 1 donc si on a choisi zz tel que |z|2min(|P|,|Q|)+2| z | \geq 2 \min ( | P |, | Q | ) + 2, alors pour tout jj, |z j|<|z|/2| z_j | &lt; | z | / 2 donc |C(z)|>(|z|2) n | C ( z ) | &gt; \left( \frac{| z |}{2} \right)^n qui contredit notre majoration de |C(z)|| C ( z ) |.

Théorème 6   Soit PP et Q deux polynômes à coefficients entiers. On choisit un entier z tel que |z|2min(|P|,|Q|)+2| z | \geq 2 \min ( | P |, | Q | ) + 2, si la partie primitive du polynôme GG reconstruit à partir du pgcd de P(z)etP ( z ) \mbox{et}Q(z) par écriture en base zz (avec comme reste euclidien le reste symétrique) divise PP et QQ alors c’est le pgcd de PP et QQ.

Pour finir la démonstration du théorème, il nous faut encore montrer le lemme. On a a nx n=a n1x n1+.+a 0 - a_n x^n = a_{n - 1} x^{n - 1} + \ldots . + a_0 Donc |a n||x| n|P|(1+.+|x| n1)=|P||x| n1|x|1 | a_n | | x |^n \leq | P | ( 1 + \ldots . + | x |^{n - 1} ) = | P | \frac{| x |^n - 1}{| x | - 1} Ici on peut supposer que |x|1| x | \geq 1, sinon le lemme est démontré, donc |x|1| x | - 1 est positif et |a n|(|x|1)|P||x| n1|x| n|x|1<|P||a n| | a_n | ( | x | - 1 ) \leq | P | \frac{| x |^n - 1}{| x |^n} \Rightarrow | x | - 1 &lt; \frac{| P |}{| a_n |} Remarques

Exemple 7   Si P 0=6(X 21)P_0 = 6 ( X^2 - 1 ) et Q 0=4(X 31)Q_0 = 4 ( X^3 - 1 ).

Le contenu de P 0P_0 est 6, celui de Q 0Q_0 est 4.
On a donc pgcd des contenus = 2,
P=X 21,Q=X 31P = X^2 - 1, Q = X^3 - 1. La valeur initiale de zz est donc 2*1+2=42 \ast 1 + 2 = 4. On trouve P(4)=15,Q(4)=63P ( 4 ) = 15, Q ( 4 ) = 63. Le pgcd entier de 15 et 63 est 3 que nous écrivons symétriquement en base 4 sous la forme 3=1*413 = 1 \ast 4 - 1, donc G=X1G = X - 1, sa partie primitive est X1X - 1. On teste si X1X - 1 divise PP et QQ, c’est le cas, donc c’est le pgcd de PP et QQ et le pgcd de P 0P_0 et Q 0Q_0 est 2(X1)2 ( X - 1 ).

Algorithme gcdheu
En arguments deux polynômes P 0P_0 et Q 0Q_0 à coefficients entiers ou entiers de Gauss. Retourne le pgcd de P 0P_0 et Q 0Q_0 ou faux en cas d’échec.

  1. Calculer le contenu de P 0P_0 et Q 0Q_0. Vérifier que les coefficients sont entiers de Gauss sinon retourner faux.
  2. Extraire la partie primitive PP de P 0P_0 et QQ de Q 0Q_0, calculer le pgcd cc des contenus de P 0P_0 et Q 0Q_0
  3. Déterminer z=2min(|P|,|Q|)+2z = 2 \min ( | P |, | Q | ) + 2.
  4. Début de boucle: initialisation du nombre d’essais à 1, test d’arrêt sur un nombre maximal d’essais, avec changement de zz entre deux itérations (par exemple z2zz \leftarrow 2 z).
  5. Calculer le pgcd gg de P(z)P ( z ) et Q(z)Q ( z ) puis son écriture symétrique en base zz dont on extrait la partie primitive GG.
  6. Si GnedivisepasG \mbox{ne} \mbox{divise} \mbox{pas}PP passer à l’itération suivante. De même pour QQ.
  7. Retourner cGc G
  8. Fin de la boucle
  9. Retourner faux.

On remarque au passage qu’on a calculé le quotient de PP par GG et le quotient de QQ par GG lorsque la procédure réussit. On peut donc passer à la procédure gcdheu deux paramètres supplémentaires par référence, les deux polynômes que l’on affectera en cas de succès, ce qui optimise la simplification d’une fraction de 2 polynômes.

5.2.2  Le pgcd modulaire

On part du fait que si DD est le pgcd de PP et QQ dans \mathbb{Z} (ou [i])\mathbb{Z} [ i ] ) alors après réduction modulo un nombre premier nn qui ne divise pas les coefficients dominants de PP et QQ, DD divise le pgcd GG de PP et QQ dans /n\mathbb{Z} / n \mathbb{Z} (par convention, le pgcd dans /n\mathbb{Z} / n \mathbb{Z} est normalisé pour que son coefficient dominant vaille 1). Comme on calcule GG dans /n\mathbb{Z} / n \mathbb{Z}, les coefficients des restes intermédiaires de l’algorithme d’Euclide sont bornés, on évite ainsi la croissance exponentielle des coefficients. Il faudra ensuite reconstruire DD à partir de GG.

On remarque d’abord que si on trouve G=1,G = 1, alors PP et QQ sont premiers entre eux. En général, on peut seulement dire que le degré de GG est supérieur ou égal au degré de DD. En fait, le degré de GG est égal au degré de DD lorsque les restes de l’algorithme d’Euclide (calculé en effectuant des pseudo-divisions, cf. l’exercice 1) ont leur coefficient dominant non divisible par nn. Donc plus nn est grand, plus la probabilité est grande de trouver GG du bon degré.

Dans la suite, nous allons déterminer une borne bb à priori majorant les coefficients de DD. On utilisera ensuite la même méthode que dans l’algorithme modulaire de recherche de racines évidentes: on multiplie GG dans /n\mathbb{Z} / n \mathbb{Z} par le pgcd dans \mathbb{Z} des coefficients dominants pp et qq de PP et QQ. Soit D˜=pgcd(p,q)G\tilde{D} = \mbox{pgcd} ( p, q ) G le résultat écrit en représentation symétrique. Si nbpgcd(p,q)n \geq b \mbox{pgcd} ( p, q ) et si GG est du bon degré, on montre de la même manière que D=D˜D = \tilde{D}. Comme on ne connait pas le degré de DD, on est obligé de tester si D˜\tilde{D} divise PP et QQ. Si c’est le cas, alors D˜\tilde{D} divise DD donc D˜=D\tilde{D} = D puisque degre(D˜)=degre(G)degre(D)\mbox{degre} ( \tilde{D} ) = \mbox{degre} ( G ) \geq \mbox{degre} ( D ). Sinon, nn est un nombre premier malchanceux pour ce calcul de pgcd (degre(G)degre(D)\mbox{degre} ( G ) \geq \mbox{degre} ( D )), il faut essayer un autre premier.

Remarque: On serait tenté de dire que les coefficients de DD sont bornés par le plus grand coefficient de PP. C’est malheureusement faux, par exemple (X+1) 2( X + 1 )^2 dont le plus grand coefficient est 2 divise (X+1) 2(X1)( X + 1 )^2 ( X - 1 ) dont le plus grand coefficient (en valeur absolue) est 1.

Soit P=p iX iP = \sum p_i X^i un polynôme à coefficients entiers. On utilise la norme euclidienne |P| 2=|p i| 2(4) | P |^2 = \sum | p_i |^2 \qquad (4) On établit d’abord une majoration du produit des racines de norme supérieure à 1 de PP à l’aide de |P| | P |^{}. Ensuite si DD est un diviseur de PP, le coefficient dominant dd de DD divise le coefficient dominant pp de PP et les racines de DD sont aussi des racines de PP. On pourra donc déterminer une majoration des polynômes symétriques des racines de DD et donc des coefficients de DD.

Lemme 8   Soit A= j=0 aa jX jA = \sum_{j = 0}^a a_j X^j un polynôme et α\alpha \in \mathbb{C}. Alors |(Xα)A|=|(α¯X1)A| | ( X - \alpha ) A | = | ( \overline{\alpha} X - 1 ) A |

Pour prouver le lemme 8, on développe les produits de polynômes. On pose a 1=a a+1=0a_{-1} = a_{a + 1} = 0 et on note \Re la partie réelle. |(Xα)A| 2= j=0 a+1|a j1αa j| 2= j=0 a+1|a j1| 2+|α| 2|a j| 22(a j1αa j¯) | ( X - \alpha ) A |^2 = \sum_{j = 0}^{a + 1} | a_{j - 1} - \alpha a_j |^2 = \sum_{j = 0}^{a + 1} | a_{j - 1} |^2 + | \alpha |^2 | a_j |^2 - 2 \Re ( a_{j - 1} \overline{\alpha a_j} ) |(α¯X1)A| 2= j=0 a+1|α¯a j1a j| 2= j=0 a+1|α| 2|a j1| 2+|a j| 22(α¯a j1a j¯) | ( \overline{\alpha} X - 1 ) A |^2 = \sum_{j = 0}^{a + 1} | \overline{\alpha} a_{j - 1} - a_j |^2 = \sum_{j = 0}^{a + 1} | \alpha |^2 | a_{j - 1} |^2 + | a_j |^2 - 2 \Re ( \overline{\alpha} a_{j - 1} \overline{a_j} ) Les deux donnent bien le même résultat.

Soit P(X)=p(Xα j)P ( X ) = p \prod ( X - \alpha_j ) la factorisation de PP sur \mathbb{C}. On introduit le polynôme P˜=p j/|α j|1(Xα j) j/|α j|<1(α j¯X1) \tilde{P} = p \prod_{j / | \alpha_j | \geq 1} ( X - \alpha_j ) \prod_{j / | \alpha_j | &lt; 1} ( \overline{\alpha_j} X - 1 ) qui d’après le lemme a la même norme que PP. La norme de PP majore donc le coefficient constant de P˜\tilde{P} d’où: j/|α j|1|α j||P||p|(5) \prod_{j / | \alpha_j | \geq 1} | \alpha_j | \leq \frac{| P |}{| p |} \qquad (5) On remarque que (5) reste vraie si on considère les racines δ j\delta_j de norme plus grande que 1 d’un diviseur DD de PP puisque le produit porte alors sur un sous-ensemble. On écrit maintenant l’expression des coefficients d jd_j de DD à l’aide des racines δ j\delta_j de DD: |d mj|=|d|| choixdejracinesparmilesmracinesdeD δ kracineschoisiesδ k| | d_{m - j} | = | d | \left| \sum_{\mbox{choix} \mbox{de} j \mbox{racines} \mbox{parmi} \mbox{les} m \mbox{racines} \mbox{de} D} \quad \prod_{\delta_k \in \mbox{racines} \mbox{choisies}} \delta_k \right| Pour majorer |d mj|| d_{m - j} |, on commence par majorer |δ k|| \delta_k | par β k=max(1,|δ k|)\beta_k = \max ( 1, | \delta_k | ). On est donc ramené à majorer σ j,m(β)= choixdejparmimvaleursβ k β kchoixβ k \sigma_{j, m} ( \beta ) = \sum_{\mbox{choix} \mbox{de} j \mbox{parmi} m \mbox{valeurs} \beta_k} \quad \prod_{\beta_k \in \mbox{choix}} \beta_k avec pour hypothèse une majoration de M= k=1 mβ kM = \prod_{k = 1}^m \beta_k donnée par la relation (5). Pour cela, on cherche le maximum de σ j,m(β)\sigma_{j, m} ( \beta ) sous les contraintes MM fixé et β k1\beta_k \geq 1.

On va montrer que le maximum ne peut être atteint que si l’un des β k=M\beta_k = M (et tous les autres β k=1)\beta_k = 1 ). Sinon, quitte à réordonner supposons que les β k\beta_k sont classés par ordre croissant. On a donc β m11\beta_{m - 1} \neq 1, on pose β k˜=β k\widetilde{\beta_k} = \beta_k pour km2k \leq m - 2, β˜ m1=1\tilde{\beta}_{m - 1} = 1 et β˜ m=β m1β m\tilde{\beta}_m = \beta_{m - 1} \beta_m. Comparons σ j,m(β)\sigma_{j, m} ( \beta ) et σ j,nm(β˜)\sigma_{j, \mbox{nm}} ( \tilde{\beta} ). Si le choix de jj parmi mm comporte k=m1k = m - 1 et k=mk = m, le produit est inchangé. Sinon on a la somme de deux produits, l’un contenant k=m1k = m - 1 et l’autre k=mk = m. On compare donc B(β m1+β m)B ( \beta_{m - 1} + \beta_m ) et B(1+β m1β m)B ( 1 + \beta_{m - 1} \beta_m ) avec B= β kresteduchoixβ kB = \prod_{\beta_k \in \mbox{reste} \mbox{du} \mbox{choix}} \beta_k. Comme 1+β m1β mβ m1+β m 1 + \beta_{m - 1} \beta_m \geq \beta_{m - 1} + \beta_m puisque la différence est le produit (1β m)(1β m1)(1-\beta_m)(1-\beta_{m-1}) de deux nombres positifs, on arrive à la contradiction souhaitée.

Ensuite on décompose les choix de σ m,j\sigma_{m, j} en ceux contenant MM et des 1 et ceux ne contenant que des 1, d’où la majoration σ j,m(β)(m1 j1)M+(m1 j) \sigma_{j, m} ( \beta ) \leq \left(\begin{array}{c} m - 1\\ j - 1 \end{array}\right) M + \left(\begin{array}{c} m - 1\\ j \end{array}\right) et finalement |d mj||d|((m1 j1)|P||p|+(m1 j))(6) | d_{m - j} | \leq | d | \left( \left(\begin{array}{c} m - 1\\ j - 1 \end{array}\right) \frac{| P |}{| p |} + \left(\begin{array}{c} m - 1\\ j \end{array}\right) \right) \qquad (6) On peut en déduire une majoration indépendante de jj sur les coefficients de DD, en majorant |d|| d | par |p|| p | (puisque dd divise pp) et les coefficients binomiaux par 2 m12^{m - 1} (obtenue en développant (1+1) m1( 1 + 1 )^{m - 1}). D’où le

Théorème 9   (Landau-Mignotte) Soit PP un polynôme à coefficients entiers (ou entiers de Gauss) et DD un diviseur de PP de degré mm. Si |P|| P | désigne la norme euclidienne du vecteur des coefficients de PP et pp le coefficient dominant de PP alors les coefficients d jd_j de DD satisfont l’inégalité |d j|2 m1(|P|+|p|)(7) | d_j | \leq 2^{m - 1} ( | P | + | p | ) \qquad (7)

Avec cette estimation, on en déduit que si nn est un premier plus grand que min(2 degre(P)1(|P|+|p|),2 degre(Q)1(|Q|+|q|)),(8) \min \left( 2^{\mbox{degre} ( P ) - 1} ( | P | + | p | ), 2^{\mbox{degre} ( Q ) - 1} ( | Q | + | q | ) \right), \qquad (8) alors le pgcd trouvé dans /n\mathbb{Z} / n \mathbb{Z} va se reconstruire en un pgcd dans \mathbb{Z} si son degré est le bon.

Malheureusement la borne précédente est souvent très grande par rapport aux coefficients du pgcd et calculer dans /n\mathbb{Z} / n \mathbb{Z} s’avèrera encore inefficace (surtout si le pgcd est 1). Cela reste vrai même si on optimise un peu la majoration (8) en repartant de (6).

L’idée est donc de travailler modulo plusieurs nombres premiers plus petits et reconstruire le pgcd des 2 polynômes à coefficients entiers à partir des pgcd des polynômes dans /n\mathbb{Z} / n \mathbb{Z} et du théorème des restes chinois. En pratique on prend des nombres premiers inférieurs à la racine carrée du plus grand entier hardware de la machine (donc plus petits que 2 162^{16} sur une machine 32 bits) ce qui permet d’utiliser l’arithmétique hardware du processeur sans risque de débordement.

Algorithme du PGCD modulaire en 1 variable:

En argument: 2 polynômes primitifs PP et QQ à coefficients entiers. Le résultat renvoyé sera le polynôme pgcd.

Variable auxiliaire: un entier NN initialisé à 1 qui représente le produit des nombres premiers utilisés jusqu’ici et un polynôme HH initialisé à 0 qui représente le pgcd dans /N\mathbb{Z} / N \mathbb{Z}.

Boucle infinie :

  1. Chercher un nouveau nombre premier nn qui ne divise pas les coefficients dominants pp et qq de PP et QQ
  2. Calculer le pgcd GG de PP et QQ dans /n\mathbb{Z} / n \mathbb{Z}. Si GG=1, renvoyer 1.
  3. Si H=0H = 0 ou si le degré de GG est plus petit que le degré de HH, recopier GG dans HH et nn dans NN, passer à la 6ème étape
  4. Si le degré de GG est plus grand que celui de HH passer à l’itération suivante
  5. Si le degré de GG est égal au degré de HH, en utilisant le théorème des restes chinois, calculer un polynôme H˜\tilde{H} tel que H˜=H\tilde{H} = H modulo NN et H˜=G\tilde{H} = G modulo nn. Recopier H˜\tilde{H} dans HH et nNn N dans NN.
  6. Ecrire pgcd(p,q)H\mbox{pgcd} ( p, q ) H en représentation symétrique. Soit H˜\tilde{H} le résultat rendu primitif. Tester si H˜\tilde{H} divise PP et QQ. Si c’est le cas, renvoyer H˜\tilde{H}, sinon passer à l’itération suivante.

Finalement on n’a pas utilisé bb, la borne de Landau-Mignotte. On peut penser que l’étape 6 ne devrait être effectuée que lorsque NN est plus grand que pgcd(p,q)b\mbox{pgcd} ( p, q ) b. En pratique, on effectue le test de l’étape 6 plus tôt parce que les coefficients du pgcd sont rarement aussi grand que bb. Mais pour éviter de faire le test trop tôt, on introduit une variable auxiliaire HH' qui contient la valeur de HH de l’itération précédente et on ne fait le test que si H=HH' = H (ou bien sûr si on a dépassé la borne).

Remarque:

L’algorithme ci-dessus fonctionne également pour des polynômes à plusieurs variables.

Exemple 1:

Calcul du pgcd de (X+1) 3(X1) 4( X + 1 )^3 ( X - 1 )^4 et (X 41) ( X^4 - 1 )^{}. Prenons pour commencer n=2n = 2. On trouve comme pgcd X 4+1X^4 + 1 (en effet 1=1- 1 = 1 donc on cherchait le pgcd de (X+1) 7( X + 1 )^7 et de X 4+1=(X+1) 4X^4 + 1 = ( X + 1 )^4). On teste si X 4+1X^4 + 1 divise PP et QQ, ce n’est pas le cas donc on passe au nombre premier suivant. Pour n=3n = 3, on trouve X 21X^2 - 1. Donc n=2n = 2 n’était pas un bon nombre premier pour ce calcul de pgcd puisqu’on a trouvé un pgcd de degré plus petit. On teste si X 21X^2 - 1 divise PP et QQ, c’est le cas ici donc on peut arrêter, le pgcd cherché est X 21X^2-1.

Exemple 2 :

Calcul du pgcd de (X+1) 3(X1) 4( X + 1 )^3 ( X - 1 )^4 et (X 41) 3( X^4 - 1 )^3. Pour n=2n = 2, on trouve un polynôme de degré 7. Pour n=3n = 3, on trouve X 61X^6 - 1 donc n=2n = 2 était une mauvaise réduction. Comme X 61X^6 - 1 ne divise pas PP et QQ, on passe à n=5n = 5. On trouve X 6+2X 42X 21X^6 + 2 X^4 - 2 X^2 - 1. On applique le théorème des restes chinois qui va nous donner un polynôme dans /15\mathbb{Z} / 15 \mathbb{Z}. On cherche donc un entier congru à 2 modulo 5 et à 0 modulo 3, -3 est la solution (écrite en représentation symétrique), donc le polynôme modulo 15 est X 63X 4+3X 21=(X 21) 3X^6 - 3 X^4 + 3 X^2 - 1 = ( X^2 - 1 )^3. Ce polynôme divise PP et QQ, c’est donc le pgcd de PP et de QQ.

5.3  Le pgcd à plusieurs variables.

5.3.1  Le pgcd heuristique.

On suppose comme dans le cas à une variable que les polynômes sont primitifs, donc qu’on a simplifié les polynômes par le pgcd entier de leurs coefficients entiers.

Le principe est identique à celui du PGCD à 1 variable, on évalue les deux polynômes PP et QQ de kk variables X 1,.,X kX_1, \ldots ., X_k en un X k=zX_k = z et on calcule le pgcd gg des 2 polynômes P(z)P ( z ) et Q(z)Q ( z ) de k1k - 1 variables. On remonte ensuite à un polynôme GG par écriture symétrique en base zz de gg et on teste si pp(G)\mbox{pp} ( G ) divise PP et QQ. Il s’agit à nouveau de montrer que si zz est assez grand, alors pp(G)\mbox{pp} ( G ) est le pgcd cherché. On sait que d=D(z)d = D ( z ) divise gg. Il existe donc un polynôme aa de k1k - 1 variables tel que g=adg = a d. On sait aussi que pp(G)\mbox{pp} ( G ) divise DD, donc il existe un polynôme CC de kk variables tel que D=C*pp(G).D = C \ast \mbox{pp} ( G ) . On évalue en zz et on obtient d=C(z)g/c(G)d = C ( z ) g / c ( G ), où c(G)c ( G ) est un entier, donc c(G)=a*C(z) c ( G ) = a \ast C ( z ) Comme c(G)c ( G ) est un entier, aa et C(z)C ( z ) sont des polynômes constants. Comme précédemment, on a aussi |C(z)||z|/2| C ( z ) | \leq | z | / 2 puisque |c(G)||z|/2| c ( G ) | \leq | z | / 2.

En pratique, cet algorithme nécessite le calcul récursif de pgcd sans garantie de réussite. On l’évite donc s’il y a beaucoup de variables (la limite est par exemple de 5 pour MuPAD).

5.3.2  Le pgcd modulaire multivariables.

Ici, on travaille modulo X nα X_n - \alpha_{}, où X 1,.,X nX_1, \ldots ., X_n désignent les variables des polynômes. On considère donc deux polynômes PP et QQ comme polynômes de la variables X nX_n avec des coefficients dans [X 1,.,X n1]\mathbb{Z} [ X_1, \ldots ., X_{n - 1} ]. On évalue en X n=αX_n = \alpha, on obtient deux polynômes en n1n - 1 variables dont on calcule le pgcd (récursivement).

Il s’agit de reconstruire le pgcd par interpolation. Tout d’abord, on a une borne évidente sur le degré du pgcd par rapport à la variable X nX_n, c’est le minimum δ\delta des degrés par rapport à X nX_n des polynômes PP et QQ. A première vue, il suffit donc d’évaluer les polynômes en δ+1\delta + 1 points α\alpha.

Il faut toutefois prendre garde aux mauvaises évaluations et à la normalisation des pgcd avant d’interpoler. En effet, si D(X 1,.,X n)D ( X_1, \ldots ., X_n ) désigne le pgcd de PP et QQ et G(X 1,.,X n1)G ( X_1, \ldots ., X_{n - 1} ) le pgcd de P(X 1,.,X n1,α)P ( X_1, \ldots ., X_{n - 1}, \alpha ) et de Q(X 1,.,X n1,α)Q ( X_1, \ldots ., X_{n - 1}, \alpha ), on peut seulement dire D(X 1,.,X n1,α)D ( X_1, \ldots ., X_{n - 1}, \alpha ) divise GG. Plusieurs cas sont donc possibles lorsqu’on évalue en un nouveau point α\alpha:

On voit que les mauvaises évaluations se détectent simplement par les degrés. Pour la normalisation, on utilise une petite astuce: au lieu de reconstruire lepgcdD\mbox{le} \mbox{pgcd} D, on va reconstruire un multiple du pgcd DD (ce multiple appartiendra à [X n])\mathbb{Z} [ X_n ] ). On voit maintenant PP et QQ comme des polynômes en n1n - 1 variables X 1,.,X n1X_1, \ldots ., X_{n - 1} à coefficients dans [X n]\mathbb{Z} [ X_n ]. Alors lcoeff(D)(D), le coefficient dominant de DD (relativement à l’ordre lexicographique sur les variables X 1,...,X n1X_1,...,X_{n-1}), est un polynôme en X nX_n qui divise le coefficient dominant de PP et de QQ donc divise le coefficient dominant du pgcd des coefficients dominants de PP et de QQ. On va donc reconstruire le polynôme : D=DΔ(X n)lcoeff(D)(X n),Δ(X n)=pgcd(lcoeff(P)(X n),lcoeff(Q)(X n)) D' = D \frac{\Delta ( X_n )}{\mbox{lcoeff} ( D ) ( X_n )}, \Delta ( X_n ) = \mbox{pgcd} ( \mbox{lcoeff} ( P ) ( X_n ), \mbox{lcoeff} ( Q ) ( X_n )) c’est-à-dire DD multiplié par un polynôme qui ne dépend que de X nX_n.

Revenons à GG en un point α\alpha de bonne évaluation. C’est un multiple entier de D(X 1,.,X n1,α)D ( X_1, \ldots ., X_{n - 1}, \alpha ): G=βD(X 1,.,X n1,α) G = \beta D ( X_1, \ldots ., X_{n - 1}, \alpha ) Donc, comme polynômes de X 1,...,X n1X_1,...,X_{n-1} à coefficients dans [X n]\mathbb{Z}[X_n] ou dans \mathbb{Z}, lcoeff(G)=βlcoeff(D) |X n=α\mbox{lcoeff} ( G ) = \beta \mbox{lcoeff} ( D )_{| X_n = \alpha}. Comme lcoeff(D)\mbox{lcoeff} ( D ) divise Δ(X n)\Delta ( X_n ), il en est de même en X n=αX_n = \alpha donc lcoeff(G)(G) divise βΔ(α)\beta \Delta(\alpha). On en déduit que Δ(α)G \Delta ( \alpha) G qui est divisible par Δ(α)β \Delta (\alpha) \beta est divisible par lcoeff(G)\mbox{lcoeff} ( G ). On va donc considérer le polynôme Δ(α)G/lcoeff(G) \Delta (\alpha) G / \mbox{lcoeff} ( G ) : ses coefficients sont entiers et son coefficient dominant est Δ(α)=lcoeff(D(X 1,.,X n1,α))\Delta ( \alpha) = \mbox{lcoeff}(D'( X_1, \ldots ., X_{n - 1}, \alpha )) donc Δ(α)G/lcoeff(G)=D(X 1,.,X n1,α) \Delta (\alpha) G / \mbox{lcoeff} ( G )= D'( X_1, \ldots ., X_{n - 1}, \alpha )

Algorithme du pgcd modulaire à plusieurs variables (interpolation dense):

Arguments: 2 polynômes primitifs PP et QQ de nn variables X 1,.,X nX_1, \ldots ., X_n à coefficients entiers. Renvoie le pgcd de PP et QQ.

  1. Si n=1n = 1, renvoyer le pgcd de PP et QQ en une variable.
  2. Test rapide de pgcd trivial par rapport à X nX_n. On cherche des n1n - 1-uplets α\alpha tels que P(α,X n)P ( \alpha, X_n ) et Q(α,X n)Q ( \alpha, X_n ) soient de même degré que PP et QQ par rapport à la variable X nX_n. On calcule le pgcd GG de ces 2 polynômes en une variable. Si le pgcd est constant, alors on retourne le pgcd des coefficients de PP et QQ.
  3. On divise PP et QQ par leur contenu respectifs vu comme polynômes en X 1,.,X n1X_1, \ldots ., X_{n - 1} à coefficients dans [X n]\mathbb{Z} [ X_n ], on note C(X n)C ( X_n ) le pgcd des contenus. On calcule aussi le pgcd Δ(X n)\Delta ( X_n ) des coefficients dominants de PP et de QQ.
  4. On initialise DD' le pgcd reconstruit à 0, I(X n)I ( X_n ) le polynôme d’interpolation à 1, δ=(δ 1,...,δ n1)\delta=(\delta_1,...,\delta_{n-1}) la liste des degrés partiels du pgcd par rapport à X 1,.,X n1X_1, \ldots ., X_{n - 1} au minimum des degrés partiels de PP et QQ par rapport à X 1,.,X n1X_1, \ldots ., X_{n - 1}, ee le nombre d’évaluation à 0 et EE l’ensemble des points d’interpolation à la liste vide.
  5. Boucle infinie:
    • Faire α\alpha=entier aléatoire n’appartenant pas à EE jusqu’à ce que degre(P(X 1,.,X n1,α))=degre X n(P(X 1,.,X n) degre(Q(X 1,.,X n1,α))=degre X n(Q(X 1,.,X n)) \begin{matrix} \mbox{degre}(P ( X_1, \ldots ., X_{n - 1}, \alpha ))=\mbox{degre}_{X_n} ( P ( X_1, \ldots ., X_n ) & & \\ \mbox{degre} ( Q ( X_1, \ldots ., X_{n - 1}, \alpha )) = \mbox{degre}_{X_n} ( Q ( X_1, \ldots ., X_n )) & & \end{matrix}
    • Calculer le pgcd G(X 1,.,X n1)G ( X_1, \ldots ., X_{n - 1} ) en n1n - 1 variables de P(X 1,.,X n1,α)P ( X_1, \ldots ., X_{n - 1}, \alpha ) et Q(X 1,.,X n1,α)Q ( X_1, \ldots ., X_{n - 1}, \alpha ).
    • Si degre (G) i<δ i\mbox{degre}_{} ( G )_i &lt; \delta_i pour un indice au moins. Si degre(G)δ\mbox{degre} ( G ) \leq \delta, on pose δ=degre(G)\delta = \mbox{degre} ( G ), D=GΔ(α)lcoeff(G)D' = G \frac{\Delta ( \alpha )}{\mbox{lcoeff} ( G )}, I=X nαI = X_n - \alpha, e=1e = 1 et E=[α]E = [ \alpha ], sinon on pose δ=min(δ,degre(G)),D=0,I=1,e=0,E=[]\delta = \min ( \delta, \mbox{degre} ( G )), D' = 0, I = 1, e = 0, E = [ ]. On passe à l’itération suivante.
    • Si degre(G)>δ\mbox{degre} ( G ) &gt; \delta, on passe à l’itération suivante.
    • Si degre(G)=δ\mbox{degre} ( G ) = \delta, on interpole:
      • G:=GΔ(α)lcoeff(G)G := G \frac{\Delta ( \alpha )}{\mbox{lcoeff} ( G )}
      • D:=D+I(X n) α jE(αα j)(GD(X 1,.,X n1,α))D' := D' + \frac{I ( X_n )}{\prod_{\alpha_j \in E} ( \alpha - \alpha_j )} ( G - D' ( X_1, \ldots ., X_{n - 1}, \alpha ))
      • I:=I*(X nα)I := I \ast ( X_n - \alpha )
      • e:=e+1e := e + 1 et ajouter α\alpha à EE
      • Si ee est strictement plus grand que le minimum des degrés partiels de PP et QQ par rapport à X nX_n, on pose D˜\tilde{D} la partie primitive de DD' (vu comme polynôme à coefficients dans [X n]\mathbb{Z} [ X_n ]), on teste si PP et QQ sont divisibles par D˜\tilde{D}, si c’est le cas, on renvoie D=C(X n)D˜D = C ( X_n ) \tilde{D}

On observe que dans cet algorithme, on fait le test de divisibilite de D˜\tilde{D} par PP et QQ. En effet, même après avoir évalué en suffisamment de points, rien n’indique que tous ces points sont des points de bonne évaluation. En pratique cela reste extrêmement improbable. En pratique, on teste la divisibilité plus tôt, dès que DD' n’est pas modifié par l’ajout d’un nouveau point à la liste des α j\alpha_j.

Il existe une variation de cet algorithme, appelé SPMOD (sparse modular), qui suppose que seuls les coefficients non nuls du pgcd en n1n - 1 variables sont encore non nuls en nn variables (ce qui a de fortes chances d’être le cas). L’étape d’interpolation est alors remplacée par la résolution d’un sous-système d’un système de Vandermonde. Cette variation est intéressante si le nombre de coefficients non nuls en n1n - 1 variables est petit devant le degré. Si elle échoue, on revient à l’interpolation dense.

Notons enfin qu’on peut appliquer cette méthode lorsque les coefficients de PP et QQ sont dans /n\mathbb{Z} / n \mathbb{Z} mais il faut alors vérifier qu’on dispose de suffisamment de points d’interpolation. Ce qui en combinant avec l’algorithme modulaire à une variable donne un algorithme doublement modulaire pour calculer le pgcd de 2 polynômes à coefficients entiers. C’est cette méthode qu’utilise par exemple MuPAD (en essayant d’abord SPMOD puis l’interpolation dense).

Exemple:

Dans cet exemple, on donne FF et GG sous forme factorisée, le but étant de faire comprendre l’algorithme. En utilisation normale, on n’exécuterait cet algorithme que si FF et GG étaient développés.

P=((x+1)y+x 2+1)(y 2+xy+1),Q=((x+1)y+x 2+1)(y 2xy1)P = (( x + 1 ) y + x^2 + 1 ) ( y^2 + x y + 1 ), Q = (( x + 1 ) y + x^2 + 1 ) ( y^2 - x y - 1 ).

Prenons xx comme variable X 1X_1 et yy comme variable X 2X_2. Les coefficients dominants de PP et QQ sont respectivement yy et y- y donc Δ=y\Delta = y.

En y=0y = 0, P(x,0)=x 2+1P ( x, 0 ) = x^2 + 1 n’est pas du bon degré.

En y=1y = 1, P(x,1)=(x+x 2+2)(x+2)P ( x, 1 ) = ( x + x^2 + 2 ) ( x + 2 ) et Q(x,1)=(x+x 2+2)(x)Q ( x, 1 ) = ( x + x^2 + 2 ) ( - x ) sont du bon degré. Leur pgcd est G=x 2+x+2G = x^2 + x + 2, Δ(1)=1\Delta ( 1 ) = 1, donc D=x 2+x+1D' = x^2 + x + 1. On teste la divisibilité de PP par DD', le teste échoue.

En y=2y = 2, P(x,2)=(x 2+2x+3)(2x+5)P ( x, 2 ) = ( x^2 + 2 x + 3 ) ( 2 x + 5 ) et Q(x,2)=(x 2+2x+3)(2x+3)Q ( x, 2 ) = ( x^2 + 2 x + 3 ) ( - 2 x + 3 ) donc G=x 2+2x+3G = x^2 + 2 x + 3, Δ(2)=2\Delta ( 2 ) = 2. On interpole: D=x 2+x+2+y121(2(x 2+2x+3)(x 2+x+2))=y(x 2+3x+4)(2x+2) D' = x^2 + x + 2 + \frac{y - 1}{2 - 1} ( 2 ( x^2 + 2 x + 3 ) - ( x^2 + x + 2 )) = y ( x^2 + 3 x + 4 ) - ( 2 x + 2 ) On teste la divisibilité de PP par DD', le test échoue.

En y=3y = 3, P(x,3)=(x 2+3x+4)(3x+10)P ( x, 3 ) = ( x^2 + 3 x + 4 ) ( 3 x + 10 ) et Q(x,3)=(x 2+3x+4)(3x+8)Q ( x, 3 ) = ( x^2 + 3 x + 4 ) ( - 3 x + 8 ) donc G=x 2+3x+4G = x^2 + 3 x + 4, Δ(3)=3\Delta ( 3 ) = 3. On interpole: D = y(x 2+3x+4)(2x+2)+ (y2)(y1)(32)(31)(3(x 2+3x+4)(3(x 2+3x+4)(2x+2))) \begin{matrix} D' &= &y ( x^2 + 3 x + 4 ) - ( 2 x + 2 ) + \\ & & \frac{( y - 2 ) ( y - 1 )}{( 3 - 2 ) ( 3 - 1 )} \left( 3 ( x^2 + 3 x + 4 ) - ( 3 ( x^2 + 3 x + 4 ) - ( 2 x + 2 )) \right) \end{matrix} donc D=y(x 2+3x+4)(2x+2)+(y2)(y1)2(2x2)=x 2y+xy 2+y 2+y D' = y ( x^2 + 3 x + 4 ) - ( 2 x + 2 ) + \frac{( y - 2 ) ( y - 1 )}{2} ( - 2 x - 2 ) = x^2 y + x y^2 + y^2 + y On divise DD' par son contenu et on trouve x 2+xy+y+1x^2 + x y + y + 1 qui est bien le pgcd de PP et QQ.

5.3.3  EZGCD.

Il s’agit d’une méthode pp-adique. On évalue toutes les variables sauf une, on calcule le pgcd en une variable et on remonte au pgcd variable par variable (EEZGCD) ou toutes les variables simultanément (EZGCD) par un lemme de Hensel. Il semble qu’il est plus efficace de remonter les variables séparément.

Soit donc FF et GG deux polynômes primitifs dépendant des variables X 1,,X nX_1, \ldots, X_n de pgcd DD, on fixe une des variables qu’on appelera X 1X_1 dans la suite. Soient lcoeff(F)\mbox{lcoeff} ( F ) et lcoeff(G)\mbox{lcoeff} ( G ) les coefficients dominants de FF et GG par rapport à X 1X_1. On évalue FF et GG en un n1n - 1 uplet bb tel que le degré de FF et GG par rapport à X 1X_1 soit conservé après evaluation en bb. On suppose que D b(X 1)=pgcd(F(b),G(b))D_b ( X_1 ) = \mbox{pgcd} ( F ( b ), G ( b )) a le même degré que D(b)D ( b ). On a donc l’égalité: (F*lcoeff(F))(b)=(D blcoeff(F(b))lcoeff(D b))*(F(b)D blcoeff(F)(b)lcoeff(F(b)D b)) ( F \ast \mbox{lcoeff} ( F )) ( b ) = \left( D_b \frac{\mbox{lcoeff} ( F ( b ))}{\mbox{lcoeff} ( D_b )} \right) \ast \left( \frac{F ( b )}{D_b} \frac{\mbox{lcoeff} ( F ) ( b )}{\mbox{lcoeff} ( \frac{F ( b )}{D_b} )} \right) et de même en remplaçant FF par GG.

Pour pouvoir lifter cette égalité (c’est-à-dire généraliser à plusieurs variables), il faut que D bD_b et F(b)D b\frac{F ( b )}{D_b} soient premiers entre eux. Sinon, on peut essayer de lifter l’égalité analogue avec GG. En général, on montre qu’il existe un entier jj tel que D bD_b et F(b)+jG(b)D b\frac{F ( b ) + j G ( b )}{D_b} soient premiers entre eux. En effet, sinon au moins un des facteurs irréductibles de D bD_b va diviser F(b)+jG(b)D b\frac{F ( b ) + j G ( b )}{D_b} pour deux valeurs distinctes de jj et va donc diviser à la fois F(b)D b\frac{F ( b )}{D_b} et G(b)D b\frac{G ( b )}{D_b} en contradiction avec la définition de D b=pgcd(F(b),G(b))D_b = \mbox{pgcd} ( F ( b ), G ( b )). On lifte alors l’égalité obtenue en remplaçant FF par (F+kG)( F + k G ) ci-dessus. Dans la suite, on suppose qu’on peut prendre j=0j = 0 pour alléger les notations.

On va aussi supposer que b=0b = 0. Sinon, on fait un changement d’origine sur les polynômes FF et GG pour que b=0b = 0 convienne, on calcule le pgcd et on lui applique la translation d’origine opposée.

On adopte ensuite la notation suivante: si kk est un entier, on dit qu’un polynôme PP est un O(k)O ( k ) si la valuation de PP vu comme polynôme en X 2,.,X nX_2, \ldots ., X_n à coefficients dans [X 1]\mathbb{Z} [ X_1 ] est supérieure ou égale à k k^{}, ou de manière équivalente si P(X 1,hX 2,.,hX n)=O h0(h k) P ( X_1, h X_2, \ldots ., h X_n ) = O_{h \rightarrow 0} ( h^k ) L’égalité à lifter se réécrit donc: Flcoeff(F)=P 0Q 0+O(1) F \mbox{lcoeff} ( F ) = P_0 Q_0 + O ( 1 ) P 0=P_0 =D blcoeff(F(b))lcoeff(D b)D_b \frac{\mbox{lcoeff} ( F ( b ))}{\mbox{lcoeff} ( D_b )} et Q 0=F(b)D blcoeff(F)(b)lcoeff(F(b)D b)Q_0 = \frac{F ( b )}{D_b} \frac{\mbox{lcoeff} ( F ) ( b )}{\mbox{lcoeff} ( \frac{F ( b )}{D_b} )} sont premiers entre eux et de degré 0 par rapport aux variables X 2,.,X nX_2, \ldots ., X_n. Cherchons P 1=O(1)P_1 = O ( 1 ) et Q 1=O(1)Q_1 = O ( 1 ) de degré 1 par rapport aux variables X 2,.,X nX_2, \ldots ., X_n tels que Flcoeff(F)=(P 0+P 1)(Q 0+Q 1)+O(2) F \mbox{lcoeff} ( F ) = ( P_0 + P_1 ) ( Q_0 + Q_1 ) + O ( 2 ) Il faut donc résoudre Flcoeff(F)P 0Q 0=P 0Q 1+Q 0P 1+O(2) F \mbox{lcoeff} ( F ) - P_0 Q_0 = P_0 Q_1 + Q_0 P_1 + O ( 2 ) On peut alors appliquer l’identité de Bézout qui permet de déterminer des polynômes P 1P_1 et Q 1Q_1 satisfaisant l’égalité ci-dessus (avec comme reste O(2)O ( 2 ) nul) puisque P 0P_0 et Q 0Q_0 sont premiers entre eux. De plus, on choisit P 1P_1 et Q 1Q_1 tels que degre X 1P 1degre X 1(F)degre (Q 0)=degre(P 0)\mbox{degre}_{X_1} P_1 \leq \mbox{degre}_{X_1} ( F ) - \mbox{degre}_{} ( Q_0 ) = \mbox{degre} ( P_0 ) et degre X 1(Q 1)degre(Q 0)\mbox{degre}_{X_1} ( Q_1 ) \leq \mbox{degre} ( Q_0 ) et lcoeff X 1(P 0+P 1)+O(2)=lcoeff X 1(Q 0+Q 1)+O(2)=lcoeff X 1(F)\mbox{lcoeff}_{X_1} ( P_0 + P_1 ) + O ( 2 ) = \mbox{lcoeff}_{X_1} ( Q_0 + Q_1 ) + O ( 2 ) = \mbox{lcoeff}_{X_1} ( F ). On tronque ensuite P 1P_1 et Q 1Q_1 en ne conservant que les termes de degré 1 par rapport à X 2,.,X nX_2, \ldots ., X_n.

On trouve de la même manière par récurrence P kP_k et Q kQ_k homogènes de degré kk par rapport à X 2,.,X kX_2, \ldots ., X_k, de degré par rapport à X 1X_1 respectivement inférieur aux degrés de Q 0Q_0 et de P 0P_0 et tels que Flcoeff(F)=(P 0+.+P k)(Q 0+.+Q k)+O(k+1)(9) F \mbox{lcoeff} ( F ) = ( P_0 + \ldots . + P_k ) ( Q_0 + \ldots . + Q_k ) + O ( k + 1 ) \qquad (9) et lcoeff(F)=lcoeff X 1(P 0+.+P k)+O(k+1)=lcoeff X 1(Q 0+.+Q k)+O(k+1)\mbox{lcoeff} ( F ) = \mbox{lcoeff}_{X_1} ( P_0 + \ldots . + P_k ) + O ( k + 1 ) = \mbox{lcoeff}_{X_1} ( Q_0 + \ldots . + Q_k ) + O ( k + 1 ).

Si on est bien en un point de bonne évaluation et si kk est plus grand que le degré total (par rapport aux variables X 2,.,X nX_2, \ldots ., X_n) du polynôme Flcoeff(F)F \mbox{lcoeff} ( F ) on va vérifier que P 0+.+P k=Dlcoeff(F)lcoeff(D)P_0 + \ldots . + P_k = D \frac{\mbox{lcoeff} ( F )}{\mbox{lcoeff} ( D )}. En effet, si on a deux suites de polynômes PP et PP' et QQ et QQ' satisfaisant (9) avec les même termes de degré zéro P 0P_0 et Q 0Q_0, alors en prenant la différence, on obtient: (P 0+P 1+P k)(Q 0+Q 1+Q k)=(P 0+P 1+P k)(Q 0+Q 1+Q k)+O(k+1) ( P_0 + P_1 \ldots + P_k ) ( Q_0 + Q_1 \ldots + Q_k ) = ( P_0 + P_1' \ldots + P_k' ) ( Q_0 + Q_1' \ldots + Q_k' ) + O ( k + 1 ) On égale alors les termes homogènes de degré jj, pour j=1j = 1, on obtient P 0(Q 1Q 1)=Q 0(P 1P 1)P_0 ( Q_1 - Q_1' ) = Q_0 ( P_1 - P_1' ), donc Q 0Q_0 divise Q 1Q 1Q_1 - Q_1' qui est de degré strictement inférieur au degré de Q 0Q_0 par rapport à X 1X_1 (car on a l’inégalité large et les termes de plus haut degré sont égaux), donc Q 1=Q 1Q_1 = Q_1' et P 1=P 1P_1 = P_1'. On montre de la même manière que Q j=Q jQ_j = Q_j' et P j=P jP_j = P_j'. L’écriture est donc unique, c’est donc l’écriture en polynôme homogène de degré croissant de Dlcoeff(F)lcoeff(D)D \frac{\mbox{lcoeff} ( F )}{\mbox{lcoeff} ( D )} que l’on reconstruit.

Cet algorithme permet donc de reconstruire DD, il suffit de tester à chaque étape si P 0+.+P kP_0 + \ldots . + P_k divise Flcoeff(F)F \mbox{lcoeff} ( F ). On appelle cette méthode de remontée lemme de Hensel linéaire. Il existe une variante dite lemme de Hensel quadratique qui consiste à passer de O(k)O ( k ) à O(2k)O ( 2 k ). Elle nécessite toutefois un calcul supplémentaire, celui de l’identité de Bézout à O(2k)O ( 2 k ) près pour les polynômes P 0+.+P k1P_0 + \ldots . + P_{k - 1} et Q 0+.+Q k1Q_0 + \ldots . + Q_{k - 1}. Ce calcul se fait également par lifting.

Algorithme EZGCD (Hensel linéaire)

Arguments: 2 polynômes FF et GG à coefficients entiers et primitifs. Renvoie le pgcd de FF et GG ou false.

  1. Evaluer FF et GG en (X 2,.,X n)=(0,.,0)( X_2, \ldots ., X_n ) = ( 0, \ldots ., 0 ), vérifier que les coefficients dominants de FF et de GG ne s’annulent pas. Calculer le pgcd D bD_b de F(0)F ( 0 ) et de G(0)G ( 0 ). Prendre un autre point d’évaluation au hasard qui n’annule pas les coefficients dominants de FF et de GG et vérifier que le pgcd a le même degré que D bD_b. Sinon, renvoyer false (on peut aussi faire une translation d’origine de FF et de GG en un autre point mais cela diminue l’efficacité de l’algorithme).
  2. On note lcF\mbox{lcF} et lcG\mbox{lcG} les coefficients dominants de FF et de GG par rapport à X 1X_1.
  3. Si degre(F)degre(G)\mbox{degre} ( F ) \leq \mbox{degre} ( G ) et degre(D b)=degre(G)\mbox{degre} ( D_b ) = \mbox{degre} ( G ) et FF divise GG renvoyer FF
  4. Si degre(G)<degre(F)\mbox{degre} ( G ) &lt; \mbox{degre} ( F ) et degre(D b)=degre(F)\mbox{degre} ( D_b ) = \mbox{degre} ( F ) et GG divise FF renvoyer GG
  5. Si degre(F)=degre(D b)\mbox{degre} ( F ) = \mbox{degre} ( D_b ) ou si degre(G)=degre(D b)\mbox{degre} ( G ) = \mbox{degre} ( D_b ) renvoyer false
  6. Boucle infinie sur jj entier initialisé à 0, incrémenté de 1 à chaque itération: si pgcd(D b,F(0)+jG(0)D b)=C\mbox{pgcd} ( D_b, \frac{F ( 0 ) + j G ( 0 )}{D_b} ) = C constant, alors arrêter la boucle
  7. Lifter l’égalité (F+jG)(lcF+jlcG)(0)=(D b(lcF+jlcG)(0)lcoeff(D b))*.( F + j G ) ( \mbox{lcF} + j \mbox{lcG} ) ( 0 ) = \left( D_b \frac{( \mbox{lcF} + j \mbox{lcG} ) ( 0 )}{\mbox{lcoeff} ( D_{b )}} \right) \ast \ldots . par remontée de Hensel linéaire ou quadratique. Si le résultat est false, renvoyer false. Sinon renvoyer le premier polynôme du résultat divisé par son contenu vu comme polynôme en X 1X_1 à coefficients dans [X 2,.,X n]\mathbb{Z} [ X_2, \ldots ., X_n ].

Remontée de Hensel linéaire:

Arguments: FF un polynôme, lcF\mbox{lcF}=lcoeff(F)(F) son coefficient dominant, P 0P_0 un facteur de F(0)F ( 0 ) ayant comme coefficient dominant lcF(0)\mbox{lcF} ( 0 ) et dont le cofacteur Q 0Q_0 est premier avec P 0P_0.

Renvoie deux polynômes PP et QQ tels que FlcF=PQF \mbox{lcF} = P Q et P(0)=P 0P ( 0 ) = P_0 et lcoeff(P)=lcoeff(Q)=lcF\mbox{lcoeff} ( P ) = \mbox{lcoeff} ( Q ) = \mbox{lcF}.

  1. Soit G=FlcFG = F \mbox{lcF}, , Q 0=G(0)/P 0Q_0 = G ( 0 ) / P_0, P=P 0P = P_0, Q=Q 0Q = Q_0.
  2. Déterminer les deux polynômes UU et VV de l’identité de Bézout (tels que P 0U+Q 0V=dP_0 U + Q_0 V = ddd est un entier).
  3. Boucle infinie avec un compteur kk initialisé à 1, incrémenté de 1 à chaque itération
    • Si k>degre X 2,.,X n(G)k &gt; \mbox{degre}_{X_2, \ldots ., X_n} ( G ), renvoyer false.
    • Si PP divise GG, renvoyer PP et G/PG / P.
    • Soit H=GPQ=O(k)H = G - P Q = O ( k ). Soit u=UHdu = U \frac{H}{d} et v=VHdv = V \frac{H}{d}, on a P 0u+Q 0v=HP_0 u + Q_0 v = H
    • Remplacer vv par le reste de la division euclidienne de vv par P 0P_0 et uu par le reste de la division euclidienne de uu par Q 0Q_0. La somme des deux quotients est égale au quotient euclidien de HH par P 0Q 0P_0 Q_0, c’est-à-dire au coefficient dominant de HH divisé par le produit des coefficients dominants de P 0P_0 et Q 0Q_0 (qui sont égaux) donc on a l’égalité: P 0u+Q 0v=Hlcoeff(H)lcoeff(P 0) 2P 0Q 0 P_0 u + Q_0 v = H - \frac{\mbox{lcoeff} ( H )}{\mbox{lcoeff} ( P_0 )^2} P_0 Q_0
    • Soit α=(lcoeff(F)lcoeff(P))/lcoeff(P 0)\alpha = ( \mbox{lcoeff} ( F ) - \mbox{lcoeff} ( P )) / \mbox{lcoeff} ( P_0 ) et β=(lcoeff(F)lcoeff(Q))/lcoeff(P 0)\beta = ( \mbox{lcoeff} ( F ) - \mbox{lcoeff} ( Q )) / \mbox{lcoeff} ( P_0 ). On ajoute αP 0\alpha P_0 à vv, ainsi lcoeff(P +v)=lcoeff(F)+O(k+1)\mbox{lcoeff} ( P_{} + v ) = \mbox{lcoeff} ( F ) + O ( k + 1 ) et βQ 0\beta Q_0 à uu, ainsi lcoeff(Q +u)=lcoeff(F)+O(k+1)\mbox{lcoeff} ( Q_{} + u ) = \mbox{lcoeff} ( F ) + O ( k + 1 )

      Remarque: on montre alors que α+β=lcoeff(H)lcoeff(P 0Q 0)+O(k+1)\alpha + \beta = \frac{\mbox{lcoeff} ( H )}{\mbox{lcoeff} ( P_0 Q_0 )} + O ( k + 1 ) donc P 0u+Q 0v=H+O(k+1)P_0 u + Q_0 v = H + O ( k + 1 ) en utilisant les propriétés : lcoeff(F)=lcoeff(P)+O(k)=lcoeff(Q)+O(k)=lcoeff(P 0)+O(1) \mbox{lcoeff} ( F ) = \mbox{lcoeff} ( P ) + O ( k ) = \mbox{lcoeff} ( Q ) + O ( k ) = \mbox{lcoeff} ( P_0 ) + O ( 1 )

    • Réduire uu et vv en éliminant les termes de degré strictement supérieur à kk par rapport à X 2,.,X nX_2, \ldots ., X_n. S’il reste un coefficient non entier, renvoyer false
    • Remplacer PP par P+vP + v et QQ par Q+uQ + u, passer à l’itération suivante.

Exemple:

F=((x+1)y+x 2+1)(y 2+xy+1),G=((x+1)y+x 2+1)(y 2xy1)F = (( x + 1 ) y + x^2 + 1 ) ( y^2 + x y + 1 ), G = (( x + 1 ) y + x^2 + 1 ) ( y^2 - x y - 1 )

On a F(0,y)=(y+1)(y 2+1)F ( 0, y ) = ( y + 1 ) ( y^2 + 1 ) et G(0,y)=(y+1)(y 21)G ( 0, y ) = ( y + 1 ) ( y^2 - 1 ), le pgcd est donc D b=(y+1)D_b = ( y + 1 ). On remarque que D bD_b est premier avec le cofacteur de FF mais pas avec le cofacteur de GG. Si on évalue en un autre point, par exemple x=1x = 1, on trouve un pgcd D 1D_1 de même degré, donc 0 est vraissemblablement un bon point d’évaluation (ici on en est sûr puisque le pgcd de FF et GG se calcule à vue...). On a lcoeff(F)=x+1\mbox{lcoeff} ( F ) = x + 1, on va donc lifter G=((x+1)y+x 2+1)(y 2+xy+1)(x+1)=PQG = (( x + 1 ) y + x^2 + 1 ) ( y^2 + x y + 1 ) ( x + 1 ) = P QP 0=(y+1)P_0 = ( y + 1 ) et Q 0=(y 2+1)Q_0 = ( y^2 + 1 ).

On calcule les polynômes de l’identité de Bézout U=(1y)U = ( 1 - y ) et V=1V = 1 avec d=2d = 2, puis à l’ordre k=1k = 1: H=GP 0Q 0=(2y 3+2y 2+3y+1)x+O(2) H = G - P_0 Q_0 = ( 2 y^3 + 2 y^2 + 3 y + 1 ) x + O ( 2 ) donc u=reste(UH/d,Q 0)=xyu = \mbox{reste} ( U H / d, Q_0 ) = x y et v=reste(VH/d,P 0)=xv = \mbox{reste} ( V H / d, P_0 ) = - x.

Donc Q 1=xy+αQ 0Q_1 = x y + \alpha Q_0 avec α=(x+11)/lcoeff(P 0)=x\alpha = ( x + 1 - 1 ) / \mbox{lcoeff} ( P_0 ) = x et Q 0+Q 1=(y 2+1)(x+1)+xyQ_0 + Q_1 = ( y^2 + 1 ) ( x + 1 ) + x y. De même, P 1=x+βP 0P_1 = - x + \beta P_0, avec β=(x+11)/lcoeff(P 0)=x\beta = ( x + 1 - 1 ) / \mbox{lcoeff} ( P_0 ) = x donc P 0+P 1=(y+1)(x+1)xP_0 + P_1 = ( y + 1 ) ( x + 1 ) - x. On remarque que P 0+P 1P_0 + P_1 et Q 0+Q 1Q_0 + Q_1 sont bien à O(2)O ( 2 ) près les facteurs de Flcoeff(F)F \mbox{lcoeff} ( F ): P=(x+1)y+x 2+1=P 0+P 1+O(2),Q=(x+1)(y 2+xy+1)=Q 0+Q 1+O(2) P = ( x + 1 ) y + x^2 + 1 = P_0 + P_1 + O ( 2 ), \ Q = ( x + 1 ) ( y^2 + x y + 1 ) = Q_0 + Q_1 + O ( 2 ) Une deuxième itération est nécessaire. On calcule H=G(P 0+P 1)(Q 0+Q 1)=(2y 2+y+1)x 2+O(3) H = G - ( P_0 + P_1 ) ( Q_0 + Q_1 ) = ( 2 y^2 + y + 1 ) x^2 + O ( 3 ) puis reste(UH/d,Q 0)=yx 2\mbox{reste} ( U H / d, Q_0 ) = y x^2 et reste(VH/d,P 0)=x 2\mbox{reste} ( V H / d, P_0 ) = x^2. Ici les coefficients α\alpha et β\beta sont nuls car lcoeff(F)\mbox{lcoeff} ( F ) n’a pas de partie homogène de degré 2. On trouve alors P=P 0+P 1+P 2P = P_0 + P_1 + P_2 et Q=Q 0+Q 1+Q 2Q = Q_0 + Q_1 + Q_2. Pour calculer le pgcd, il suffit de calculer la partie primitive de PP vu comme polynôme en yy, ici c’est encore PP car le contenu de PP est 1 (remarque: pour QQ le contenu est x+1x + 1).
On trouve donc PP comme pgcd.

5.4  Quel algorithme choisir?

Il est toujours judicieux de faire une évaluation en quelques n1n - 1 uplets pour traquer les pgcd triviaux. (E)EZGCD sera efficace si (0,...,0) est un point de bonne évaluation et si le nombre de remontées nécessaires pour le lemme de Hensel est petit donc pour les pgcd de petit degré, GCDMOD est aussi efficace si le degré du pgcd est petit. Le sous-résultant est efficace pour les pgcd de grand degré car il y a alors peu de divisions euclidiennes à effectuer et les coefficients n’ont pas trop le temps de croitre. SPMOD est intéressant pour les polynômes creux de pgcd non trivial creux. GCDHEU est intéressant pour les problèmes relativement petits.

Avec des machines multiprocesseurs, on a probablement intérêt à lancer en parallèle plusieurs algorithmes et à s’arrêter dès que l’un deux recontre le succès.

5.5  Pour en savoir plus.

Parmi les références citées dans le premier article, ce sont les livres de Knuth, H. Cohen, et Davenport-Siret-Tournier qui traitent des algorithmes de pgcd. On peut bien sûr consulter le source de son système de calcul formel lorsqu’il est disponible :

Sur le web on trouve quelques articles en lignes sur le sujet en cherchant les mots clefs GCDHEU, EZGCD, SPMOD sur un moteur de recherche, il y a par exemple une description un peu différente du pgcd heuristique sur:
www.inf.ethz.ch/personal/gonnet/CAII/HeuristicAlgorithms/node1.html
et un article de comparaison de ces algorithmes par Fateman et Liao (dont la référence bibliographique est Evaluation of the heuristic polynomial GCD. in: ISSAC pages 240–247, 1995). Quelques autres références :

Chapitre 6  Le résultant

6.1  Définition

Il s’agit d’un point de vue d’algèbre linéaire sur le PGCD. Considérons deux polynômes AA et BB à coefficients dans un corps, de degrés pp et qq et de pgcd DD et l’identité de Bézout correspondante : AU+BV=D(10) A U + B V =D \qquad (10) avec degré(U)<q(U)&lt;q et degré(V)<p(V)&lt;p. Imaginons qu’on cherche UU et VV en oubliant qu’il s’agit d’une identité de Bézout, en considérant simplement qu’il s’agit d’un problème d’algèbre linéaire de p+qp+q équations (obtenues en développant et en identifiant chaque puissance de XX de 0 à p+q1p+q-1) à p+qp+q inconnues (les pp coefficients de VV et les qq coefficients de UU) On sait que AA et BB sont premiers entre eux si et seulement si ce problème d’algèbre linéaire a une solution pour D=1D=1. Donc si le déterminant du système est non nul, alors AA et BB sont premiers entre eux. Réciproquement si AA et BB sont premiers entre eux, le système a une solution unique non seulement avec comme second membre 11 mais avec n’importe quel polynôme de degré inférieur p+qp+q, donc le déterminant du système est non nul.

Définition:
On appelle résultant de AA et BB le déterminant de ce système (10). Il s’annule si et seulement si AA et BB ne sont pas premiers entre eux (ont au moins une racine commune). On appelle matrice de Sylvester la transposée de la matrice du système (les inconnues étant par ordre décroissant les coefficients de UU et VV) M(A,B)=(A a A a1 A 0 0 0 0 A a A 1 A 0 0 0 0 A 0 B b B b1 B 0 0 0 0 0 0 B 0) M(A,B)=\left( \begin{array}{cccccccc} A_a & A_{a-1} & \ldots & \ldots & A_0 & 0 & \ldots & 0 \\ 0 & A_a & \ldots & \ldots & A_1 & A_0 & \ldots & 0 \\ \vdots & & & & & & & \vdots \\ 0 & 0 & \ldots & & & & & A_0 \\ B_b & B_{b-1} & \ldots & B_0 & 0 & 0 & \ldots & 0 \\ \vdots & & & & & & & \vdots \\ 0 & 0 & \ldots & & & & & B_0 \end{array} \right) (cette matrice contient b=b=degré(B)(B) lignes de coefficients du polynôme AA et a=a=degré(A)(A) lignes de coefficients du polynôme BB, les coefficients diagonaux sont les A aA_a et B 0B_0)

Remarques
Le résultant s’exprime polynomialement en fonction des coefficients des polynômes AA et BB donc aussi en fonction des coefficients dominants de AA et BB et des racines α 1,...,α a\alpha_1,..., \alpha_a de AA et β 1,...,β b\beta_1,...,\beta_b BB, or si on fait varier les racines de BB on annulera le résultant si l’une d’elle coincide avec une racine de AA, ceci montre que le résultant est divisible par le produit des différences des racines β jα i\beta_j-\alpha_i de AA et BB. On montre que le quotient est A a bB b aA_a^b B_b^a en regardant le coefficient dominant du résultant en degré total par rapport aux β j\beta_j : dans le déterminant il faut prendre le produit des termes diagonaux pour avoir le degré maximal en les β j\beta_j. On peut aussi l’écrire sous la forme resultant(A,B)=A a b i=1 aB(α i)\mbox{resultant}(A,B)=A_a^b \prod_{i=1}^a B(\alpha_i)

Soit PP un polynôme de degré nn et coefficient dominant p np_n. Le coefficient dominant de PP' est np nnp_n, un multiple de p np_n, le résultant de PP et PP' est donc divisible par p np_n, on appelle le quotient discriminant. En terme des racines r ir_i de PP, on a disc(P)=resultant(P,P)p n=p n n2 i=1 nP(r i)=p n 2n2 1i<jn(r ir j) 2\mbox{disc}(P)=\frac{\mbox{resultant}(P,P')}{p_n} =p_n^{n-2} \prod_{i=1}^n P'(r_i) = p_n^{2n-2} \prod_{1\leq i&lt;j\leq n} (r_i-r_j)^2 Ce résultat a un intérêt pour par exemple minorer à priori l’écart entre 2 racines d’un polynôme à coefficients entiers.

6.2  Applications

Revenons au cas où nos polynômes sont à coefficients dans un anneau contenu dans un corps, par exemple \mathbb{Z} \in \mathbb{Q} ou un anneau de polynômes [X 2,...,X n]\mathbb{Z}[X_2,...,X_n] dans son corps de fractions. On remarque alors que l’équation : AU+BV=CAU+BV=C a une solution dans l’anneau si CC est le résultant rr de AA et BB (ou un multiple). En effet, on écrit les solutions comme celles d’un système de Cramer, le dénominateur de chaque inconnue est rr, le numérateur est un déterminant ayant les coefficients de CC dans une des colonnes, on peut donc y factoriser rr et simplifier. On peut le voir directement à partir de la définition du résultant en effectuant sur le déterminant une manipulation de colonnes sur la dernière colonne, on ajoute à cette dernière colonne xx fois l’avant-dernière, x 2x^2 fois l’avant-avant-dernière etc... La dernière colonne devient (x b1A ... A x a1B ... B)\left( \begin{array}{c} x^{b-1} A \\ ... \\ A \\ x^{a-1} B \\ ...\\ B \end{array} \right) et en développant le déterminant par rapport à cette dernière colonne, on obtient l’identité de Bézout.

Exemple : le résultant de x+1x+1 et x1x-1 est 2, donc l’équation (x+1)U+(x1)V=2(x+1)U+(x-1)V=2 a une solution U=1U=1 et V=1V=-1 dans [X]\mathbb{Z}[X], par contre (x+1)U+(x1)V=1(x+1)U+(x-1)V=1 n’a pas de solution dans [X]\mathbb{Z}[X].

6.2.1  Systèmes polynomiaux

Ceci peut servir à éliminer des inconnues lorsqu’on résoud un système d’équations polynomiales : P 1(X 1,...,X n)=0,...,P n(X 1,...,X n)=0P_1(X_1,...,X_n)=0, ..., P_n(X_1,...,X_n)=0 On pose P 1 1(X 1,...,X n1)=resultant(P 1,P n,X n),...,P n1 1(X 1,...,X n1)=resultant(P n1,P n,X n)P^1_1(X_1,...,X_{n-1})=\mbox{resultant}(P_1,P_n,X_n), ..., P^1_{n-1}(X_1,...,X_{n-1})=\mbox{resultant}(P_{n-1},P_n,X_n) Comme P 1 1,P n1 1,...P^1_1, P^1_{n-1}, ... sont des combinaisons linéaires des polynômes de départ à coefficients dans l’anneau, si (X 1,...,X n)(X_1,...,X_n) est solution du système de départ, alors X 1,...,X n1X_1,...,X_{n-1} est solution du deuxième système. On élimine ainsi les variables les unes après les autres, pour se ramener à une seule équation polynomiale P 1 n1(X 1)=0P^{n-1}_1(X_1)=0, dont on cherche les racines, puis si r 1r_1 est une racine de P 1 n1P^{n-1}_1, on remonte au système précédent P 1 n2(r 1,X 2)=0,P 2 n2(r 1,X 2)=0P^{n-2}_1(r_1,X_2)=0, P^{n-2}_2(r_1,X_2)=0, que l’on résoud en cherchant les racines de gcd(P 1 n2(r 1,X 2),P 2 n2(r 1,X 2))(P^{n-2}_1(r_1,X_2),P^{n-2}_2(r_1,X_2)), et ainsi de suite jusqu’au système de départ.

Lors des calculs de résultant, il peut arriver que le résultat soit nul si les arguments ne sont pas premiers entre eux, dans ce cas il faut diviser par le PGCD de ces 2 polynômes et traiter le cas du PGCD à part.

Malheureusement, les calculs de résultant deviennent vite impraticables (cf. infra), on ne peut guère traiter par cette méthode que des systèmes 3x3 (ou 4x4 si on est patient). Pour des systèmes plus ambitieux, on utilisera plutôt un calcul de bases de Groebner. Mais le résultant est très bien adapté par exemple à la recherche d’équations cartésiennes d’une courbe ou surface paramétrée par des fractions rationnelles.

6.2.2  Identité de Bézout dans [X]\mathbb{Z}[X].

Lorsque les polynômes AA et BB sont à coefficients entiers, on peut résoudre l’identité de Bézout en résolvant le système linéaire AU+BV=DAU+BV=DDD est calculé par un algorithme de calcul de PGCD. C’est un système linéaire de a+ba+b équations en a+ba+b inconnues, que l’on peut résoudre par une méthode pp-adique, permettant de calculer efficacement les coefficients rationnels de UU et VV.

On peut étendre à des polynômes premiers entre eux ayant des coefficients dans une extension algébrique de \mathbb{Q}, en calculant l’identité de Bézout pour A˜\tilde{A}=norme(A)(A) et B˜\tilde{B}=norme(B)(B) (norme au sens de norme algébrique, obtenue en multipliant par les conjugués du polynôme, calculé en pratique en prenant le résultant du polynôme avec le polynôme minimal de l’extension algébrique) et en observant que la norme est divisible par le polynôme A˜U˜+B˜V˜=1AA˜AU˜+BB˜BV˜=1\tilde{A} \tilde{U}+\tilde{B}\tilde{V}=1 \Rightarrow A \frac{\tilde{A}}{A} \tilde{U}+ B \frac{\tilde{B}}{B}\tilde{V}=1 On pose alors uu le reste de A˜AU˜ \frac{\tilde{A}}{A} \tilde{U} par BB et vv le reste deB˜BV˜ \frac{\tilde{B}}{B}\tilde{V} par AA. Si les polynômes ne sont pas premiers entre eux, on s’y ramène en divisant par leur pgcd.

6.3  Résultant et degrés

Si AA et BB sont des polynômes en dd variables de degré total mm et nn alors le résultant de AA et BB par rapport à une des variables, disons la première notée xx, est un polynôme en d1d-1 variables, on va voir qu’on peut majorer son degré total par mnmn.

Quitte à ajouter une variable d’homogénéisation (appelons-la tt), on peut supposer que AA et BB sont homogènes, par exemple si A=x 3+xy+1A=x^3+xy+1 on considère A t=x 3+xyt+t 3A_t=x^3+xyt+t^3. Le degré total par rapport aux d1d-1 variables d’un coefficient A jA_j de AA est alors mjm-j, et pour B kB_k c’est nkn-k. On développe le déterminant comme somme sur toutes les permutations de a+ba+b éléments, et on regarde le degré total d’un terme par rapport aux d1d-1 variables, on a donc un produit de r iσ(i)r_{i \sigma(i)} pour ii entre 1 et a+ba+b. Pour ii entre 11 et bb, on est dans les bb premières lignes, donc avec des coefficients de AA, le degré total de r iσ(i)r_{i \sigma(i)} se déduit de la distance à la diagonale, il vaut ma+iσ(i)m-a+i-\sigma(i) puisque sur la diagonale c’est mam-a. Pour ii entre b+1b+1 et b+ab+a on est dans les aa dernières lignes, donc avec des coefficients de BB, le degré total est n+σ(i)in+\sigma(i)-i. Le degré total du produit vaut donc b(ma)+an+ i=1 a+bσ(i)i=b(ma)+an=mn(ma)(nb)b(m-a)+an+\sum_{i=1}^{a+b} \sigma(i) -i = b(m-a)+an=mn-(m-a)(n-b) il est donc au plus mnmn avec égalité si m=am=a ou n=bn=b (c’est-à-dire si le degré total est identique au degré partiel en xx pour au moins un des deux polynômes).

Lorsqu’on enlève la variable d’homogénéisation (en posant t=1t=1), on peut également perdre un ou plusieurs degrés. Dans le cas de polynômes en 2 variables A(x,y),B(x,y)A(x,y), B(x,y), cela correspond à un point d’intersection à l’infini entre les 2 courbes A(x,y)=B(x,y)=0A(x,y)=B(x,y)=0, en coordonnées homogènes on a t=0t=0 qui est solution, et on remplace tt par 0 dans A t(x,y,t)=B t(x,y,t)=0A_t(x,y,t)=B_t(x,y,t)=0 pour trouver la direction.

Exemple (tiré d’un TP de Frédéric Han) intersection des 2 courbes x*y=4x*y=4 et y 2=(x3)*(x 216)y^2=(x-3)*(x^2-16). On a donc A=xy4A=xy-4, B=y 2(x3)(x 216)B=y^2-(x-3)(x^2-16), m=2,n=3m=2, n=3 on définit alors :
A:=x*y-4t^2; B:=y^2*t-(x-3t)*(x^2-16t^2);
On observe que resultant(A,B,x) est bien de degré 6 (car n=b=3n=b=3), alors que resultant(A,B,y) est de degré 5 (ma,nbm \neq a, n \neq b). On a donc 5 points d’intersection complexes et un point d’intersection à l’infini correspondant à la racine t=0t=0 du résultant en xx de coordonnées homogènes (x,y,t)=(0,1,0)(x,y,t)=(0,1,0). Illustration
solve(subst(resultant(A,B,y),t=1))
implicitplot(subst(A,t=1));implicitplot(subst(B,t=1))

Plus généralement, soit deux courbes algébriques d’équations respectives A(x,y)=0A(x,y)=0 et B(x,y)=0B(x,y)=0 de degré totaux mm et nn et premiers entre eux, alors AA et BB ont au plus mnmn points d’intersection (théorème de Bézout). En effet, le résultant en xx par exemple est non nul puisque les 2 polynômes sont premiers entre eux, donc est un polynôme en yy qui a un nombre fini de racines, puis on cherche les racines en xx de gcd(A(.,y),B(.,y))(A(.,y),B(.,y)) pour chaque valeur de yy racine, il y a donc un nombre fini d’intersections. On peut donc changer de repère et choisir un repère tel que deux points d’intersections distincts aient leurs abscisses distinctes. On refait le même raisonnement, et on utilise la majoration du degré du résultant par rapport à yy par mnmn, on a donc au plus mnmn valeurs de yy, donc au plus mnmn points d’intersections, puisqu’une valeur de yy ne correspond qu’à une valeur de xx par choix du repère. Lorsqu’on travaille dans 2\mathbb{C}^2, le défaut de nombre de points d’intersection par rapport au majorant mnmn provient des points à l’infini, à condition de prendre en compte la multiplicité des intersections. Dans 2\mathbb{R}^2, on perd aussi les points non réels. Exemple : intersection de (x2) 2+y 2=4(x-2)^2+y^2=4 et y 2=(x3)*(x 216)y^2=(x-3)*(x^2-16).

Le degré du résultant explique pourquoi on ne peut pas résoudre en pratique de grands systèmes polynomiaux avec cet outil d’élimination. Par exemple pour un système de 5 équations en 5 inconnues de degré 5, en éliminant une variable, on passe à 4 équation en 4 inconnues de degré 25, puis à 3 équations en 3 inconnues de degré 25 2=62525^2=625, puis 2 équations en 2 inconnues de degré 625 2=390625625^2=390625 et enfin un polynôme de degré ... 152587890625. Pour nn équations de degré nn, on a une majoration par n (2 n1)n^{(2^{n-1})}, ainsi pour n=4n=4 on trouve 65536 qui est déjà discutable...

6.4  Lien avec l’algorithme du sous-résultant (calcul de PGCD)

On peut calculer le déterminant avec la suite des restes de divisions euclidiennes de la manière suivante, on part de la pseudo-division de AA par BB : B b ab+1A=BQ+R B_b^{a-b+1} A=BQ+R on effectue alors sur chaque ligne contenant les coefficients de AA la manipulation de ligne correspondante, c’est-à-dire multiplier la ligne par B b ab+1B_b^{a-b+1} et soustraire (q 0q_0 fois la ligne de BB terminant dans la même colonne+q 1q_1 fois la ligne de BB terminant une colonne avant+...). Toutes les lignes contenant les coefficients de AA ont été remplacées par des lignes contenant les coefficients de RR. Ces lignes contiennent kk zéros initiaux avec k1k \geq 1, ce qui permet de réduire le déterminant à celui de la matrice de Sylvester de RR et BB (à un coefficient multiplicatif près qui vaut B b kB_b^k par rapport au précédent donc B b kb(ab+1)B_b^{k-b(a-b+1)} par rapport au déterminant de départ). On échange ensuite RR et BB ce qui change éventuellement le signe et on continue en faisant les divisions euclidiennes de l’algorithme du sous-résultant (cf. Knuth où on utilise la matrice de Sylvester pour prouver que l’algorithme du sous-résultant est correct). Rappelons que le sous-résultant définit les suites A kA_k (A 0=A,A 1=BA_0=A, A_1=B), d kd_k le degré de A kA_k, δ k=d kd k+1\delta_k=d_k-d_{k+1}, g kg_k (g 0=1g_0=1, si k0k\neq 0, g kg_k coefficient dominant de A kA_k) h kh_k (h 0=1h_0=1, h k+1=h k 1δ kg k+1 δ kh_{k+1}=h_k^{1-\delta_k} g_{k+1}^{\delta_k}) et g k δ k1+1A k1=A kQ k+1+g k1h k1 δ k1A k+1 g_k^{\delta_{k-1}+1} A_{k-1} = A_k Q_{k+1} + g_{k-1} h_{k-1}^{\delta_{k-1}} A_{k+1}

Théorème 10   Le résultant est égal au signe près au coefficient h kh_kkk correspond au reste A kA_k constant (en supposant que le résultant soit non nul).

Preuve
La transcription de l’égalité précédente sur les résultants donne par la méthode ci-dessus : g k (δ k1+1)d kRes(A k1,A k) = g k d k1d k+1Res(g k1h k1 δ k1A k+1,A k) = g k d k1d k+1(g k1h k1 δ k1) d kRes(A k+1,A k) \begin{matrix} g_k^{(\delta_{k-1}+1)d_k}\mbox{Res}(A_{k-1},A_k) &=& g_k^{d_{k-1}-d_{k+1}} \mbox{Res}(g_{k-1} h_{k-1}^{\delta_{k-1}} A_{k+1},A_k)\\ &= & g_k^{d_{k-1}-d_{k+1}} (g_{k-1} h_{k-1}^{\delta_{k-1}})^{d_k} \mbox{Res}(A_{k+1},A_k) \end{matrix} On en déduit que : Res(A k1,A k)g k1 d kh k1 d k11=g k d k1d k+1(δ k1+1)d kh k1 δ k1d k+1d k1Res(A k+1,A k) \frac{\mbox{Res}(A_{k-1},A_k)}{g_{k-1}^{d_k} h_{k-1}^{d_{k-1}-1}} = g_k^{d_{k-1}-d_{k+1}-(\delta_{k-1}+1)d_k} h_{k-1}^{\delta_{k-1}{d_k}+1-d_{k-1}} \mbox{Res}(A_{k+1},A_k) On observe que : h k1 δ k1d k+1d k1=h k1 (δ k11)(d k1)=(h k1 δ k11) d k1=(g k δ k1h k) d k1 h_{k-1}^{\delta_{k-1}{d_k}+1-d_{k-1}} =h_{k-1}^{(\delta_{k-1}-1)(d_k-1)} = \left( h_{k-1}^{\delta_{k-1}-1}\right) ^{d_k-1} = \left( \frac{g_k^{\delta_{k-1}}}{h_{k}} \right) ^ {d_k-1} donc : Res(A k1,A k)g k1 d kh k1 d k11 = g k d k1d k+1(δ k1+1)d k(g k δ k1h k) d k1Res(A k+1,A k) = g k d k1d k+1d kδ k1(1h k) d k1Res(A k+1,A k) = Res(A k+1,A k)g k d k+1h k d k1 \begin{matrix} \frac{\mbox{Res}(A_{k-1},A_k)}{g_{k-1}^{d_k} h_{k-1}^{d_{k-1}-1}} &=& g_k^{d_{k-1}-d_{k+1}-(\delta_{k-1}+1)d_k} \left( \frac{g_k^{\delta_{k-1}}}{h_{k}} \right) ^ {d_k-1} \mbox{Res}(A_{k+1},A_k) \\ &=& g_k^{d_{k-1}-d_{k+1}-d_k-\delta_{k-1}} \left( \frac{1}{h_{k}} \right) ^ {d_k-1} \mbox{Res}(A_{k+1},A_k) \\ &=& \frac{ \mbox{Res}(A_{k+1},A_k) } { g_k^{d_{k+1}} h_{k}^ {d_k-1}} \end{matrix} Donc en valeur absolue |Res(A 0,A 1)g 0 d 1h 0 d 01|=|Res(A k1,A k)g k1 d kh k1 d k11| |\frac{\mbox{Res}(A_{0},A_1)}{g_{0}^{d_1} h_{0}^{d_{0}-1}}| = |\frac{\mbox{Res}(A_{k-1},A_k)}{g_{k-1}^{d_k} h_{k-1}^{d_{k-1}-1}} | En prenant le rang kk tel que A kA_{k} est constant, on a d k=0d_k=0 et le résultant est égal à g k d k1g_k^{d_{k-1}}, on obtient donc : |Res(A 0,A 1)|=|g k d k1h k1 d k11| |\mbox{Res}(A_{0},A_1)|=|\frac{g_k^{d_{k-1}}}{ h_{k-1}^{d_{k-1}-1}} | Comme ici δ k1=d k1\delta_{k-1}=d_{k-1}, le terme de droite est |h k||h_k|.

Remarque
On peut calculer au fur et à mesure le signe du résultant en tenant compte des degrés de A kA_k pour inverser l’ordre de A k1A_{k-1} et A kA_k dans le résultant.

Utilisation
La valeur du résultant est très utile pour savoir si 2 polynômes dépendant de paramètres sont premiers entre eux en fonction de la valeur des paramètres. En effet, la fonction gcd d’un logiciel de calcul formel calculera le PGCD par rapport à toutes les variables en incluant les paramètres. En cherchant quand le résultant s’annule en fonction des paramètres on obtient un autre type d’information.

Exemple :
Chercher quand le polynône P=x 3+px+qP=x^3+px+q possède une racine multiple en fonction de pp et qq. On calcule le résultant de PP et PP' et on trouve 4p 3+27q 24p^3+27q^2, donc PP a une racine multiple si et seulement si 4p 3+27q 2=04p^3+27q^2=0.

6.5  Calcul efficace du résultant

On dispose essentiellement de deux stratégies avec des sous-stratégies :

Exemple de comparaison :


Chapitre 7  Localisation des racines

7.1  Majoration

On a vu au lemme 5, que si zz est une racine complexe d’un polynôme PP de coefficient dominant p np_n alors |z|1+|P| |p n||z| \leq 1 + \frac{|P|_\infty}{|p_n|}

7.2  Les suites de Sturm.

L’algorithme du sous-résultant appliqué à un polynôme sans racine multiple PP et à sa dérivée permet, à condition de changer les signes dans la suite des restes, de connaitre le nombre de racines réelles d’un polynôme à coefficients réels dans un intervalle. Ceci est trè utile pour par exemple simplifier des valeurs absolues de polynômes dans un intervalle.

On définit donc la suite de polynômes A 0=P,A 1=P,...,A k,0A_0=P, A_1=P', ..., A_k,0 par : A i=A i+1Q i+2A i+2(11) A_{i} = A_{i+1} Q_{i+2} - A_{i+2} \qquad (11) avec A kA_k, le dernier reste non nul, un polynôme constant puisque PP n’a pas de racine multiple. On utilise plutot l’algorithme du sous-résultant que l’algorithme d’Euclide, il faut alors s’assurer que les signes de A iA_i et A i+2A_{i+2} sont opposés lorsque A i+1A_{i+1} s’annule quitte à changer le signe de A i+2A_{i+2} en fonction du signe du coefficient dominant de A i+1A_{i+1}, de la parité de la différence des degrés et du signe du coefficient gh 1δgh^{1-\delta}.

On définit s(a)s(a) comme étant le nombre de changements de signes de la suite A i(a)A_i(a) en ignorant les 0. On a alors le

Théorème 11   Le nombre de racines réelles de A 0=PA_0=P sur l’intervalle ]a,b]]a,b] est égal à s(a)s(b)s(a)-s(b).

Preuve
Par continuité de la suite des polynômes, ss ne peut varier que si l’un des polynômes s’annule. On considére la suite des signes en un point : elle ne peut contenir deux 0 successifs (sinon toute la suite vaudrait 0 en ce point en appliquant (11), or A kA_k est constant non nul). Elle ne peut pas non plus contenir +,0,+ ni -,0,- à cause de la convention de signe sur les restes de (11). Donc une racine bb de A iA_i pour 0<i<k 0 &lt; i &lt; k , n’influe pas sur la valeur de ss au voisinage de bb (il y a toujours un changement de signe entre les positions i1i-1 et i+1i+1). Comme A kA_k est constant, seules les racines de A 0=PA_0=P sont susceptibles de faire varier ss. Comme A 1=PA_1=P', le sens de variations de A 0A_0 au voisinage d’une racine de A 0A_0 est déterminé par le signe de A 1A_1, donc les possibilités sont -,+ vers +,+ ou +,- vers -,-, ce qui diminue ss d’une unité.


7.3  Autres algorithmes


1
cela se fait par une méthode itérative appelée algorithme de Francis. On pose A 0A_0, la forme de Hessenberg de MM, puis on factorise A n=QRA_n=QR par des symétries de Householder ou des rotations de Givens et on définit A n+1=RQA_{n+1}=RQ, le calcul de A n+1A_{n+1} en fonction de A nA_n se fait sans expliciter la factorisation QRQR

Chapitre 8  Exercices (PGCD, résultant, ...)

8.1  Instructions

Elles sont dans les menus Cmds->Integer et Cmds->Polynomes de Xcas.

8.1.1  Entiers

8.1.2  Polynômes

On peut représenter les polynômes par leur écriture symbolique (par exemple x^2+1), ou par des listes (représentation dense ou creuse, récursive ou distribuée). Xcas propose deux types de représentation, dense à une variable (poly1[ ]), ou distribuée (%%%{ }%%%) et des instructions de conversion (poly2symb et symb2poly) entre représentations. L’intérêt d’une représentation non symbolique est l’efficacité des opérations polynomiales, (et la possibilité de chronométrer des opérations comme le produit de 2 polynômes).

Les instructions qui suivent utilisent la représentation symbolique, certaines acceptent les autres représentations.

Notez aussi que le menu Exemples->poly->pgcd.xws de Xcas contient des exemples de programmes de calcul de pgcd de type Euclide.

8.1.3  Calculs modulo nn

Pour travailler dans /n[X]\mathbb{Z}/n\mathbb{Z}[X] :

8.2  Exercices PGCD

  1. Calculez le pgcd de x 202+x 101+1x^{202}+x^{101}+1 et sa dérivée modulo 3 et modulo 5. Conclusion?
  2. P=51x 335x 2+39x115P=51x^3-35x^2+39x-115 et Q=17x 423x 3+34x 2+39x115Q=17x^4-23x^3+34x^2+39x-115. Calculez le pgcd de PP et QQ modulo 5, 7 et 11. En déduire le pgcd de PP et QQ par le théorème des restes chinois. Pourquoi ne doit-on pas essayer modulo 17?
  3. Écrire un programme qui détermine le degré probable du pgcd de 2 polynômes en une variable en utilisant le pgcd modulaire (on considère le degré probable déterminé lorsqu’on trouve deux nombres premiers réalisant le minimum des degrés trouvés)
  4. Détaillez l’algorithme du PGCD heuristique pour les polynômes P=(x+1) 7(x1) 6P=(x+1)^7-(x-1)^6 et sa dérivée. Comparez avec l’algorithme d’Euclide naïf.
  5. Écrire un programme mettant en oeuvre le pgcd heuristique pour des polynômes à une variable.
  6. On veut comprendre comment un logiciel de calcul formel calcule x 6+2(x 3+1) 2dx \int \frac{x^6+2}{(x^3+1)^2} \ dx On se ramène d’abord à une fraction propre (numérateur NN de degré inférieur au dénominateur), Soit P=x 3+1P=x^3+1, calculez le PGCD de PP et PP', puis deux polynômes UU et VV tels que N=UP+VP N=UP+VP' . On décompose alors l’intégrale en deux morceaux :
    NP 2=UP+VPP 2 \int \frac{N}{P^2}=\int \frac{U}{P} + \int V \frac{P'}{P^2} Faites une intégration par parties sur le deuxième terme et en déduire la valeur de l’intégrale du départ.
  7. Écrire un programme qui détermine le degré probable du PGCD par rapport à toutes les variables de 2 polynôme à plusieurs variables en utilisant l’évaluation en toutes les variables sauf une.
  8. Calculer le pgcd par une méthode modulaire de (xyx+1)(xy+x 2+1)(xy-x+1)(xy+x^2+1) et (xyxy)(xyx+1)(xy-x-y)(xy-x+1)
  9. En utilisant uniquement l’instruction de calcul de PGCD déterminer la multiplicité maximale d’un facteur irréductible de x 14x 1314x 12+12x 11+78x 1054x 9224x 8+116x 7+361x 6129x 5330x 4+72x 3+160x 216x32x^{14}-x^{13}-14x^{12}+12x^{11}+78x^{10}-54x^9-224x^8+116x^7+361x^6-129x^5-330x^4+72x^3+160x^2-16x-32

8.3  Exercices (résultant)

  1. Pour quelles valeurs de pp le polynôme X 5+X 3pX+1X^5+X^3-pX+1 admet-il une racine multiple?
  2. Résoudre le système en éliminant successivement les variables grâce au résultant : {a 3+b 3+c 3 = 8 a 2+b 2+c 2 = 6 a+b+2c = 4 \left\{\begin{array}{rcl} a^{3}+b^{3}+c^{3} & = & 8 \\ a^{2}+b^{2}+c^{2} & = & 6 \\ a+b+2c & = & 4 \end{array}\right.
  3. Déterminer l’intersection de xy=4xy=4 et y 2=(x3)(x 216) y^2=(x-3)(x^2-16), repésenter graphiquement les courbes. Discuter la multiplicité et le nombre d’intersections.
    Même question pour (x2) 2+y 2=4(x-2)^2+y^2=4 et y 2=(x3)(x 216)y^2=(x-3)(x^2-16).
  4. Donner le détail des calculs avec Bézout de la décomposition en éléments simples de : 1(x 21) 2(x+2) \frac{1}{(x^2-1)^2(x+2)} puis calculer le coefficient de x nx^n du développement en séries entières de cette fraction en 0.
  5. Calculer 1x 21+x 4dx \int \frac{1-x^2}{1+x^4} \ dx en utilisant le résultant pour calculer les logarithmes.
  6. Courbe paramétrique dépendant d’un paramètre : on considère la courbe C mC_m dépendant du réel mm : x(t)=t+mt 2+1+m 2,y(t)=t 2tmx(t)=\frac{t+m}{t^2+1+m^2}, \quad y(t)=\frac{t^2}{t-m} Représenter la courbe pour quelques valeurs de mm (on pourra utiliser dans un niveau de géométrie, le menu Edit, Ajouter un paramètre pour créer un curseur représentant mm, puis plotparam). Donner l’équation cartésienne de C mC_m. Déterminer les valeurs de mm pour lesquelles la courbe admet un point singulier, représenter le graphe dans ce(s) cas et faire l’étude de la courbe.

8.4  Exercice (Bézout modulaire)

Soit AA et BB deux polynômes à coefficients entiers et premiers entre eux. Soit c *c \in \mathbb{Z}^* le résultant de AA et BB, on va calculer les polynômes UU et VV de l’identité de Bézout AU+BV=c,deg(U)<deg(B),deg(V)<deg(A)(12) A U + B V = c , \quad \mbox{deg}(U)&lt;\mbox{deg}(B), \mbox{deg}(V)&lt;\mbox{deg}(A) \qquad (12) par une méthode modulaire.

  1. Montrer, en utilisant les formules de Cramer, que les coefficients de UU et VV sont des entiers de valeur absolue inférieure ou égale à la borne de Hadamard hh de la matrice de Sylvester de AA et BB (dont le déterminant est cc, le résultant de AA et BB). Calculer hh en fonction de la norme euclidienne de AA, BB et de leurs degrés.
  2. On calcule c *c \in \mathbb{Z}^* puis on résoud (12) dans /p iZ[X]\mathbb{Z}/p_i Z[X] pour plusieurs nombres premiers p ip_i (choisis si possible inférieurs à 2 31\sqrt{2^{31}} pour des raisons d’efficacité), puis on calcule par le théorème des restes chinois (12) dans /p iZ[X]\mathbb{Z}/\prod p_i Z[X]. Donner une minoration de ip i\prod_i p_i faisant intervenir hh qui permette de garantir que l’écriture en représentation symétrique de (12) dans /p iZ[X]\mathbb{Z}/\prod p_i Z[X] est identique à (12) dans [X]\mathbb{Z}[X].
  3. Application : résoudre de cette manière l’équation de Bézout pour A=(X+1) 4(X3),B=(X1) 4(X+2) A=(X+1)^4(X-3), \quad B=(X-1)^4(X+2) (vous pouvez utiliser sans justifications l’instruction de calcul de résultant, des coefficients de Bézout dans /p iZ[X]\mathbb{Z}/p_iZ[X] et de reste chinois de votre logiciel).
  4. Écrire une fonction mettant en oeuvre cet algorithme.
  5. Que pensez-vous de l’intérêt de cet algorithme par rapport à l’algorithme d’Euclide étendu dans [X]\mathbb{Z}[X]?

8.5  Exercice (Géométrie et résultants).

On cherche une relation algébrique entre les coordonnées de 4 points A,B,C,DA,B,C,D qui traduise le fait que ces 4 points sont cocycliques. Cette condition étant invariante par translation, on cherche une relation entre les 6 coordonnées des 3 vecteurs v 1=(x 1,y 1)v_1=(x_1,y_1), v 2=(x 2,y 2)v_2=(x_2,y_2) et v 3=(x 3,y 3)v_3=(x_3,y_3) d’origine AA et d’extrémité BB, CC et DD. On peut supposer quitte à translater que le centre du cercle est l’origine, on a donc 5 paramètres : le rayon du cercle RR et les 4 angles des points sur le cercle θ 0\theta_0, θ 1\theta_1, θ 2\theta_2 et θ 3\theta_3. La relation cherchée va s’obtenir en éliminant les 5 paramètres des expressions des 6 coordonnées en fonction de ces paramètres.

  1. Exprimer les 6 coordonnées en fonction de RR et a=tan(θ 0/2)a=\tan(\theta_0/2), b=tan(θ 1/2)b=\tan(\theta_1/2), c=tan(θ 2/2)c=\tan(\theta_2/2) et d=tan(θ 3/2)d=\tan(\theta_3/2). On obtient ainsi 6 équations, par exemple les deux premières sont de la forme x 1F(R,a,b)=0,y 1G(R,a,b)=0 x_1- F(R,a,b)= 0, \quad y_1- G(R,a,b)= 0 FF et GG sont deux fractions rationnelles.
  2. En réduisant au même dénominateur, calculer 6 polynômes, fonction de x 1,y 1,x 2,y 2,x 3,y 3,R,a,b,c,dx_1,y_1,x_2,y_2,x_3,y_3,R,a,b,c,d, qui doivent s’annuler pour que les points soient cocycliques (Vous pouvez utiliser l’instruction numer pour obtenir le numérateur d’une fraction rationnelle).
  3. Éliminer bb des polynômes contenant x 1x_1 et y 1y_1 et factoriser le polynôme obtenu, faire de même avec cc, x 2x_2 et y 2y_2 et dd, x 3x_3 et y 3y_3, en déduire (en supposant que les points sont tous distincts) 3 polynômes en x 1,y 1,x 2,y 2,x 3,y 3,R,ax_1,y_1,x_2,y_2,x_3,y_3,R,a qui s’annulent.
  4. Éliminer RR et aa, en déduire la relation cherchée.
  5. Vérifier que cette relation est équivalente à la nullité de la partie imaginaire du birapport des affixes α,β,γ,δ\alpha, \beta, \gamma, \delta des 4 points : (αβαγδγδβ)=0 \Im \left( \frac{\alpha-\beta}{\alpha-\gamma} \frac{\delta-\gamma}{\delta-\beta} \right) = 0

8.6  Décalage entier entre racines.

Soit PP un polynôme à coefficients entiers sans racines multiples. On dira que PP a la propriété \mathcal{I} si deux des racines de PP sont décalées d’un entier. En d’autres termes, si r 1,...,r nr_1,...,r_n désignent les racines complexes distinctes de PP, PP possède la propriété \mathcal{I} s’il existe au moins un entier parmi les différences r ir jr_i-r_j pour iji \neq j.

  1. Soit R(t)=resultant x(P(x),P(x+t)) R(t)=\mbox{resultant}_x(P(x),P(x+t)) Montrer que RR est à coefficients entiers. Montrer que la propriété \mathcal{I} est équivalente à la propriété “RR possède une racine entière non nulle”. On va maintenant construire un algorithme déterminant les racines entières du polynôme RR.
  2. Après division de RR par une puissance de tt, on peut supposer que RR a un coefficient constant non nul. Après division de RR par son contenu, on peut aussi supposer que le contenu de RR est 1. En effectuant ensuite une factorisation square-free de RR, on peut se ramener au cas où RR et RR' sont premiers entre eux. Soit aa une racine de RR.
    1. Donner une majoration de |a||a| en fonction du coefficient constant de RR.
    2. Soit pp un nombre premier ne divisant pas le coefficient dominant de RR et tel que RR et RR' soient premiers entre eux modulo pp. On peut calculer aa à partir d’une racine de RR modulo pp en la “remontant” modulo p kp^k pour kk assez grand (algorithme p-adique). Pour quelle valeur de kk peut-on reconstruire toutes les racines entières de RR ?
    3. Comparer l’algorithme ci-dessus avec les algorithmes suivants : la factorisation de RR sur \mathbb{Z}, la recherche numérique des racines complexes de RR, la recherche des racines entières de RR parmi les diviseurs entiers du coefficient constant de RR et leurs opposés.
  3. Une fois les racines entières de RR connues, comment peut-on en déduire les facteurs de PP dont les racines diffèrent de cet(ces) entier(s)?
  4. Soit P(x)=x 6+9x 5+29x 4+41x 3+37x 2+59x+31P(x)=x^6+9x^5+29x^4+41x^3+37 x^2+59x+31 Montrer que PP a la propriété \mathcal{I}. Calculer la ou les racines entières de RR et donner la factorisation correspondante de PP.
  5. Écrire un programme qui effectue cet algorithme sur un polynôme quelconque. On pourra utiliser la fonction rationalroot de Xcas pour déterminer les racines entières de RR.
  6. Application : on cherche à calculer k=1 n9x 227x30P(x)(13) \sum_{k=1}^n \frac{-9x^2-27x-30}{P(x)} \qquad (13) Décomposer cette fraction en éléments simples (donner le détail des calculs en utilisant la factorisation précédente et l’identité de Bezout abcuv en Xcas).
  7. Calculer la somme précédente (13). On pourra remarquer que pour kk entier strictement positif, 1f(x+k)1f(x)\frac{1}{f(x+k)}-\frac{1}{f(x)} s’exprime comme une somme de différences 1f(x+j+1)1f(x+j)\frac{1}{f(x+j+1)}-\frac{1}{f(x+j)}.
  8. Écrire un programme effectuant ce calcul avec une fraction quelconque, lorsque cela est possible.

8.7  Exemple de correction de géométrie et résultant

e1:=x1-R*((1-b^2)/(1+b^2)-(1-a^2)/(1+a^2));
e2:=y1-R*(2b/(1+b^2)-2*a/(1+a^2));
e3:=x2-R*((1-c^2)/(1+c^2)-(1-a^2)/(1+a^2));
e4:=y2-R*(2c/(1+c^2)-2*a/(1+a^2));
e5:=x3-R*((1-d^2)/(1+d^2)-(1-a^2)/(1+a^2));
e6:=y3-R*(2d/(1+d^2)-2*a/(1+a^2));
f1:=factor(resultant(numer(e1),numer(e2),b)/
 (-4)/(a^2+1)^3/R^2);
f2:=factor(resultant(numer(e3),numer(e4),c)/
 (-4)/(a^2+1)^3/R^2);
f3:=factor(resultant(numer(e5),numer(e6),d)/
 (-4)/(a^2+1)^3/R^2);
g1:=factor(resultant(f1,f2,R));
g2:=resultant(f1,f3,R);
r:=factor(resultant(g1/(a^2+1),g2/(a^2+1),a));
eq1:=r[1,3,1];
eq2:=numer(im((-x1-i*y1)/(-x2-i*y2)*
 (x3-x2+i*(y3-y2))/(x3-x1+i*(y3-y1))));
normal(eq1-eq2);

Chapitre 9  Bases de Gröbner.

9.1  Ordre et réduction

L’anneau des polynômes à plusieurs variables n’a pas de division euclidienne. On est donc obligé d’utiliser des outils moins performants. La première chose à faire est de choisir un ordre total sur les monomes, compatible avec la multiplication des monômes (a<ba&lt;b doit entrainer ac<bca c&lt;b c) et tel que si un monôme aa divise un autre monôme bb alors a<ba&lt;b. Exemples d’ordres utilisés fréquemment (ce sont les 3 ordres proposés par les fonctions de Xcas) :

On remarque sur ces 3 exemples qu’il ne peut exister de suite strictement décroissante infinie pour l’ordre >&gt;. Lorsque le degré total est le premier critère, c’est évident, puisque le nombre de monomes <&lt; à un monome donné est fini. Pour l’ordre lexicographique, on raisonne par l’absurde. On regarde d’abord le premier indice, comme la suite est décroissante, tous les monômes ont un indice inférieur ou égal au premier indice du premier monôme. On peut donc extraire une sous-suite strictement décroissante et infinie de monômes dont le 1er indice est constant. On passe alors au 2ème indice, et ainsi de suite jusqu’au dernier indice qui donne une contradiction. On fait donc dans la suite l’hypothèse qu’il n’existe pas de suite strictement décroissante infinie pour l’ordre >&gt;.

On peut alors effectuer une sorte de remplacement de la division euclidienne de AA par BB, appelée réduction qui consiste à comparer le terme dominant de BB au sens de l’ordre (noté LT(B)LT(B)) aux monomes de AA par ordre décroissant, si l’un des monomes de AA a toutes ses puissances plus grandes que LT(B)LT(B), alors on élimine ce terme, disons A kA_k, en retranchant à AA le polynôme A k/LT(B)BA_k/LT(B) B. Ceci ne modifie pas le début de AA jusqu’au monôme A kA_k. Les termes retranchés peuvent eux-même donner lieu à une réduction par BB, par exemple A k/LT(B)B 2A_k/LT(B) B_2 peut être divisible par LT(B)LT(B). Le procédé de réduction doit toutefois s’arrêter, sinon on pourrait construire une suite décroissante infinie pour l’ordre >&gt; avec les A kA_k. On peut même diviser AA par plusieurs polynômes B,C,..B,C,.. en utilisant cet algorithme.

9.2  Idéaux

En dimension 1, les idéaux sont engendrés par un polynôme PP et c’est la division euclidienne par PP qui permet de savoir si on est dans l’idéal. En dimension plus grande, l’analogue est la base de Gröbner de l’idéal (relativement à un ordre monomial <&lt;) et on utilise la réduction par rapport aux polynômes de l’idéal pour savoir si on est dans l’idéal. On commence par montrer que les idéaux de monomes sont engendrés par les monômes minimaux, qui ne sont divisibles par aucun autre monôme de l’idéal. Supposons qu’ils soient en nombre infini. Considérons le premier indice des monomes, s’il est borné, on aura une infinité de monomes ayant le même indice, sinon on aura une suite infinie de monômes d’indice croissant, dans les deux cas on peut extraire une suite infinie dont la première composante est croissante au sens large. On fait le même raisonnement sur la suite extraite pour la 2ème composante, etc. et on aboutit à une suite infinie de monômes qui se divisent les uns les autres ce qui est absurde. Donc les monômes minimaux sont en nombre fini.

Une base de Gröbner s’obtient en prenant des polynômes correspondant aux monômes minimaux de l’idéal de monômes LT(I)LT(I) des coefficients dominants de II. La réduction par rapport aux éléments de cette base donne alors 0 pour tous les éléments de II, ce qui montre que II est engendré par cette base.

On appelle “s-polynôme” d’une paire de polynômes AA et BB le polynôme obtenu en calculant le monôme PPCM LL de LT(A)LT(A) et LT(B)LT(B) et en créant la différence qui annule ce monôme PPCM L/LT(A)AL/LT(B)BL/LT(A)A -L/LT(B)B.

On peut montrer que la base de Gröbner peut se calculer à partir d’une famille génératrice en effectuant la boucle suivante : on calcule tous les s-polynômes de la famille génératrice courante, on les réduit par rapport à la famille génératrice courante, si tous les s-polynomes sont nuls la famille courante est la base cherchée, sinon on garde les s-polynômes réduits non nuls, on réduit la famille génératrice courante par rapport à ces s-polynômes réduits non nuls et on fusionne les polynômes non nuls en la famille génératrice courante pour l’itération suivante de la boucle.

Le problème est que cela devient très vite très long. Il existe des méthodes permettant d’accélérer l’algorithme, par exemple on peut savoir à l’avance qu’un s-polynôme se réduit à 0 (règles de Gebauer-Möller) il est donc inutile de le calculer. On peut aussi précalculer tous les multiples des polynômes par rapport auxquels on réduit et réduire simultanément tous les polynômes à réduire en ramenant la réduction à un algorithme de pivot de Gauß (c’est la partie algèbre linéaire de l’algorithme F4). L’ordre choisi est aussi très important pour l’efficacité. Enfin, pour le cas des coefficients entiers, des méthodes modulaires permettent d’accélérer les calculs. Xcas implémente un algorithme modulaire très compétitif pour l’ordre revlex, présenté dans l’article en anglais qui suit.

Les instructions Xcas correspondantes sont gbasis, greduce.

9.3  Introduction

During the last decades, considerable improvements have been made in CAS like Maple or specialized systems like Magma, Singular, Cocoa, Macaulay... to compute Groebner basis. They were driven by implementations of new algorithms speeding up the original Buchberger ([3]) algorithm: Gebauer and Möller criterion ([6]), F4 and F5 algorithms from J.-C. Faugère ([4], [5]), and are widely described in the literature if the base field is a finite field. Much less was said about computing over \mathbb{Q}. It seems that implementers are using the same algorithm as for finite fields, this time working with coefficients in \mathbb{Q} or in \mathbb{Z} (sometimes with fast integer linear algebra), despite the fact that an efficient p-adic or Chinese remaindering algorithm were described as soon as in year 2000 by E. Arnold ([1]). The reason might well be that these modular algorithms suffer from a time-consuming step at the end: checking that the reconstructed Groebner basis is indeed the correct Groebner basis.

Section 9.4 will show that if one accepts a small error probability, this check may be fast, so we can let the user choose between a fast conjectural Groebner basis to make his own conjectures and a slower certified Groebner basis once he needs a mathematical proof.

Section 9.5 will explain learning, a process that can accelerate the computation of a Groebner basis modulo a prime p kp_k once the same computation but modulo another prime pp has already been done ; learning is an alternative to the F5 algorithm in order to avoid computing useless critical pairs that reduce to 0. The idea is similar to F4remake by Joux-Vitse ([7]) used in the context of computing Groebner basis in large finite fields.

Section 9.6 will show in more details how the gbasis algorithm is implemented in Giac/Xcas ([9]) and show that - at least for the classical academic benchmarks Cyclic and Katsura - the deterministic modular algorithm is competitive or faster than the best open-source implementations and the modular probabilistic algorithm is comparable to Maple and slower than Magma on one processor (at least for moderate integer coefficient size) and may be faster than Magma on multi-processors, while computation modulo pp are faster for characteristics in the 24-31 bits range. Moreover the modular algorithm memory usage is essentially twice the memory required to store the basis on \mathbb{Q}, sometimes much less than the memory required by other algorithms.

9.4  Checking a reconstructed Groebner basis

Let f 1,..,f mf_1,..,f_m be polynomials in [x 1,..,x n]\mathbb{Q}[x_1,..,x_n], I=<f 1,...,f m>I=&lt;f_1,...,f_m&gt; be the ideal generated by f 1,...,f nf_1,...,f_n. Without loss of generality, we may assume that the f if_i have coefficients in \mathbb{Z} by multiplying by the least common multiple of the denominators of the coefficients of f if_i. We may also assume that the f if_i are primitive by dividing by their content.

Let <&lt; be a total monomial ordering (for example revlex the total degree reverse lexicographic ordering). We want to compute the Groebner basis GG of II over \mathbb{Q} (and more precisely the inter-reduced Groebner basis, sorted with respect to <&lt;). Now consider the ideal I pI_p generated by the same f if_i but with coefficients in /p\mathbb{Z}/p\mathbb{Z} for a prime pp. Let G pG_p be the Groebner basis of I pI_p (also assumed to be inter-reduced, sorted with respect to <&lt;, and with all leading coefficients equal to 1).

Assume we compute GG by the Buchberger algorithm with Gebauer and Möller criterion, and we reduce in \mathbb{Z} (by multiplying the s-poly to be reduced by appropriate leading coefficients), if no leading coefficient in the polynomials are divisible by pp, we will get by the same process but computing modulo pp the G pG_p Groebner basis. Therefore the computation can be done in parallel in \mathbb{Z} and in /p\mathbb{Z}/p\mathbb{Z} except for a finite set of unlucky primes (since the number of intermediate polynomials generated in the algorithm is finite). If we are choosing our primes sufficiently large (e.g. about 2 312^{31}), the probability to fall on an unlucky prime is very small (less than the number of generated polynomials divided by about 2 312^{31}, even for really large examples like Cyclic9 where there are a few 10 410^4 polynomials involved, it would be about 1e-5).

The Chinese remaindering algorithm is as follow: compute G pG_p for several primes, for all primes that have the same leading monomials in G pG_p (i.e. if coefficient values are ignored), reconstruct G p jG_{\prod p_j} by Chinese remaindering, then reconstruct a candidate Groebner basis G cG_c in \mathbb{Q} by Farey reconstruction. Once it stabilizes, do the checking step described below, and return G cG_c on success.

Checking step : check that the original f if_i polynomials reduce to 0 with respect to G cG_c and check that G cG_c is a Groebner basis.

Théorème 14   (Arnold, Greuel and Pfister) If the checking step succeeds, then G cG_c is the Groebner basis of II.

This is a consequence of ideal inclusions (first check) and dimensions (second check), for a complete proof, see [1] and theorem 7.5.1 in Greuel,G.-M., Pfister,G., 2007, A Singular Introduction to Commutative Algebra, Springer.

Probabilistic checking algorithm: instead of checking that s-polys of critical pairs of G cG_c reduce to 0, check that the s-polys reduce to 0 modulo several primes that do not divide the leading coefficients of G cG_c and stop as soon as the inverse of the product of these primes is less than a fixed ε>0\varepsilon&gt;0.

Deterministic checking algorithm: check that all s-polys reduce to 0 over \mathbb{Q}. This can be done either by integer computations (or even by rational computations, I have not tried that), or by reconstruction of the quotients using modular reduction to 0 over /p\mathbb{Z}/p\mathbb{Z} for sufficiently many primes. Once the reconstructed quotients stabilize, we can check the 0-reduction identity, and this can be done without computing the products quotients by elements of G cG_c if we have enough primes (with appropriate bounds on the coefficients of G cG_c and the lcm of the denominators of the reconstructed quotients).

9.5  Speeding up by learning from previous primes

Once we have computed a Groebner basis modulo an initial prime pp, if pp is not an unlucky prime, then we can speedup computing Groebner basis modulo other lucky primes. Indeed, if one s-poly reduce to 0 modulo pp, then it reduces most certainly to 0 on \mathbb{Q} (non zero s-poly have in general several terms, cancellation of one term mod pp has probability 1/p1/p, simultaneous cancellation of several terms of a non-zero s-poly modulo pp is highly improbable), and we discard this s-poly in the next primes computations. We name this speedup process learning. It can also be applied on other parts of the Groebner basis computation, like the symbolic preprocessing of the F4 algorithm, where we can reuse the same collection of monomials that were used for the first prime pp to build matrices for next primes (see Buchberger Algorithm with F4 linear algebra in the next section).

If we use learning, we have no certification that the computation ends up with a Groebner basis modulo the new primes. But this is not a problem, since it is not required by the checking correctness proof, the only requirement is that the new generated ideal is contained in the initial ideal modulo all primes (which is still true) and that the reconstructed G cG_c is a Groebner basis.

9.6  Giac/Xcas implementation and experimentation

We describe here briefly some details of the Giac/Xcas gbasis implementation and give a few benchmarks.

The optimized algorithm runs with revlex as <&lt; ordering if the polynomials have at most 15 variables (it’s easy to modify for more variables, adding multiples of 4, but this will increase a little memory required and slow down a little). Partial and total degrees are coded as 16 bits integers (hence the 15 variables limit, since 1 slot of 16 bits is kept for total degree). Modular coefficients are coded as 31 bit integers (or 24).

The Buchberger algorithm with linear algebra from the F4 algorithm is implemented modulo primes smaller than 2 312^{31} using total degree as selection criterion for critical pairs.
Buchberger algorithm with F4 linear algebra modulo a prime

  1. Initialize the basis to the empty list, and a list of critical pairs to empty
  2. Add one by one all the f if_i to the basis and update the list of critical pairs with Gebauer and Möller criterion, by calling the gbasis update procedure (described below step 9)
  3. Begin of a new iteration:
    All pairs of minimal total degree are collected to be reduced simultaneously, they are removed from the list of critical pairs.
  4. The symbolic preprocessing step begins by creating a list of monomials, gluing together all monomials of the corresponding s-polys (this is done with a heap data structure).
  5. The list of monomials is “reduced” by division with respect to the current basis, using heap division (like Monagan-Pearce [8]) without taking care of the real value of coefficients. This gives a list of all possible remainder monomials and a list of all possible quotient monomials and a list of all quotient times corresponding basis element monomial products. This last list together with the remainder monomial list is the list of all possible monomials that may be generated reducing the list of critical pairs of maximal total degree, it is ordered with respect to <&lt;. We record these lists for further primes during the first prime computation.
  6. The list of quotient monomials is multiplied by the corresponding elements of the current basis, this time doing the coefficient arithmetic. The result is recorded in a sparse matrix, each row has a pointer to a list of coefficients (the list of coefficients is in general shared by many rows, the rows have the same reductor with a different monomial shift), and a list of monomial indices (where the index is relative to the ordered list of possible monomials). We sort the matrix by decreasing order of leading monomial.
  7. Each s-polynomial is written as a dense vector with respect to the list of all possible monomials, and reduced with respect to the sparse matrix, by decreasing order with respect to <&lt;. (To avoid reducing modulo pp each time, we are using a dense vector of 128 bits integers on 64 bits architectures, and we reduce mod pp only at the end of the reduction. If we work on 24 bit signed integers, we can use a dense vector of 63 bits signed integer and reduce the vector if the number of rows is greater than 2 152^{15}).
  8. Then inter-reduction happens on all the dense vectors representing the reduced s-polynomials, this is dense row reduction to echelon form (0 columns are removed first). Care must be taken at this step to keep row ordering when learning is active.
  9. gbasis update procedure
    Each non zero row will bring a new entry in the current basis (we record zero reducing pairs during the first prime iteration, this information will be used during later iterations with other primes to avoid computing and reducing useless critical pairs). New critical pairs are created with this new entry (discarding useless pairs by applying Gebauer-Möller criterion). An old entry in the basis may be removed if it’s leading monomial has all partial degrees greater or equal to the leading monomial corresponding degree of the new entry. Old entries may also be reduced with respect to the new entries at this step or at the end of the main loop.
  10. If there are new critical pairs remaining start a new iteration (step 3). Otherwise the current basis is the Groebner basis.

Modular algorithm

  1. Set a list of reconstructed basis to empty.
  2. Learning prime: Take a prime number of 31 bits or 29 bits for pseudo division, run the Buchberger algorithm modulo this prime recording symbolic preprocessing data and the list of critical pairs reducing to 0.
  3. Loop begin: Take a prime of 29 bits size or a list of nn primes if nn processors are available. Run the Buchberger algorithm. Check if the output has the same leading terms than one of the chinese remainder reconstructed outputs from previous primes, if so combine them by Chinese remaindering and go to step 4, otherwise add a new entry in the list of reconstructed basis and continue with next prime at step 3 (clearing all learning data is probably a good idea here).
  4. If the Farey \mathbb{Q}-reconstructed basis is not identical to the previous one, go to the loop iteration step 3 (a fast way to check that is to reconstruct with all primes but the last one, and check the value modulo the last prime). If they are identical, run the final check : the initial polynomials f if_i must reduce to 0 modulo the reconstructed basis and the reconstructed basis s-polys must reduce to 0 (this is done on \mathbb{Q} either directly or by modular reconstruction for the deterministic algorithm, or checked modulo several primes for the probabilistic algorithm). On success output the \mathbb{Q} Groebner basis, otherwise continue with next prime at step 3.

Benchmarks
Comparison of giac (1.1.0-26) with Singular 3.1 from sage 5.101 on Mac OS X.6, Dual Core i5 2.3Ghz, RAM 2*2Go:

 giac mod ppgiacsingulargiac \mathbb{Q} prob.giac \mathbb{Q}singular
 24, 31 bitsrun2mod pp1e-7, 1e-16 certifiedstd \mathbb{Q}
Cyclic70.5, 0.580.12.03.5, 4.221, 29.3>2700
Cyclic87.2, 8.91.852.5103, 106258, 679>>
Cyclic9633, 1340200?1 day>>>>
Kat80.063, 0.0740.0090.20.33, 0.536.55, 4.354.9
Kat90.29, 0.390.051.372.1, 3.254, 3641
Kat101.53, 2.270.311.6514, 20.7441, 335480
Kat1110.4, 13.82.886.8170, 2104610?
Kat1276, 103278851950, RAMRAM>>
alea60.83, 1.08.264.18202, 204738, >>>1h


This leads to the following observations :

Example of Giac/Xcas code:

alea6 := [5*x^2*t+37*y*t*u+32*y*t*v+21*t*v+55*u*v,
39*x*y*v+23*y^2*u+57*y*z*u+56*y*u^2+10*z^2+52*t*u*v,
33*x^2*t+51*x^2+42*x*t*v+51*y^2*u+32*y*t^2+v^3,
44*x*t^2+42*y*t+47*y*u^2+12*z*t+2*z*u*v+43*t*u^2,
49*x^2*z+11*x*y*z+39*x*t*u+44*x*t*u+54*x*t+45*y^2*u,
48*x*z*t+2*z^2*t+59*z^2*v+17*z+36*t^3+45*u];
l:=[x,y,z,t,u,v];
p1:=prevprime(2^24); p2:=prevprime(2^29);
time(G1:=gbasis(alea6 % p1,l,revlex));
time(G2:=gbasis(alea6 % p2,l,revlex));
threads:=2; // set the number of threads you want to use
// debug_infolevel(1); // uncomment to show intermediate steps
proba_epsilon:=1e-7; // probabilistic algorithm.
time(H0:=gbasis(alea6,indets(cyclic5),revlex));
proba_epsilon:=0; // deterministic
time(H1:=gbasis(alea6,indets(cyclic5),revlex));
time(H2:=gbasis(alea6,indets(cyclic5),revlex,modular_check));
size(G1),size(G2),size(H0),size(H1),size(H2);
write("Halea6",H0);

Note that for small examples (like Cyclic5), the system performs always the deterministic check (this is the case if the number of elements of the reconstructed basis to 50).

9.7  Conclusion

I have described some enhancements to a modular algorithm to compute Groebner basis over \mathbb{Q} which, combined to linear algebra from F4, gives a sometimes much faster open-source implementation than state-of-the-art open-source implementations for the deterministic algorithm. The probabilistic algorithm is also not ridiculous compared to the best publicly available closed-source implementations, while being much easier to implement (about 10K lines of code, while Fgb is said to be 200K lines of code, no need to have highly optimized sparse linear algebra).

This should speed up conjectures with the probabilistic algorithm and automated proofs using the deterministic algorithm (e.g. for the Geogebra theorem prover [2]), either using Giac/Xcas (or one of it’s interfaces to java and python) or adapting it’s implementation to other open-source systems. With fast closed-source implementations (like maple or magma), there is no certification that the result is a Groebner basis : there might be some hidden probabilistic step somewhere, in integer linear system reduction for example. I have no indication that it’s the case but one can never know if the code is not public, and at least for my implementation, certification might take a lot more time than computation.

There is still room for additions and improvements

Acknowledgements
Thanks to Frédéric Han for interfacing giac with Python. Thanks to Vanessa Vitse for insightfull discussions.


1
Singular has also a modular implementation in modstd.lib, but it is not called by default.

Références

[1]
E. A. Arnold. Modular algorithms for computing Gröbner bases . Journal of Symbolic Computation, 35(4):403 – 419, 2003.
[2]
F. Botana, Z. Kovács, and S. Weitzhofer. Implementing theorem proving in geogebra by using a singular webservice.
[3]
B. Buchberger. Grobner bases: An algorithmic method in polynomial ideal theory. Multidimensional systems theory, pages 184–232, 1985.
[4]
J.-C. Faugère. A new efficient algorithm for computing Gröbner bases (F4). Journal of Pure and Applied Algebra, 139(1–3):61–88, June 1999.
[5]
J.-C. Faugère. A new efficient algorithm for computing Gröbner bases without reduction to zero (F5). In Proceedings of the 2002 international symposium on Symbolic and algebraic computation, ISSAC ’02, pages 75–83, New York, NY, USA, 2002. ACM.
[6]
R. Gebauer and H. M. Möller. On an installation of buchberger’s algorithm. Journal of Symbolic Computation, 6(2–3):275 – 286, 1988.
[7]
A. Joux and V. Vitse. A variant of the F4 algorithm. In Topics in Cryptology–CT-RSA 2011, pages 356–375. Springer, 2011.
[8]
M. Monagan and R. Pearce. Sparse polynomial division using a heap. Journal of Symbolic Computation, 46(7):807–822, 2011.
[9]
B. Parisse and R. D. Graeve. Giac/Xcas computer algebra system. http://www-fourier.ujf-grenoble.fr/ parisse/giac_fr.html, 2013.
[10]
A. Steel. Gröbner Basis Timings Page. http://magma.maths.usyd.edu.au/ allan/gb/, 2004.

9.8  Représentation rationnelle univariée (rur).

Lorsqu’on résoud un système polynomial, on a (en général) autant d’équations que d’inconnues et en principe un nombre fini de solutions. On peut utiliser une base de Groebner dans l’ordre lexicographique, résoudre par rapport à la dernière variable, puis remonter, mais d’une part le calcul d’une base de Groebner dans l’ordre lexicographique est significativement plus long que dans l’ordre revlex, et d’autre part il faut calculer des PGCD et factoriser des polynômes sur des extensions algébriques dont la taille peut augmenter au fur et à mesure que l’on remonte (ou faire des calculs approchés...). Il serait plus intéressant de calculer d’un seul coup une extension algébrique de \mathbb{Q} qui permette d’exprimer toutes les variables. Ceci peut se faire si on arrive à trouver une forme linéaire en les variables qui sépare les solutions (la valeur de la forme est distincte si les points solutions sont distincts). On rajoute cette variable et on résoud l’équation obtenue en cette variable, pour chaque solution on aura une unique solution en remontant les autres variables. La représentation univariée rationnelle fait précisément cela, et donne même les autres variables comme polynôme en la forme linéaire séparante.

La présentation classique de la représentation univariée rationnelle utilise des calculs de trace (cf. par exemple le rapport de l’Inria 1998 de Fabrice Rouillier), l’algorithme implémenté dans Giac/Xcas (versions 1.1.1 et ultérieures) est un algorithme modulaire. On commence par se ramener au cas d’un idéal radical (c’est-à-dire que les points solutions du système sont de multiplicité 1) en ajoutant aux générateurs de l’idéal les parties squarefree des polynômes minimaux de toutes les variables. Pour un idéal radical, on montre qu’il existe une forme linéaire séparante, le degré du polynôme minimal de cette forme linéaire séparante est exactement égal à la dimension du quotient de l’anneau de polynômes par l’idéal radical. On peut donc tester si une forme linéaire est séparante en calculant son polynôme minimal. En pratique, on commence par calculer une base de Groebner pour l’ordre revlex (le plus efficace). On génère la liste des monomes du quotient en commençant par majorer les degrés en chacune des variables, puis on élimine parmi les monomes possibles ceux qui sont divisibles par le monome dominant d’un élément de la base de Groebner. On calcule ensuite la classe d’un polynôme dans le quotient en effectuant une réduction par la base de Groebner, on obtient un vecteur de coordonnées dans cette base de monome. Le calcul du polynôme minimal d’une forme linéaire devient ainsi un problème d’algèbre linéaire. Le calcul de chaque variable en fonction des puissances d’une forme linéaire séparante est également un problème d’algèbre linéaire (on le fait simultanément pour toutes les variables, si on veut optimiser on peut même faire une décomposition LU lors du calcul du polynôme minimal et la réutiliser). Pour éviter les problèmes de croissance de coefficients dans les calculs intermédiaires, ce calcul est effectué modulo plusieurs nombres premiers dans giac, jusqu’à pouvoir reconstruire par les restes chinois le polynôme minimal de la forme séparante sur \mathbb{Q} et les expressions des variables comme polynôme de la forme séparante (on n’a alors pas besoin de reconstruire la base de Groebner sur \mathbb{Q}). Bien entendu, il faut traiter le cas des mauvaises réductions, pour cela on regarde si les monomes de la base du quotient de l’anneau par l’idéal sont indépendants du nombre premier choisi, en cas de différence, il faut conserver le nombre premier correspondant à la liste de monômes la plus grande (l’autre nombre premier est de mauvaise réduction), ou rejeter les deux nombres premiers si aucune des deux listes de monomes ne contient l’autre.

Les fonctions solve, fsolve et cfsolve utilisent cet algorithme pour des systèmes polynomiaux qui s’y prêtent (en cherchant une forme séparante d’abord parmi les variables puis avec des combinaisons linéaires aléatoires à petits coefficients entiers), solve essaie de renvoyer des solutions exactes si le polynome minimal de la forme linéaire séparante se factorise sur \mathbb{Q}, fsolve (en mode réel) localise les racines réelles par la méthode d’Akritas, cfsolve localise les racines complexes par factorisation de Schur de la matrice companion. La fonction gbasis(eqs,vars,rur) avec comme paramètre optionnel rur effectue le calcul de la représentation univariée rationnelle et renvoie une liste contenant le polynôme minimal PP (exprimée arbitrairement en fonction de la 1ère variable du système), sa dérivee PP' et les P 1,...,P nP_1,...,P_n qui permettent d’exprimer la ii-ème variable d’une solution comme étant P i(r)/P(r)P_i(r)/P'(r) avec rr racine de PP. On peut alors vérifier que l’on a bien une solution en remplaçant la variable