Nous avons comparé la multiplication à plusieurs chiffres de python et de C (gmp de gnu). Le temps de calcul sur un ordinateur personnel (4Ghz) est indiqué ci-dessous (unité: secondes). Décimal 300 millions de chiffres (résultat) Calculé dans l'ordre de 1 fois à la moitié du nombre de chiffres et plusieurs fois. La valeur à l'extrême droite est le temps calculé 128 fois en décimal 2,36 millions de chiffres. python : 1627, 1084, 723, 482, 322, 215, 143, 96 (s) gnu(gmp) : 4.5, 3.9, 3.7, 3,4, 3.2, 2.8, 2.6, 2.2 (s) Vous pouvez voir que python utilise la méthode Karatsuba et que gmp utilise FMT (entier FFT) avec plus de 1000 chiffres. python a deux fois plus de chiffres et prend trois fois plus de temps (1,5 fois dans l'ordre inverse dans l'exemple). Puisque gmp est un calcul FMT, il s'agit du rapport log (nombre de chiffres) par le nombre de chiffres x le nombre de fois. Voir la multiplication à plusieurs chiffres du programme python sur https://ecc-256.com pour la source python et les résultats détaillés pour les deux. Fait intéressant, python n'est qu'environ deux fois plus lent en décimal 20 à 200 chiffres (les deux sont énormes). C'est probablement parce qu'il faut beaucoup de temps pour sécuriser un emplacement pour stocker les résultats et le pointeur. python est lent à convertir a en décimal avec d10 = format (a). La conversion prend quatre fois plus longtemps que la multiplication prend deux fois plus de chiffres et trois fois plus longtemps. Les temps de multiplication et de conversion de 1,18 million de chiffres, 2,36 millions de chiffres et 4,72 millions de chiffres sont affichés dans l'ordre. Multiplier: 0.24, 0.72, 2,19 (s), Convertir: 19, 77, 308 (s)