Pourquoi changer 0.1 f à 0 ralentit-il les performances de 10x?
Pourquoi ce bit de code,
const float x[16] = { 1.1, 1.2, 1.3, 1.4, 1.5, 1.6, 1.7, 1.8,
1.9, 2.0, 2.1, 2.2, 2.3, 2.4, 2.5, 2.6};
const float z[16] = {1.123, 1.234, 1.345, 156.467, 1.578, 1.689, 1.790, 1.812,
1.923, 2.034, 2.145, 2.256, 2.367, 2.478, 2.589, 2.690};
float y[16];
for (int i = 0; i < 16; i++)
{
y[i] = x[i];
}
for (int j = 0; j < 9000000; j++)
{
for (int i = 0; i < 16; i++)
{
y[i] *= x[i];
y[i] /= z[i];
y[i] = y[i] + 0.1f; // <--
y[i] = y[i] - 0.1f; // <--
}
}
Exécuter plus de 10 fois plus rapide que le bit suivant (identique sauf indication contraire)?
const float x[16] = { 1.1, 1.2, 1.3, 1.4, 1.5, 1.6, 1.7, 1.8,
1.9, 2.0, 2.1, 2.2, 2.3, 2.4, 2.5, 2.6};
const float z[16] = {1.123, 1.234, 1.345, 156.467, 1.578, 1.689, 1.790, 1.812,
1.923, 2.034, 2.145, 2.256, 2.367, 2.478, 2.589, 2.690};
float y[16];
for (int i = 0; i < 16; i++)
{
y[i] = x[i];
}
for (int j = 0; j < 9000000; j++)
{
for (int i = 0; i < 16; i++)
{
y[i] *= x[i];
y[i] /= z[i];
y[i] = y[i] + 0; // <--
y[i] = y[i] - 0; // <--
}
}
Lors de la compilation avec Visual Studio 2010 SP1. (Je n'ai pas testé avec d'autres compilateurs.)
5 réponses
Bienvenue dans le monde de dénormalisée à virgule flottante! Ils peuvent faire des ravages sur la performance!!!
Les Nombres Dénormaux (ou subnormaux) sont une sorte de hack pour obtenir des valeurs supplémentaires très proches de zéro de la représentation à virgule flottante. Les opérations sur virgule flottante dénormalisée peuvent être des dizaines à des centaines de fois plus lent que sur virgule flottante normalisée. C'est parce que de nombreux processeurs ne peuvent pas les gérer directement et doivent piéger et résoudre les utilisant microcode.
Si vous imprimez les nombres après 10 000 itérations, vous verrez qu'ils ont convergé vers des valeurs différentes selon que 0
ou 0.1
est utilisé.
Voici le code de test compilé sur x64:
int main() {
double start = omp_get_wtime();
const float x[16]={1.1,1.2,1.3,1.4,1.5,1.6,1.7,1.8,1.9,2.0,2.1,2.2,2.3,2.4,2.5,2.6};
const float z[16]={1.123,1.234,1.345,156.467,1.578,1.689,1.790,1.812,1.923,2.034,2.145,2.256,2.367,2.478,2.589,2.690};
float y[16];
for(int i=0;i<16;i++)
{
y[i]=x[i];
}
for(int j=0;j<9000000;j++)
{
for(int i=0;i<16;i++)
{
y[i]*=x[i];
y[i]/=z[i];
#ifdef FLOATING
y[i]=y[i]+0.1f;
y[i]=y[i]-0.1f;
#else
y[i]=y[i]+0;
y[i]=y[i]-0;
#endif
if (j > 10000)
cout << y[i] << " ";
}
if (j > 10000)
cout << endl;
}
double end = omp_get_wtime();
cout << end - start << endl;
system("pause");
return 0;
}
Sortie:
#define FLOATING
1.78814e-007 1.3411e-007 1.04308e-007 0 7.45058e-008 6.70552e-008 6.70552e-008 5.58794e-007 3.05474e-007 2.16067e-007 1.71363e-007 1.49012e-007 1.2666e-007 1.11759e-007 1.04308e-007 1.04308e-007
1.78814e-007 1.3411e-007 1.04308e-007 0 7.45058e-008 6.70552e-008 6.70552e-008 5.58794e-007 3.05474e-007 2.16067e-007 1.71363e-007 1.49012e-007 1.2666e-007 1.11759e-007 1.04308e-007 1.04308e-007
//#define FLOATING
6.30584e-044 3.92364e-044 3.08286e-044 0 1.82169e-044 1.54143e-044 2.10195e-044 2.46842e-029 7.56701e-044 4.06377e-044 3.92364e-044 3.22299e-044 3.08286e-044 2.66247e-044 2.66247e-044 2.24208e-044
6.30584e-044 3.92364e-044 3.08286e-044 0 1.82169e-044 1.54143e-044 2.10195e-044 2.45208e-029 7.56701e-044 4.06377e-044 3.92364e-044 3.22299e-044 3.08286e-044 2.66247e-044 2.66247e-044 2.24208e-044
Notez comment dans la deuxième série, les nombres sont très proches de zéro.
Les nombres dénormalisés sont généralement rares et la plupart des processeurs n'essaient donc pas de les gérer efficacement.
À démontrer que cela a tout à voir avec les nombres dénormalisés, si nous vidons les dénormaux à zéro en ajoutant ceci au début du code:
_MM_SET_FLUSH_ZERO_MODE(_MM_FLUSH_ZERO_ON);
Alors la version avec 0
n'est plus 10 fois plus lente et devient en fait plus rapide. (Cela nécessite que le code soit compilé avec SSE activé.)
Cela signifie que plutôt que d'utiliser ces étranges valeurs de précision presque nulles, nous arrondissons simplement à zéro à la place.
Horaires: Core i7 920 @ 3.5 GHz:
// Don't flush denormals to zero.
0.1f: 0.564067
0 : 26.7669
// Flush denormals to zero.
0.1f: 0.587117
0 : 0.341406
En fin de compte, cela n'a vraiment rien à voir avec le fait qu'il s'agisse d'un entier ou d'un virgule flottante. Le 0
ou 0.1f
est converti/stocké dans un registre en dehors des deux boucles. Cela n'a donc aucun effet sur les performances.
En utilisant gcc
et en appliquant un diff à l'assemblage généré, on obtient seulement cette différence:
73c68,69
< movss LCPI1_0(%rip), %xmm1
---
> movabsq $0, %rcx
> cvtsi2ssq %rcx, %xmm1
81d76
< subss %xmm1, %xmm0
Le cvtsi2ssq
étant 10 fois plus lent en effet.
Apparemment, la version float
utilise un registre XMM chargé depuis la mémoire, tandis que la version int
convertit une valeur réelle int
0 en float
en utilisant l'instruction cvtsi2ssq
, ce qui prend beaucoup de temps. Passer -O3
à gcc n'aide pas. (version de gcc 4.2.1.)
(utiliser double
au lieu de float
n'a pas d'importance, sauf que il change le cvtsi2ssq
en un cvtsi2sdq
.)
Mise à Jour
Certains tests supplémentaires montrent que ce n'est pas nécessairement l'instruction cvtsi2ssq
. Une fois éliminé (en utilisant un int ai=0;float a=ai;
et en utilisant a
au lieu de 0
), la différence de vitesse reste. Donc @Mysticial a raison, les flotteurs dénormalisés font la différence. Cela peut être vu en testant des valeurs comprises entre 0
et 0.1f
. Le point tournant dans le code ci-dessus est approximativement à 0.00000000000000000000000000000001
, lorsque les boucles prennent soudainement 10 fois comme long.
Mise à Jour
Une petite visualisation de ce phénomène intéressant:
- colonne 1: un flottant, divisé par 2 pour chaque itération
- colonne 2: la représentation binaire de ce flottant
- colonne 3: le temps nécessaire pour additionner ce flottant 1e7 fois
Vous pouvez clairement voir l'exposant (les 9 derniers bits) changer à sa valeur la plus basse, lorsque la dénormalisation s'installe. À ce stade, l'addition simple devient 20 fois plus lent.
0.000000000000000000000000000000000100000004670110: 10111100001101110010000011100000 45 ms
0.000000000000000000000000000000000050000002335055: 10111100001101110010000101100000 43 ms
0.000000000000000000000000000000000025000001167528: 10111100001101110010000001100000 43 ms
0.000000000000000000000000000000000012500000583764: 10111100001101110010000110100000 42 ms
0.000000000000000000000000000000000006250000291882: 10111100001101110010000010100000 48 ms
0.000000000000000000000000000000000003125000145941: 10111100001101110010000100100000 43 ms
0.000000000000000000000000000000000001562500072970: 10111100001101110010000000100000 42 ms
0.000000000000000000000000000000000000781250036485: 10111100001101110010000111000000 42 ms
0.000000000000000000000000000000000000390625018243: 10111100001101110010000011000000 42 ms
0.000000000000000000000000000000000000195312509121: 10111100001101110010000101000000 43 ms
0.000000000000000000000000000000000000097656254561: 10111100001101110010000001000000 42 ms
0.000000000000000000000000000000000000048828127280: 10111100001101110010000110000000 44 ms
0.000000000000000000000000000000000000024414063640: 10111100001101110010000010000000 42 ms
0.000000000000000000000000000000000000012207031820: 10111100001101110010000100000000 42 ms
0.000000000000000000000000000000000000006103515209: 01111000011011100100001000000000 789 ms
0.000000000000000000000000000000000000003051757605: 11110000110111001000010000000000 788 ms
0.000000000000000000000000000000000000001525879503: 00010001101110010000100000000000 788 ms
0.000000000000000000000000000000000000000762939751: 00100011011100100001000000000000 795 ms
0.000000000000000000000000000000000000000381469876: 01000110111001000010000000000000 896 ms
0.000000000000000000000000000000000000000190734938: 10001101110010000100000000000000 813 ms
0.000000000000000000000000000000000000000095366768: 00011011100100001000000000000000 798 ms
0.000000000000000000000000000000000000000047683384: 00110111001000010000000000000000 791 ms
0.000000000000000000000000000000000000000023841692: 01101110010000100000000000000000 802 ms
0.000000000000000000000000000000000000000011920846: 11011100100001000000000000000000 809 ms
0.000000000000000000000000000000000000000005961124: 01111001000010000000000000000000 795 ms
0.000000000000000000000000000000000000000002980562: 11110010000100000000000000000000 835 ms
0.000000000000000000000000000000000000000001490982: 00010100001000000000000000000000 864 ms
0.000000000000000000000000000000000000000000745491: 00101000010000000000000000000000 915 ms
0.000000000000000000000000000000000000000000372745: 01010000100000000000000000000000 918 ms
0.000000000000000000000000000000000000000000186373: 10100001000000000000000000000000 881 ms
0.000000000000000000000000000000000000000000092486: 01000010000000000000000000000000 857 ms
0.000000000000000000000000000000000000000000046243: 10000100000000000000000000000000 861 ms
0.000000000000000000000000000000000000000000022421: 00001000000000000000000000000000 855 ms
0.000000000000000000000000000000000000000000011210: 00010000000000000000000000000000 887 ms
0.000000000000000000000000000000000000000000005605: 00100000000000000000000000000000 799 ms
0.000000000000000000000000000000000000000000002803: 01000000000000000000000000000000 828 ms
0.000000000000000000000000000000000000000000001401: 10000000000000000000000000000000 815 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 42 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 42 ms
0.000000000000000000000000000000000000000000000000: 00000000000000000000000000000000 44 ms
Une discussion équivalente sur ARM peut être trouvée dans Stack Overflow question virgule flottante dénormalisée dans Objective-C?.
C'est dû à une utilisation en virgule flottante dénormalisée. Comment se débarrasser de lui et de la pénalité de performance? Après avoir parcouru Internet pour trouver des moyens de tuer des nombres dénormaux, il semble qu'il n'y ait pas encore de "meilleur" moyen de le faire. J'ai trouvé ces trois méthodes qui peuvent fonctionner le mieux dans différents environnements:
-
Peut ne pas fonctionner dans certains environnements GCC:
// Requires #include <fenv.h> fesetenv(FE_DFL_DISABLE_SSE_DENORMS_ENV);
-
Peut ne pas fonctionner dans certains environnements Visual Studio: 1
// Requires #include <xmmintrin.h> _mm_setcsr( _mm_getcsr() | (1<<15) | (1<<6) ); // Does both FTZ and DAZ bits. You can also use just hex value 0x8040 to do both. // You might also want to use the underflow mask (1<<11)
-
Semble fonctionner à la fois dans GCC et Visual Studio:
// Requires #include <xmmintrin.h> // Requires #include <pmmintrin.h> _MM_SET_FLUSH_ZERO_MODE(_MM_FLUSH_ZERO_ON); _MM_SET_DENORMALS_ZERO_MODE(_MM_DENORMALS_ZERO_ON);
Le compilateur Intel a des options pour désactiver les dénormaux par défaut sur les processeurs Intel modernes. Plus de détails ici
Commutateurs du compilateur.
-ffast-math
,-msse
ou-mfpmath=sse
désactivera les dénormaux et fera quelques autres choses plus rapidement, mais malheureusement aussi faire beaucoup d'autres approximations qui pourraient casser votre code. Testez soigneusement! L'équivalent de fast-math pour le Le compilateur Visual Studio est/fp:fast
mais je n'ai pas été en mesure de confirmer si cela désactive également les dénormaux.1
Dans gcc, vous pouvez activer FTZ et DAZ avec ceci:
#include <xmmintrin.h>
#define FTZ 1
#define DAZ 1
void enableFtzDaz()
{
int mxcsr = _mm_getcsr ();
if (FTZ) {
mxcsr |= (1<<15) | (1<<11);
}
if (DAZ) {
mxcsr |= (1<<6);
}
_mm_setcsr (mxcsr);
}
Utilisez également les commutateurs gcc: - msse-mfpmath=sse
(crédits correspondants à Carl Hetherington [1])
Le Commentaire de Dan Neely devrait être élargi en une réponse:
Ce n'est pas la constante zéro 0.0f
qui est dénormalisée ou qui provoque un ralentissement, ce sont les valeurs qui approchent zéro à chaque itération de la boucle. Comme ils se rapprochent de plus en plus de zéro, ils ont besoin de plus de précision pour représenter et ils deviennent dénormalisés. Ce sont les valeurs y[i]
. (Ils approchent zéro car x[i]/z[i]
est inférieur à 1,0 pour tous les i
.)
La différence cruciale entre le lent et les versions rapides du code sont l'instruction y[i] = y[i] + 0.1f;
. Dès que cette ligne est exécutée à chaque itération de la boucle, la précision supplémentaire dans le flottant est perdue, et la dénormalisation nécessaire pour représenter cette précision n'est plus nécessaire. Ensuite, les opérations en virgule flottante sur y[i]
restent rapides car elles ne sont pas dénormalisées.
Pourquoi la précision supplémentaire est-elle perdue lorsque vous ajoutez 0.1f
? Parce que les nombres à virgule flottante n'ont que tant de chiffres significatifs. Dites que vous avez assez de stockage pour trois chiffres significatifs, puis 0.00001 = 1e-5
et 0.00001 + 0.1 = 0.1
, au moins pour cet exemple de format float, car il n'a pas de place pour stocker le bit le moins significatif dans 0.10001
.
En bref, y[i]=y[i]+0.1f; y[i]=y[i]-0.1f;
n'est pas le no-op que vous pourriez penser.
Mystical a dit cela aussi: le contenu des flotteurs compte, pas seulement le code d'assemblage.