Performance of bcp / BULK INSERT vs. Table-Valued Parameters

je suis sur le point de devoir réécrire un code plutôt ancien en utilisant la commande BULK INSERT de SQL Server parce que le schéma a changé, et il m'est venu à l'esprit que peut-être je devrais penser à passer à une procédure stockée avec un TVP à la place, mais je me demande quel effet cela pourrait avoir sur les performances.

quelques renseignements généraux qui pourraient aider à expliquer pourquoi je pose cette question:

  • via un service web. Le service web écrit un fichier texte dans un dossier partagé sur le serveur de base de données qui à son tour effectue un BULK INSERT . Ce processus a été à l'origine mis en œuvre sur SQL Server 2000, et à l'époque il n'y avait vraiment pas d'autre alternative que de découper quelques centaines de INSERT déclarations sur le serveur, qui était en fait le processus original et était un désastre de performance.

  • les données sont insérées en vrac dans un table de staging et ensuite fusionné dans une table beaucoup plus grande (après quoi il est supprimé de la table de staging).

  • la quantité de données à insérer est" grande", mais pas" énorme " - habituellement quelques centaines de lignes, peut-être 5-10K lignes en haut dans de rares cas. Par conséquent, mon intuition est que BULK INSERT étant une opération non-enregistrée ne fera pas que grande différence (mais bien sûr, je ne suis pas sûr, d'où la question).

  • l'insertion fait en fait partie d'un procédé par lots pipeliné beaucoup plus important et doit se produire plusieurs fois de suite; par conséquent, la performance est critique.

les raisons pour lesquelles je voudrais remplacer le BULK INSERT par un TVP sont:

  • écrire le fichier texte sur NetBIOS coûte probablement déjà un certain temps, et il est assez horrible à partir d'un point de vue architectural.

  • je crois que la mise en scène de la table peut (et doit) être éliminé. La principale raison pour laquelle il est là est que les données insérées doit être utilisé pour un couple d'autres mises à jour en même temps de l'insertion, et il est beaucoup plus coûteux de tenter la mise à jour à partir de la table de production massive qu'il est d'utiliser une table de staging presque vide. Avec une TVP, le paramètre essentiellement est le mise en scène de la table, je peux faire ce que je veux avec elle avant/après l'insertion.

  • je pourrais très bien me débarrasser de la vérification du dupe, du code de nettoyage, et de tous les frais généraux associés aux encarts en vrac.

  • pas besoin de s'inquiéter de lock contention sur la table de staging ou tempdb si le serveur obtient quelques-unes de ces transactions à la fois (nous essayons de l'éviter, mais cela arrive).

je vais évidemment établir le profil avant de mettre quoi que ce soit en production, mais j'ai pensé que ce pourrait être une bonne idée de demander autour d'abord avant que je passe tout ce temps, voir si quelqu'un a des avertissements sévères à émettre sur l'utilisation de TVPs à cette fin.

donc - pour quiconque est assez à l'aise avec SQL Server 2008 pour avoir essayé ou au moins enquêté là-dessus, Quel est le verdict? Pour les insertions de, disons, quelques centaines à quelques milliers de lignes, qui se passe assez souvent, les TVP coupent-ils la moutarde? Est-il une différence significative dans les performances par rapport à des insertions?


mise à jour: maintenant avec 92% moins de points d'interrogation!

(alias: résultats des tests)

le résultat final est maintenant en production après ce qui ressemble à un processus de déploiement en 36 étapes. Les deux solutions ont été longuement testées:

  • arrachant le code du dossier partagé et utilisant directement la classe SqlBulkCopy ;
  • passe à une procédure stockée avec TVPs.

juste pour que les lecteurs puissent avoir une idée de ce que exactement a été testé, pour dissiper tout doute quant à la fiabilité de ces données, Voici une explication plus détaillée de ce que ce processus d'importation fait réellement :

  1. commencer par une séquence temporelle de données qui est habituellement d'environ 20-50 points de données (bien qu'elle puisse parfois être de quelques centaines);

  2. font un tas de traitement fou sur elle qui est la plupart du temps indépendant de la base de données. Ce processus est parallélisé, de sorte qu'environ 8-10 des séquences dans (1) sont traitées en même temps. Chaque processus parallèle génère 3 séquences supplémentaires.

  3. prendre les 3 séquences et la séquence originale et les combiner dans un lot.

  4. combinez les lots des 8-10 tâches de traitement maintenant terminées en un grand super-lot.

  5. Importer à l'aide de la BULK INSERT de la stratégie (voir étape suivante), ou de la TVP de la stratégie (passez à l'étape 8).

  6. utilisez la classe SqlBulkCopy pour décharger la totalité super-lot en 4 tables de staging permanentes.

  7. exécuter une procédure stockée qui (a) effectue un ensemble d'étapes d'agrégation sur 2 des tables, y compris plusieurs conditions JOIN , et (b) effectue ensuite un MERGE sur 6 tables de production en utilisant à la fois les données agrégées et non agrégées. (Terminé)

    ou

  8. Générer de 4 DataTable objets contenant les données à fusionner; 3 d'entre eux contiennent des types CLR qui ne sont malheureusement pas correctement supportés par ADO.NET les TVP, donc ils doivent être introduits comme des représentations de cordes, ce qui nuit un peu à la performance.

  9. alimenter les TVP à un procédé stocké, qui fait essentiellement le même traitement que (7), mais directement avec les tableaux reçus. (Fini)

les résultats étaient raisonnablement proches, mais l'approche TVP s'est finalement avérée plus efficace en moyenne, même lorsque les données dépassaient de peu les 1000 lignes.

notez que ce processus d'importation est exécuté plusieurs milliers de fois de suite, il était donc très facile d'obtenir un temps moyen simplement en comptant combien d'heures (Oui, heures) il a fallu pour terminer toutes les fusions.

à l'origine, une fusion moyenne a pris presque exactement 8 secondes (sous charge normale). La suppression du NetBIOS kludge et le passage à SqlBulkCopy ont réduit le temps à presque exactement 7 secondes. Le passage à la TVPs a réduit encore le temps à 5,2 secondes par lot. C'est une amélioration de 35% en débit pour un procédé dont la durée de fonctionnement est mesurée en heures - donc pas mal du tout. C'est aussi une amélioration d'environ 25% par rapport à SqlBulkCopy .

je suis en fait assez confiant que le véritable amélioration est beaucoup plus que cela. Au cours des essais, il est devenu évident que la fusion finale n'était plus le chemin critique; au lieu de cela, le Service Web qui faisait tout le traitement des données commençait à céder sous le nombre de demandes reçues. Ni le CPU ni l'E/S de la base de données n'étaient vraiment au maximum, et il n'y avait pas d'activité de verrouillage importante. Dans certains cas, nous avons observé un écart de quelques secondes inactives entre les fusions successives. Il y avait un léger écart, mais beaucoup plus petit (une demi-seconde environ) en utilisant SqlBulkCopy . Mais je suppose que cela deviendra une histoire pour un autre jour.

Conclusion: les Paramètres de la Table vraiment faire mieux que les BULK INSERT opérations complexes d'importation+transformer les processus d'exploitation sur le milieu de la taille des ensembles de données.


je voudrais ajouter un autre point, juste pour apaiser toute appréhension de la part des gens qui sont pro-mise en scène-tables. D'une certaine manière, tout ce service est un gigantesque processus de mise en scène. Chaque étape du processus est lourdement audité, donc nous ne besoin une table d'étape pour déterminer pourquoi une fusion particulière a échoué (bien que dans la pratique, il se produit presque jamais). Tout ce que nous avons à faire est de mettre un drapeau de débogage dans le service et il va casser au débogueur ou balancer ses données dans un fichier au lieu de la base de données.

En d'autres termes, nous avons déjà plus de assez de perspicacité dans le processus et n'ont pas besoin de la sécurité d'une table de staging; la seule raison pour laquelle nous avions la table de staging en premier lieu était d'éviter de frapper sur toutes les déclarations INSERT et UPDATE que nous aurions dû utiliser autrement. Dans le processus original, les données de stadification ne vivaient dans la table de stadification que pour des fractions d'une seconde de toute façon, de sorte qu'elles n'ajoutaient aucune valeur en termes de maintenance/maintenabilité.

aussi noter que nous avons Non remplace chaque opération BULK INSERT par des TVP. Plusieurs opérations qui traitent de plus grandes quantités de données et/ou n'ont pas besoin de faire quoi que ce soit de spécial avec les données autres que de le jeter à la DB utilisent encore SqlBulkCopy . Je ne dis pas que les TVP sont une panacée de la performance, mais seulement qu'ils ont réussi plus de SqlBulkCopy dans ce cas précis impliquant plusieurs transformations entre la mise en scène initiale et la fusion finale.

Alors voilà. Le Point revient à TToni pour trouver le lien le plus pertinent, mais j'apprécie également les autres réponses. Merci encore!

71
demandé sur Aaronaught 2010-01-27 23:07:02

4 réponses

Je n'ai pas vraiment d'expérience avec TVP encore, mais il y a un joli tableau de comparaison de performance par rapport à encart en vrac dans MSDN ici .

ils disent que BULK INSERT a un coût de démarrage plus élevé, mais est plus rapide par la suite. Dans un scénario client distant, ils dessinent la ligne à environ 1000 lignes (pour la logique "simple" du serveur). À en juger par leur description, je dirais que vous devriez être d'accord avec les TVP. La performance hit - le cas échéant - est probablement négligeable et les avantages architecturaux semblent très bons.

modifier: sur une note latérale, vous pouvez éviter le fichier server-local et encore utiliser la copie en vrac en utilisant L'objet SqlBulkCopy. Il suffit de peupler un DataTable et de l'insérer dans la méthode "WriteToServer"D'une instance SqlBulkCopy. Facile à utiliser, et très rapide.

8
répondu TToni 2010-01-27 20:34:19

je pense que je m'en tiendrais toujours à une approche en vrac. Vous pouvez trouver que tempdb est toujours frappé en utilisant un TVP avec un nombre raisonnable de lignes. C'est mon instinct, je ne peux pas dire que j'ai testé la performance de L'utilisation de TVP (je suis intéressé à entendre d'autres entrées aussi bien)

vous ne mentionnez pas si vous utilisez .NET, mais l'approche que j'ai prise pour optimiser les solutions précédentes était de faire une charge de données en vrac en utilisant la classe SqlBulkCopy - vous vous n'avez pas besoin d'écrire les données dans un fichier avant le chargement, il suffit de donner la classe SqlBulkCopy (e.g.) un DataTable - c'est la manière la plus rapide d'insérer des données dans le DB. 5-10K lignes n'est pas beaucoup, j'ai utilisé ce jusqu'à 750 K lignes. Je soupçonne qu'en général, avec quelques centaines de rangées, cela ne ferait pas une grande différence en utilisant un TVP. Mais augmenter la taille serait limité IMHO.

peut-être la nouvelle fonctionnalité fusionner dans SQL 2008 serait vous bénéficiez?

aussi, si votre table de staging existante est une table unique qui est utilisée pour chaque instance de ce processus et vous êtes inquiet de la dispute etc, avez-vous envisagé de créer une nouvelle table de staging "temporaire" mais physique à chaque fois, puis la laisser tomber quand il est terminé avec?

Note Vous pouvez optimiser le chargement dans cette table de staging, en la peuplant sans aucun index. Ensuite, une fois rempli, ajoutez tous les index requis sur à ce point (FILLFACTOR=100 pour une performance de lecture optimale, car à ce point il ne sera pas mis à jour).

4
répondu AdaTheDev 2010-01-27 22:06:10

le graphique mentionné en ce qui concerne le lien fourni dans la réponse de @TToni doit être pris dans son contexte. Je ne suis pas certain de la quantité de recherche réelle qui a été consacrée à ces recommandations (notez également que le tableau ne semble être disponible que dans les versions 2008 et 2008 R2 de cette documentation).

d'autre part, il y a ce livre blanc de L'équipe de conseil client de SQL Server: maximiser le débit avec TVP

j'utilise les TVP depuis 2009 et j'ai constaté, du moins d'après mon expérience, que pour autre chose que de simples insertions dans une table de destination sans besoins de logique supplémentaires (ce qui est rarement le cas), alors les TVP sont généralement la meilleure option.

j'ai tendance à éviter le transfert de tables que la validation des données doit être effectué à l'application de la couche. En utilisant TVPs, qui est facilement accommodé et la Variable de Table TVP dans la procédure stockée est, par sa nature même, table de staging localisée (donc pas de conflit avec d'autres processus tournant en même temps comme on obtient en utilisant une vraie table de staging).

en ce qui concerne les tests effectués dans la Question, je pense qu'on pourrait montrer qu'il est encore plus rapide que ce qui a été trouvé à l'origine:

  1. vous ne devriez pas utiliser un DataTable, à moins que votre application ait une utilisation pour cela en dehors de l'envoi des valeurs à la TVP. L'utilisation de l'interface IEnumerable<SqlDataRecord> est plus rapide et utilise moins de mémoire car vous ne dupliquez pas la collection en mémoire seulement pour l'Envoyer à la DB. J'ai cette documenté dans les endroits suivants:
  2. Les TVP
  3. sont des Variables de tableau et, en tant que telles, ne tiennent pas de statistiques. Ce qui signifie qu'ils déclarent n'avoir qu'une seule rangée à L'Optimiseur de requête. Donc, dans votre proc, soit:
    • utiliser le niveau de l'énoncé recompile sur toutes les requêtes en utilisant le TVP pour tout autre QU'un simple SELECT: OPTION (RECOMPILE)
    • créer un local temporaire table (i.e. simple # ) et copier le contenu de la TVP dans la table de temp
3
répondu Solomon Rutzky 2017-05-23 12:31:59

les tables de mise en scène sont bonnes! Vraiment, je ne voudrais pas faire d'une autre manière. Pourquoi? Parce que les importations de données peuvent changer de façon inattendue (et souvent d'une manière que vous ne pouvez pas prévoir, comme l'heure où les colonnes étaient encore appelées prénom et nom de famille mais avaient les données de prénom dans la colonne Nom de famille, par exemple, pour choisir un exemple pas au hasard.) Facile de rechercher le problème avec une table de staging de sorte que vous pouvez voir exactement quelles données étaient dans les colonnes l'importation a manipulé. Plus difficile à trouver je pense quand vous utilisez une table en mémoire. Je connais beaucoup de gens qui font des importations pour gagner leur vie comme je le fais et tous recommandent d'utiliser des tables de staging. Je soupçonne qu'il ya une raison pour cela.

il est plus facile et moins long de modifier un petit schéma d'un processus de travail que de le remanier. Si cela fonctionne et que personne n'est disposé à payer pour des heures pour le changer, alors seulement corriger ce qui doit être corrigé en raison du changement de schéma. En changeant tout le processus, vous introduisez beaucoup plus de nouveaux bogues potentiels qu'en apportant un petit changement à un processus de travail existant et testé.

et comment allez-vous supprimer toutes les tâches de nettoyage des données? Vous les faites peut-être différemment, mais il faut quand même les faire. Encore une fois, changer le processus comme vous le décrivez est très risqué.

personnellement, il me semble que vous êtes juste offensés par l'utilisation de techniques plus anciennes plutôt que d'avoir la chance de jouer avec de nouveaux jouets. Vous semblez ne pas avoir de base réelle pour vouloir changer autre que encart en vrac est donc 2000.

1
répondu HLGEM 2010-01-27 21:56:54