dd: comment calculer blocksize optimale? [fermé]

Comment calculez-vous la taille de bloc optimale lors de l'exécution d'un dd? J'ai fait des recherches un peu et je n'ai rien trouvé suggérant comment cela serait accompli.

J'ai l'impression qu'une taille de bloc plus grande entraînerait un dd plus rapide... est-ce vrai?

Je suis sur le point de {[0] } deux disques durs Hitachi 500GB identiques qui fonctionnent à 7200rpm sur une boîte exécutant un Intel Core i3 avec 4GB DDR3 1333mhz RAM, donc j'essaie de comprendre quelle taille de bloc utiliser. (Je vais être démarrer Ubuntu 10.10 x86 à partir d'un lecteur flash, et l'exécuter à partir de cela.)

87
demandé sur eckza 2011-05-28 17:06:33

6 réponses

La taille de bloc optimale dépend de divers facteurs, y compris le système d'exploitation (et sa version), et les différents bus matériels et disques impliqués. Plusieurs systèmes de type Unix (y compris Linux et au moins quelques saveurs de BSD) définissent le membre st_blksize dans le {[2] } qui donne ce que le noyau pense être la taille de bloc optimale:

#include <sys/stat.h>
#include <stdio.h>

int main(void)
{
    struct stat stats;

    if (!stat("/", &stats))
    {
        printf("%u\n", stats.st_blksize);
    }
}

La meilleure façon peut être d'expérimenter: copier un gigaoctet avec différentes tailles de blocs et le temps que. (N'oubliez pas d'Effacer les caches du tampon du noyau avant chaque exécuter: echo 3 > /proc/sys/vm/drop_caches).

Cependant, en règle générale, j'ai trouvé qu'une taille de bloc assez grande permet à dd de faire un bon travail, et les différences entre, disons, 64 KiB et 1 MiB sont mineures, par rapport à 4 KiB contre 64 KiB. (Bien que, certes, cela fait un moment que je ne l'ai pas fait. J'utilise un mebibyte par défaut maintenant, ou laissez simplement dd Choisir la taille.)

75
répondu Boiethios 2017-07-29 07:26:52

Comme d'autres l'ont dit, il n'y a pas de taille de bloc universellement correcte; ce qui est optimal pour une situation ou un morceau de matériel peut être terriblement inefficace pour une autre. Aussi, en fonction de l'état des disques, il peut être préférable d'utiliser une taille de bloc différente que ce qui est "optimale".

Une chose qui est assez fiable sur le matériel moderne est que la taille de bloc par défaut de 512 octets a tendance à être presque un ordre de grandeur plus lent qu'une alternative plus optimale. Dans le doute, j'ai trouvé que 64K est un défaut moderne assez solide. Bien que 64K ne soit généralement pas la taille de bloc optimale, d'après mon expérience, il a tendance à être beaucoup plus efficace que la valeur par défaut. 64K a également une histoire assez solide d'être fiable performant: vous pouvez trouver un message de la liste de diffusion Eug-Lug, vers 2002, recommandant une taille de bloc de 64K ici: http://www.mail-archive.com/eug-lug@efn.org/msg12073.html

Pour déterminer la taille optimale du bloc de sortie, j'ai écrit ce qui suit script qui teste l'écriture D'un fichier de test de 128M avec dd à une plage de différentes tailles de blocs, de la valeur par défaut de 512 octets à un maximum de 64M. Soyez averti, ce script utilise dd en interne, utilisez donc avec prudence.

Dd_obs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_obs_testfile}
TEST_FILE_EXISTS=0
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=1; fi
TEST_FILE_SIZE=134217728

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Calculate number of segments required to copy
  COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))

  if [ $COUNT -le 0 ]; then
    echo "Block size of $BLOCK_SIZE estimated to require $COUNT blocks, aborting further tests."
    break
  fi

  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Create a test file with the specified block size
  DD_RESULT=$(dd if=/dev/zero of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync 2>&1 1>/dev/null)

  # Extract the transfer rate from dd's STDERR output
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  # Clean up the test file if we created one
  if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

  # Output the result
  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

Voir sur GitHub

J'ai seulement testé ce script sur un système Debian (Ubuntu) et sur OSX Yosemite, donc il faudra probablement quelques ajustements pour faire fonctionner d'autres saveurs Unix.

Par défaut, la commande va créer un fichier de test nommé dd_obs_testfile dans le répertoire courant. Vous pouvez également fournir un chemin d'accès à un fichier de test personnalisé en fournissant un chemin après le nom du script:

$ ./dd_obs_test.sh /path/to/disk/test_file

La sortie du script est une liste des tailles de blocs testées et de leur transfert respectif tarifs comme ça:

$ ./dd_obs_test.sh
block size : transfer rate
       512 : 11.3 MB/s
      1024 : 22.1 MB/s
      2048 : 42.3 MB/s
      4096 : 75.2 MB/s
      8192 : 90.7 MB/s
     16384 : 101 MB/s
     32768 : 104 MB/s
     65536 : 108 MB/s
    131072 : 113 MB/s
    262144 : 112 MB/s
    524288 : 133 MB/s
   1048576 : 125 MB/s
   2097152 : 113 MB/s
   4194304 : 106 MB/s
   8388608 : 107 MB/s
  16777216 : 110 MB/s
  33554432 : 119 MB/s
  67108864 : 134 MB/s

(Remarque: l'unité des taux de transfert varie selon le système D'exploitation)

Pour tester une taille de bloc de lecture optimale, vous pouvez utiliser plus ou moins le même processus, mais au lieu de lire depuis / dev / zero et d'écrire pour le disque, vous aviez lu à partir de le disque et écrire dans / dev / null. Un script pour faire cela pourrait ressembler à ceci:

Dd_ibs_test.sh:

#!/bin/bash

# Since we're dealing with dd, abort if any errors occur
set -e

TEST_FILE=${1:-dd_ibs_testfile}
if [ -e "$TEST_FILE" ]; then TEST_FILE_EXISTS=$?; fi
TEST_FILE_SIZE=134217728

# Exit if file exists
if [ -e $TEST_FILE ]; then
  echo "Test file $TEST_FILE exists, aborting."
  exit 1
fi
TEST_FILE_EXISTS=1

if [ $EUID -ne 0 ]; then
  echo "NOTE: Kernel cache will not be cleared between tests without sudo. This will likely cause inaccurate results." 1>&2
fi

# Create test file
echo 'Generating test file...'
BLOCK_SIZE=65536
COUNT=$(($TEST_FILE_SIZE / $BLOCK_SIZE))
dd if=/dev/urandom of=$TEST_FILE bs=$BLOCK_SIZE count=$COUNT conv=fsync > /dev/null 2>&1

# Header
PRINTF_FORMAT="%8s : %s\n"
printf "$PRINTF_FORMAT" 'block size' 'transfer rate'

# Block sizes of 512b 1K 2K 4K 8K 16K 32K 64K 128K 256K 512K 1M 2M 4M 8M 16M 32M 64M
for BLOCK_SIZE in 512 1024 2048 4096 8192 16384 32768 65536 131072 262144 524288 1048576 2097152 4194304 8388608 16777216 33554432 67108864
do
  # Clear kernel cache to ensure more accurate test
  [ $EUID -eq 0 ] && [ -e /proc/sys/vm/drop_caches ] && echo 3 > /proc/sys/vm/drop_caches

  # Read test file out to /dev/null with specified block size
  DD_RESULT=$(dd if=$TEST_FILE of=/dev/null bs=$BLOCK_SIZE 2>&1 1>/dev/null)

  # Extract transfer rate
  TRANSFER_RATE=$(echo $DD_RESULT | \grep --only-matching -E '[0-9.]+ ([MGk]?B|bytes)/s(ec)?')

  printf "$PRINTF_FORMAT" "$BLOCK_SIZE" "$TRANSFER_RATE"
done

# Clean up the test file if we created one
if [ $TEST_FILE_EXISTS -ne 0 ]; then rm $TEST_FILE; fi

Voir sur GitHub

Une importante différence dans ce cas est que le fichier de test est un fichier qui est écrit par le script. Ne pointez pas cette commande sur un fichier existant ou le fichier existant sera écrasé par des zéros!

Pour mon matériel particulier, J'ai trouvé que 128K était la taille de bloc d'entrée la plus optimale sur un disque dur et 32K était le plus optimal sur un SSD.

Bien que cette réponse couvre la plupart de mes résultats, j'ai rencontré cette situation assez de fois que j'ai écrit un billet de blog à ce sujet: http://blog.tdg5.com/tuning-dd-block-size / Vous pouvez trouver plus de détails sur les tests que j'ai effectués là-bas.

49
répondu tdg5 2016-11-13 15:58:39

J'ai trouvé que ma taille de bloc optimale était de 8 Mo (égale au cache disque?) J'avais besoin d'essuyer (certains disent: laver) l'espace vide sur un disque avant de créer une image compressée de celui-ci. J'ai utilisé:

cd /media/DiskToWash/
dd if=/dev/zero of=zero bs=8M; rm zero

J'ai expérimenté avec des valeurs de 4K à 100M.

Après avoir laissé dd courir pendant un moment, je l'ai tué (Ctlr + C)et lu la sortie:

36+0 records in
36+0 records out
301989888 bytes (302 MB) copied, 15.8341 s, 19.1 MB/s

Comme dd affiche le taux d'entrée/sortie (19,1 Mo/s dans ce cas), il est facile de voir si la valeur que vous avez choisie est meilleure que la précédente l'un ou pour le pire.

Mes scores:

bs=   I/O rate
---------------
4K    13.5 MB/s
64K   18.3 MB/s
8M    19.1 MB/s <--- winner!
10M   19.0 MB/s
20M   18.6 MB/s
100M  18.6 MB/s
7
répondu unfa 2014-08-02 16:13:12

Vous pouvez essayer d'utiliser jj-opt, un petit utilitaire que j'ai écrit.

(améliorations / raffinements bienvenus!)

4
répondu sampablokuper 2012-04-18 23:38:02

C'est totalement dépendant du système. Vous devriez expérimenter pour trouver la solution optimale. Essayez de commencer par bs=8388608. (Comme Hitachi HDD semble avoir 8 Mo de cache.)

3
répondu ssapkota 2011-05-28 13:24:40
  • pour une meilleure performance, utilisez la plus grande taille de bloc que vous pouvez accueillir (enverra moins d'appels d'E / S au système d'exploitation)
  • pour une meilleure précision et une meilleure récupération de données, définissez la taille de bloc sur la taille de secteur native de l'entrée

Lorsque dd copie des données avec l'option conv=NOERROR,sync, toute erreur qu'il rencontre entraînera le remplacement du reste du bloc par zéro-octets. Les plus grandes tailles de blocs copieront plus rapidement, mais chaque fois qu'une erreur est rencontrée, le reste le bloc est ignoré.

Source

0
répondu eadmaster 2013-11-03 13:12:47