SSD : mesures hdparm V0

SSD : mesures hdparm V0 jpp

Les tests ont été refaits avec de nouveaux noyaux. 
La première série de tests a été réalisée avec l'utilitaire "hdparm" dont l'option "-t" permet de mesurer un débit IO en lecture. 
Pour les machines que j'ai utilisées il s'agit des disques sda,sdb,sdc,sdd. L'une de ces machines est munie de disques en miroir, il a donc été nécessaire d'agir sur deux disques simultanément pour changer de scheduler. 
Premier test. 
Les résultats sont les suivants (valeurs en MO/seconde, le plus fort est le mieux !) : 

 

RAM 8GO     Quadcore kernel 2.6.30-2  
hdparm   hdparm hdparm hdparm TOTAL    
SSD RAID Noop 115,51 107,73 104,52 327,76 33,564% X
  CFQ 100,90 107,83 114,66 323,39 33,117%  
  Deadline 119,11 100,42 105,84 325,37 33,319%  
    335,52 315,98 325,02 976,52    
               
SATA RAID Noop 75,59 75,29 75,11 225,99 33,481% X
  CFQ 75,25 73,39 75,66 224,30 33,231%  
  Deadline 76,06 75,11 73,52 224,69 33,288%  
    226,90 223,79 224,29 674,98 SATA/SSD 69,12%
               
RAM 8GO     Dualcore kernel 2.6.31  
hdparm   hdparm hdparm hdparm TOTAL    
SSD Noop 133,35 132,61 131,89 397,85 33,241%  
  CFQ 131,36 132,33 134,13 397,82 33,238%  
  Deadline 133,63 133,96 133,61 401,20 33,521% X
    398,34 398,90 399,63 1196,87    
               
SATA RAID Noop 68,91 69,31 69,29 207,51 32,097%  
  CFQ 73,13 73,26 73,15 219,54 33,958% X
  Deadline 73,12 73,03 73,31 219,46 33,945%  
    215,16 215,60 215,75 646,51 SATA/SSD 54,02%
               
RAM 8GO     Quadcore kernel 2.6.32  
hdparm   hdparm hdparm hdparm TOTAL    
SSD RAID Noop 77,18 61,33 71,93 210,44 27,693%  
  CFQ 79,72 102,37 98,66 280,75 36,946% X
  Deadline 75,83 92,08 100,79 268,70 35,360%  
    232,73 255,78 271,38 759,89    
               
SATA RAID Noop 75,25 74,33 73,52 223,10 33,258%  
  CFQ 73,47 75,73 75,64 224,84 33,517% X
  Deadline 75,77 73,64 73,47 222,88 33,225%  
    224,49 223,70 222,63 670,82 SATA/SSD 88,28%
               
RAM 8GO     Quadcore kernel 2.6.33-rc5  
hdparm   hdparm hdparm hdparm TOTAL    
SSD RAID Noop 71,98 75,83 92,32 240,13 36,264%  
  CFQ 60,95 60,86 59,73 181,54 27,416%  
  Deadline 89,27 76,18 75,06 240,51 36,321% X
    222,20 212,87 227,11 662,18    
               
SATA RAID Noop 73,52 74,34 75,82 223,68 33,373%  
  CFQ 76,77 73,98 73,80 224,55 33,502% X
  Deadline 73,43 75,21 73,38 222,02 33,125%  
    223,72 223,53 223,00 670,25 SATA/SSD 101,22%

 

Constatation 1 : 
Les résultats sont très serrés, les différences sont peu marquantes et ne font en général que quelques pourcents. 
Constatation 2 : 
Les résultats sont différents sur la même machine avec des noyaux différents. 
Constatation 3 : 
Les résultats SSD sont meilleurs sur le Dualcore ... c'est normal, il ne s'agit pas du même SSD mais  d'un modèle vendu comme plus performant (et cela a l'air vrai) ... mais malheureusement nettement plus cher. 
Les résultats obtenus avec un noyau  > 2.6.32 sont un peu bizarres, à partir du 2.6.33 un des schedulers a disparu, je n'ai pas trouvé trace du "anticipatory scheduler", il ne reste que NOOP, CFQ et DEADLINE, les résultats sont comme pour le 2.6.32 très bizarres sur la partie SSD et se tiennent bien sur la partie SATA. J'ai oté toutes référence au scheduler "anticipatory" pour avoir des tableaux comparables sur toutes les versions. 

Le SSD présente des anomalies importantes de vitesse sur les noyaux récents :

  • Noyau 2.6.32 
    • Mini de 61,33
    • Maxi de 102,37 soit un écart de plus de 60% !
    • Alors que la partie SATA présente un écart inférieur à 3%.
  • Noyau 2.6.33
    • Mini de 59,73
    • Maxi de 92,32 soit un écart de près de 60%
    • Alors que la partie SATA présente un écart inférieur à 5%.

Les tests "hdparm" semblent complètement dépassés pour les dernières versions du noyau. Les indications relatives de ce test ne sont valables que pour les noyaux < 2.6.32. D'autre part les améliorations apportées par les noyaux >= 2.6.32 sont bel et bien ressenties à l'utilisation, voir les tests de compilation. 
Voir aussi la page sur les nouveaux tests "hdparm" éxécutés avec l'option " --direct" permettant d'utiliser plus directement le hardware.