[HFR] Actu : Premières cartes SAS 12 Gb/s chez LSI

Actu : Premières cartes SAS 12 Gb/s chez LSI [HFR] - HFR - Hardware

Marsh Posté le 17-07-2013 à 14:40:02   0  

LSI est le premier à lancer des cartes contrôleurs SAS 12 Gb /s. Cette nouvelle norme permet d'atteindre 1,2 Go /s utiles par port en pratique (avec un codage ...
Lire la suite ...

Reply

Marsh Posté le 17-07-2013 à 14:40:02   

Reply

Marsh Posté le 17-07-2013 à 19:02:55   0  

Heu !!! cela sert à quoi ces cartes SAS ??

Reply

Marsh Posté le 17-07-2013 à 19:19:57   0  

Citation :

Chaque carte serait capable d'atteindre un cumul de 1 millions d'IOPS et une bande passante de 4,8 Go/s par connecteur relié à 4 disque mais 6 Go/s au total, on note donc une limitation à ce niveau par rapport à la bande passante maximale théorique.

 
Ben non ? Pourquoi ? La réponse est dans l'overhead et les pertes d'encodage.
Explication :  
PCIe 3.0 x8 =
8 (nombre de lignes) x 8GT/s (vrai vitesse d'une ligne) / 8 (1GT/s = 1bit/s donc on veux les Octets nous puisqu'on parle en Octetcs) = 7.45Go/s  
Sauf que le SAS est en 8b/10b soit 20% d'overhead, et sur 7.45GO, reste plus que 5.96GO/s de données utiles. CQFD non ?
 
Edit : correction des valeurs la con, vue qu'on par de GT pour convertir en octets et que 1ko = 1024o avec l'overhead de 1.54 ...
En gros, 8x8x10^9/8/1024/1024/1024=7.45

Message cité 1 fois
Message édité par MysterieuseX le 17-07-2013 à 19:35:04
Reply

Marsh Posté le 17-07-2013 à 19:23:28   0  

Si ça pouvait faire baisser le prix des cartes SAS 6 Gbps...

Reply

Marsh Posté le 17-07-2013 à 20:03:54   0  

MysterieuseX a écrit :

Citation :

Chaque carte serait capable d'atteindre un cumul de 1 millions d'IOPS et une bande passante de 4,8 Go/s par connecteur relié à 4 disque mais 6 Go/s au total, on note donc une limitation à ce niveau par rapport à la bande passante maximale théorique.

 
Ben non ? Pourquoi ? La réponse est dans l'overhead et les pertes d'encodage.
Explication :  
PCIe 3.0 x8 =
8 (nombre de lignes) x 8GT/s (vrai vitesse d'une ligne) / 8 (1GT/s = 1bit/s donc on veux les Octets nous puisqu'on parle en Octetcs) = 8Go/s MAIS ! Largeur du bus PCIe 3.0 = 130b, pour des mots de 128b (soit 128/130) = 1.54% d'overhead (donc en fait on est a 7.88Go/s maxi théoriques)
Sauf que le SAS est en 8b/10b soit 20% d'overhead, et sur 7.88GO, reste plus que 6.30GO/s de données utiles. CQFD non ?

Non, entre le HBA SAS et le contrôleur PCI Express il n'y as pas les pertes liées au codage du SAS, le protocole SAS n'est utilisé qu'entre le HBA SAS et le périphérique SAS.

Reply

Marsh Posté le 17-07-2013 à 20:41:28   0  

Marc a écrit :

Non, entre le HBA SAS et le contrôleur PCI Express il n'y as pas les pertes liées au codage du SAS, le protocole SAS n'est utilisé qu'entre le HBA SAS et le périphérique SAS.


 
Première nouvelle qu'il y a jamais de pertes d'encodages ^^

Reply

Marsh Posté le 17-07-2013 à 21:02:49   0  

Tu devrais relire, avec le doigt.

Reply

Marsh Posté le 17-07-2013 à 21:17:49   0  

Ben pourtant, si, c'est simple a comprendre.
12x8=96.
8x8=64.
Ce qui limite ici donc c'est le PCIe.
La carte "avale" réellement 63Gb/s (64Gb/s 128b/130b), soit, mais ça c'est coté PCIe. Si tu crois que la conversion en SAS se fait de manière transparente, c'est faux, la carte agrège les mots, et donc nécessairement elle convertit ses 64Gb/s 128b/130b en 64Gb/s 8b/10b. C'est le plus simple pour eux pour éviter d'augmenter les latences (et donc conserver des iops acceptables)

Reply

Marsh Posté le 17-07-2013 à 21:38:29   0  

Bien sûr que c'est plus simple ainsi, et c'est ce qui explique la limitation qui est donc bien réelle par rapport à la bp maximale théorique du fait de ce choix, pour pouvoir pousser au delà LSI aurait du complexifier son HBA _ou_ passer en x16.
Donc le "Ben non" initial :heink: c'est comme le SATA3 il y a peu tiens :D


Message édité par Marc le 18-07-2013 à 15:44:10
Reply

Marsh Posté le 18-07-2013 à 02:12:33   0  

Les cartes sont destinées avant tout à être re-estampillées pour les serveurs. Le passage de 8X à 16X n'est donc pas forcement évident.
 
On préfère en général multiplier les cartes pour avoir de la perf / résilience plutôt que de mettre une carte qui va gérer assez de disques pour atteindre la limitation citée plus haut.
 
Le million d'IOPS c'est quand tout va bien, pas avec du raid6 (ou plusieurs!).

Reply

Marsh Posté le 18-07-2013 à 02:12:33   

Reply

Marsh Posté le 18-07-2013 à 13:23:31   0  

Marc a écrit :

Bien sûr que c'est plus simple ainsi, et c'est ce qui explique la limitation qui est donc bien réelle par rapport à la bp maximale théorique du fait de ce choix, pour pouvoir pousser à 9.6 Go /s LSI aurait du complexifier son HBA _ou_ passer en x16.
Donc le "Ben non" initial :heink: c'est comme le SATA3 il y a peu tiens :D


Oé, mais tu explore pas tout les rouages de ma réflexion aussi, alors forcément hein :p
Ceci dit, 96x80% = 76.8Gb/s (en 8b/10b), et c'est quoi qu'il arrive supérieur au 63Gb/s d'un PCIe x8, donc dans tout les cas, ils auraient pas pu monter aux 96Gb/s.
En revanche ils auraient pu monter a la limite théorique du PCIe x8, qui nécessite elle uniquement 63x120% = 75.6Gb/s (soit une conversion théorique 64Gb/s 128b/130b = 75.6 Gb/s 8b/10b) mais le surcout d'overhead a gérer dans la conversion, en conservant une limite fixée a 1M PPS (1m IOPS) est juste trop important, tu le vois bien quand tu prend l'analogie de bus point<=>point type infiniband NUMA ou autre, toute conversion te fait prendre des latences, et ou perdre du temps de compute, et ou complexifient trop le schéma, et ou te fait prendre un coût logiciel trop élevé, bref c'est une histoire de compromis. Et de toute façon, as-t'on déjà réellement vue un PCIe 3.0 x8 aller a sa vitesse théorique maximale (perso moi jamais, et pourtant j'en ai des cartes et du matos qui est susceptible de tirer)

_klesk_ a écrit :

Les cartes sont destinées avant tout à être re-estampillées pour les serveurs. Le passage de 8X à 16X n'est donc pas forcement évident.
 
On préfère en général multiplier les cartes pour avoir de la perf / résilience plutôt que de mettre une carte qui va gérer assez de disques pour atteindre la limitation citée plus haut.
 
Le million d'IOPS c'est quand tout va bien, pas avec du raid6 (ou plusieurs!).


Parle pas de raid, c'est un "HBA", un phy si tu préfère, y'a pas de gestion RAID sur cette puce. C'est fait pour monter du jbod, ou coller des SAS expander derrière pour un filer ZFS (par exemple)
Et de toute façon sur ce genre de cartes, tu va brancher du nearline SAS avec un SAS expander et l'intéressant, c'est les IOPS, pas le débit (genre sequoia)

Reply

Marsh Posté le 18-07-2013 à 22:09:07   0  

Peut être un début de réponse sur la limitation ici http://thessdreview.com/our-review [...] lion-iops/
Visiblement sur 1 carte avec 12 ports peuplé, ils arrivent au mieux a 6gigos/s-500kiops et a priori, c'est bien des problèmes de latence/complexité d'ASIC qui crée un goulot :O

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed