Performance serveurs - Réseaux - Systèmes & Réseaux Pro
Marsh Posté le 29-04-2010 à 15:47:46
ton besoin est max 800Gb/s ou 800Gb/s nécessaire ? Ce n'est pas pareil
Marsh Posté le 29-04-2010 à 15:48:18
C'est quoi le besoin ? Parce que raisonner sur ds chiffres délirants sans contexte ça n'a pas de sens.
Marsh Posté le 29-04-2010 à 16:11:19
En fait ma question n'est pas tellement sur la cohérence du raisonnement ou le dimensionnement du réseau mais plus sur les possibilités au niveau des serveurs/stockage pour offrir des gros débits.
Quels sont les moyens pour lire/écrire à très gros volumes sur des disques. Et quelles sont les limites auxquelles on arrive pour un seul serveur par exemple.
Pour répondre à vos questions, en fait le contexte c'est un hôpital dans lequels seront positionnés environ 8000 ports RJ45 qui serviront à toutes sortes de flux. Video on demand, internet, GTB, video surveillance, word, téléphonie sur IP, jeux en réseaux..... mais le gros de la bande passante est prévue pour les dossier patients et plus particulièrement l'imagerie médicale. Les scanners médicaux produisent des images qui peuvent peser entre 500 Mo et 1,5 Go et qui doivent pouvoir s'afficher suffisament rapidement sur les moniteurs et se copier suffisament rapidement sur les disques dans le data center.
Pour l'instant je sais que'environ 1500 ports RJ45 seront susceptibles de recevoir des équipements qui pourront venir lire l'imagerie médicale sur le datacenter mais je ne sais pas combien en pratique iront réellement lire/ecrire, peut être seulement 30 par heure uniquement, j'en sais rien. Donc je n'ai pas encore assez d'informations pour pouvoir effectuer le dimensionnement du réseau de l'hôpital mais j'aimerais savoir ce qu'il existe comme solutions pour du stockage de données haute performance..
Le premier dimensionnement qui avait été fait donnait 23 sous répartiteurs avec 40 Gb/s de débit entre chaque sous répartiteur et le répartiteur général. Pour que cette solution soit efficace il faut donc des serveurs derrière qui soient capable d'assurer.. qu'est ce qu'il y a comme possibilités..?
Marsh Posté le 29-04-2010 à 18:06:05
Dans le monde HPC on utilise Infiniband pour le stockage. On fait pas mieux pour le débit aujourd'hui à ma connaissance.
Sinon dans ton cas je partirai sur une architecture à base de blade (genre ce qu'on trouve chez HP ou Cisco UCS) avec des traces et des sorties à 10Gb pour le réseau. C'est le standard pour ce type d'environnement.
Marsh Posté le 30-04-2010 à 09:42:13
Merci dreamer18 je vais jeter un coup d'oeil sur Infiniband
Oui je pensais partir sur des serveurs blades avec un SAN derrière.. mais je ne sais pas quelles performances je peux espèrer tirer de ce système.
Marsh Posté le 30-04-2010 à 11:24:37
Niveau perfs, tu peux écrire à environ 1Gb/s sur un disque dur indépendant, je n' y connais rien en SAN, mais je suppose que les 240 disques sont en grappes raid, ce qui augmente les perfs mais ne les multiplie pas par le nombre de disques, 80Gb/s me parait très bien.
Marsh Posté le 30-04-2010 à 11:43:41
il n'y a pas que la bande passante qiu est à prendre en compte, mais également les performances en termes d'I/O
suivant le RAID que l'on prend, on est +/- capable de faire des choses en parallèle pour augmenter les perfs en IOPS, mais là encore cela dépend de l'utilisation : typiquement faire un RAID5 sur des applis qui font plus d'écriture que de lecture c'est casse-gueule
après sur un SAN, en plus des habituels soft (snapshot, réplication...) tu payes également toute la R&D mise en place pour augmenter les perfs : réorganisation physique des données couramment accédé durant la nuit, classification des applications, profil de paramétrage pour une appli spécifique (vmware, oracle...), etc.
encore une fois, il faut voir ton besoin, et te faire accompagner de vrais experts si il faut car acheter un SAN coûteux et ne pas pouvoir en tirer parti c'est bien dommage
Marsh Posté le 30-04-2010 à 13:15:50
C'est délirant ton histoire .... aujourd'hui le Chassis qui peut gérer autant de trafic c'est un Cisco 6500 series avec une carte VS-S720-10G-3CXL
Et la encore tu culmines à 720 Gbps ....
Marsh Posté le 30-04-2010 à 13:47:55
Il y a des châssis qui vont bien au delà des 720Gbps...
Ce que je ne comprends pas c'est toutes ces questions que pose ehochedez. Tu bosses sur un cas concret ou il s'agit d'un cas d'école sur lequel tu dois travailler?
Marsh Posté le 30-04-2010 à 14:07:10
je crois qu'il y a un amalgame sur plein de chiffres, et se dire "j'ai 80 fibres de 10Gb donc il faut que mes serveurs crachent 800Gb sinon je risque d'être saturé" n'est pas la bon approche
Marsh Posté le 30-04-2010 à 14:24:05
couak a écrit : je crois qu'il y a un amalgame sur plein de chiffres, et se dire "j'ai 80 fibres de 10Gb donc il faut que mes serveurs crachent 800Gb sinon je risque d'être saturé" n'est pas la bon approche |
c'est ce que j'allais écrire.
Marsh Posté le 29-04-2010 à 15:31:49
Bonjour,
J'étudie le réseau d'un hôpital théorique dans lequel environ 80 fibres 10 Gigabits partent du répartiteur général vers les sous répartiteurs.
L'essentiel du traffic est destiné à l'échanges de fichiers avec des serveurs du datacenter connecté au commutateur châssis coeur de réseau de l'hôpital. C'est à dire qu'il faudrait que les serveurs soient capables de fournir 800 Gb de données par seconde pour qu'il n'y ait aucun goulot d'étranglement (cas optimal...)
Cette possibilité est-elle envisageable ?
Comment faudrait-il faire ? Une ferme de serveurs connectés à un SAN de stockage ?
Combien UN seul serveur sera-t-il capable au maximum de fournir en données sur le réseau ? (bon un serveur qui vaut moins de 20 000€..)
Combien une ferme de disques SAN peut-elle fournir au maximum en données sur les réseau ? Par exemple si je regarde chez Dell, un châssis pour une ferme de 240 disques possède 8 ports 10 GE maximum. C'est à dire qu'on ne pourra pas tirer plus de 80 Gb/s de données de cette ferme ? Ou ais-je mal lu la doc ?
Meci pour vos éléments de réponse
Eric