San Iscsi / FC

San Iscsi / FC - Stockage - Systèmes & Réseaux Pro

Marsh Posté le 12-10-2009 à 16:25:50    

Bonjour,
 
Je cherche des retours d'expériences sur le SAN Iscsi.
Comment peut-on mesurer ou juger de l'opportunité du Iscsi en lieu et place du SAN FC.
 
Aujourd'hui, j'envisage l'une des 2 solutions d'accès à ma baie.  
L'attitude sage (mais onéreuse !!!) me dirais d'aller vers le FC mais l'opportunité Iscsi serait peut-être + appropriée.
 
Qqln aurait-il un avis, ou des conseils à partager ?
 
Merci d'avance.

Reply

Marsh Posté le 12-10-2009 à 16:25:50   

Reply

Marsh Posté le 13-10-2009 à 13:46:19    

Tout dépend de ta volumètrie de données, de la taille des sauvegardes et des base de données... Aujourd'hui je suis en FC mais parceque j'ai des bases oracle de 600GB. Pour du plus light je pense que le iscsi est suffisant.  
Donne plus d'info sur ce que tu as.

Reply

Marsh Posté le 14-10-2009 à 09:10:23    

lecharcutierdelinux a écrit :

Tout dépend de ta volumètrie de données, de la taille des sauvegardes et des base de données... Aujourd'hui je suis en FC mais parceque j'ai des bases oracle de 600GB. Pour du plus light je pense que le iscsi est suffisant.  
Donne plus d'info sur ce que tu as.


 
 
En qq lignes
Des bases de données SQL sous W2003 (1 dizaine de bases < 3Go accédées par une 1 quinze de users)
Des serveurs de fichiers (4 de 500Go)
Un seveur de messagerie exchange 2003 (250 boîtes aux lettres)
Un serveur d'impression
10 serveurs d'accès CITRIX sur lesquels viennent se connecter 250 personnes
Le tout virtualisé !! (VMWARE, XENSERVER)
 
Voilà ce que devrait supporter le SAN Iscsi !!!
Bien sûr, j'attends pas une réponse exacte mais penses-tu qu'une étude de faisabilité pour le Iscsi est nécessaire ou alors cela semble adapté au Iscsi ?

Reply

Marsh Posté le 14-10-2009 à 09:23:59    

perso je prendrais du FC dans ce cas. surtout à cause des serveurs de fichiers. Attention à bien prendre une librairie en FC.
Pour info je sauvegarde une base de 550 Gigas oracle en un peu + d'une heure en FC grace a une librairie 100% FC nativement.

Reply

Marsh Posté le 15-10-2009 à 22:35:33    

pourquoi une libraire FC, une librairie SAS 3Gb/s en DAS ne serait pas suffisante pour un serveur hébergeant toutes ces VMs ?

Reply

Marsh Posté le 18-10-2009 à 09:55:35    

ylla3003 a écrit :


 
 
En qq lignes
Des bases de données SQL sous W2003 (1 dizaine de bases < 3Go accédées par une 1 quinze de users)
Des serveurs de fichiers (4 de 500Go)
Un seveur de messagerie exchange 2003 (250 boîtes aux lettres)
Un serveur d'impression
10 serveurs d'accès CITRIX sur lesquels viennent se connecter 250 personnes
Le tout virtualisé !! (VMWARE, XENSERVER)
 
Voilà ce que devrait supporter le SAN Iscsi !!!
Bien sûr, j'attends pas une réponse exacte mais penses-tu qu'une étude de faisabilité pour le Iscsi est nécessaire ou alors cela semble adapté au Iscsi ?


 
 
une seule ligne, suffit à elle seule à justifier le choix de partir sur du FC.
c'est exchange 2003, les infras exchange sont relativement gourmandes en i/o, bien qu'il y a une amelioration depuis exchange 2007


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 14-01-2010 à 23:52:47    

Tu verras ci-dessous qu'Exchange 2003 fonctionne très bien sur un SAN ISCSI Equallogic !
http://www.equallogic.com/uploaded [...] _10000.pdf

Reply

Marsh Posté le 15-01-2010 à 00:02:31    

esprit_libre a écrit :

Tu verras ci-dessous qu'Exchange 2003 fonctionne très bien sur un SAN ISCSI Equallogic !
http://www.equallogic.com/uploaded [...] _10000.pdf


 
tous le constructeurs ont ce type de doc, mais exchange 2003 est encore réellement gourmand, en i/o. :spamafote: (je me fie à mon experience pour avancer ces propos, et pas juste à des pdf, bien sur cela depnds aussi de bien d'autres parametres et rien n'est generalisable, ni dans le sens de mon discours, ni dans l'autre, le mieux reste une etude appronfondie et un POC).
par contre la revolution va venir avec exchange 2010, et les c'est les constructeurs de stockage qui vont faire la gueule ;)


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 15-01-2010 à 07:58:06    

Qu'est-ce que tu penses d'iSCSI sur 10GE ? ça tient la route ?


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 08:23:07    

à ce moment spa moins chère/rentable de passer sur du fc?
 
les switchs 10Ge ca coûte un bras nan?

Reply

Marsh Posté le 15-01-2010 à 08:23:07   

Reply

Marsh Posté le 15-01-2010 à 08:53:26    

dreamer18 a écrit :

Qu'est-ce que tu penses d'iSCSI sur 10GE ? ça tient la route ?


 
pour l'instant, j'ai pas trop d'avis sur le sujet, n'ayant encore jamais eu l'occasion de jouer avec ;)


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 15-01-2010 à 09:12:01    

gizmo15 a écrit :

les switchs 10Ge ca coûte un bras nan?

non chez cisco le Nexus 5000 est le switch 10GE le moins cher de la gamme, le prix par port est vraiment très compétitif. Ce qui coute cher dans le 10GE ce sont pas les switchs mais les optiques SFP+ car l'USR n'existe pas encore, il faut du SR.


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 09:13:08    

el_barbone a écrit :

pour l'instant, j'ai pas trop d'avis sur le sujet, n'ayant encore jamais eu l'occasion de jouer avec ;)

Dans la bataille du 10GE, je me demande qui d'iSCSI ou du FCoE va gagner  :??:  


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 09:15:05    

dreamer18 a écrit :

Dans la bataille du 10GE, je me demande qui d'iSCSI ou du FCoE va gagner  :??:  


 
trop tôt pour le dire :D
 
t'as vu les nouvelles annonces cisco : http://www.networkcomputing.com/de [...] pe=article


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 15-01-2010 à 11:06:12    

ha tiens j'avais pas vu ça. J'ai assisté par contre à un séminaire sur UCS (les serveurs) mardi


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 11:54:26    

el_barbone a écrit :


 
trop tôt pour le dire :D
 
t'as vu les nouvelles annonces cisco : http://www.networkcomputing.com/de [...] pe=article


 
A mon avis, les deux seront utiles. Puisque l'un est routable et pas l'autre.

Reply

Marsh Posté le 15-01-2010 à 14:21:11    

bah fcoe ou pas tu pourras continuer de faire du fcip, seule l'encapsulation change


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 15:16:20    

et personne parle de l'infiniband, c'est pas tres cher.
on peut faire du fibre channel over infiniband, de l'ethernet over infiniband et donc de l'iscsi.
ca avance pas mal, 10 20 40 Gb/s suivant les cartes et les switchs.
 
on peut aller jusqu'a 15 metres en cable, au-dela il faut passer en fibre optique.
ca a une latence super faible.
 
et on trouve des cartes meres avec infiniband 40Gb/s integre.
 

Reply

Marsh Posté le 15-01-2010 à 15:22:21    

ducon3d a écrit :

et personne parle de l'infiniband, c'est pas tres cher.
on peut faire du fibre channel over infiniband, de l'ethernet over infiniband et donc de l'iscsi.
ca avance pas mal, 10 20 40 Gb/s suivant les cartes et les switchs.
 
on peut aller jusqu'a 15 metres en cable, au-dela il faut passer en fibre optique.
ca a une latence super faible.
 
et on trouve des cartes meres avec infiniband 40Gb/s integre.
 


 
oui, mais la techno reste confidentielle et n'a pas vraiment pris au niveau du marché, mis à part pour les interco de cluster et de grid dans le monde du HPC et calcul scientifique. :o


---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 15-01-2010 à 16:11:34    

C'est marrant, tout le monde à son avis (vous savez ce qu'en dit Coluche) mais à aucun moment on ne parle de dimensionnement.

 

La première chose à faire est peut être une analyse de ses systèmes (RAM, Proc, DB, I/O disques...) et de son réseau (analyse du trafic) avant de s'orienter vers une ou l'autre des solutions: cas SAN + virtualisation.

 

En terme de tarif (SAN + cartes + switch) il y a un rapport environ de 1 à 2/3 entre le iscsi 1Gb et 10Gb et de 1 à 4/5 entre le iscsi 1Gb et la FC.

 

Par rapport aux I/O, les disques SAS proposent de très bon rendement de part leur taille (2,5 ":course plus courte) et par leur vitesse (15ktr/min).
A savoir qu'à vitesse égale, en I/O, les 2,5" surclassent les 3,5".

 

Quant à leur fiabilité, point sur lequel je n'ai pas d'avis, les montages à tolérance de panne ne sont pas là pour rien (mais le SAS semble très fiable).

 

J'ai un environnement avec Exchange 2003, SQL 2005 et des serveurs d'appli ... pourtant le iscsi 1Gb semble convenir à mon besoin (je suis en cours d'analyse de mes systèmes pour le choix d'une solution Vmware+San iscsi).
Car entre serveurs, Vmware utilise ses cartes virtuelles et non les cartes physiques.
Et 4x1Gb (2 contrôleurs x 2 ports Gb) pour le trafic utilisateurs/serveurs suffit dans mon environnement (je n'ai pas encore fini l'analyse du trafic réseau mais ça à l'air amplement suffisant).

 

... c'est donc par l'analyse de l'existant qu'on prend sa décision et non pas doigt mouillé au vent ou sur les préférences des uns et des autres.
Une fois l'analyse faite et la techno choisie en fonction du besoin, là oui on peut se renseigner sur tel ou tel matériel en fonction de l'expérience des utilisateurs... pas avant.

Message cité 1 fois
Message édité par akabis le 15-01-2010 à 16:29:15
Reply

Marsh Posté le 15-01-2010 à 16:26:57    


 

akabis a écrit :

C'est marrant, tout le monde à son avis (vous savez ce qu'en dit Coluche) mais à aucun moment on ne parle de dimensionnement.
 
La première chose à faire est peut être une analyse de ses systèmes (RAM, Proc, DB, I/O disques) et de son réseau (analyse du trafic) avant de s'orienter vers une ou l'autre des solutions.
 
En terme de tarif (SAN + cartes + switch) il y a un rapport environ de 1 à 2/3 entre le iscsi 1Gb et 10Gb et de 1 à 4/5 entre le iscsi 1Gb et la FC.
 
Par rapport aux I/O, les disques SAS proposent de très bon rendement de part leur taille (2,5 ":course plus courte) et par leur vitesse (15ktr/min).  
A savoir qu'à vitesse égale, en I/O, les 2,5" surclassent les 3,5".
 
Quant à leur fiabilité, point sur lequel je n'ai pas d'avis, les montages à tolérance de panne ne sont pas là pour rien (mais le SAS semble très fiable).
 
J'ai un environnement avec Exchange 2003, SQL 2005 et des serveurs d'appli ... pourtant le iscsi 1Gb semble convenir à mon besoin (je suis en cours d'analyse de mes systèmes pour le choix d'une solution Vmware+San iscsi).
Car entre serveurs, Vmware utilise ses cartes virtuelles et non les cartes physiques.  
Et 4x1Gb (2 contrôleurs x 2 ports Gb) pour le trafic utilisateurs/serveurs suffit dans mon environnement (je n'ai pas encore fini l'analyse du trafic réseau mais ça à l'air amplement suffisant).
 
... c'est donc par l'analyse de l'existant qu'on prend sa décision et non pas doigt mouillé au vent ou sur les préférences des uns et des autres.
Une fois l'analyse faite et la techno choisie en fonction du besoin, là oui on peut se renseigner sur tel ou tel matériel en fonction de l'expérience des utilisateurs... pas avant.


 

el_barbone a écrit :


 
tous le constructeurs ont ce type de doc, mais exchange 2003 est encore réellement gourmand, en i/o. :spamafote: (je me fie à mon experience pour avancer ces propos, et pas juste à des pdf, bien sur cela depnds aussi de bien d'autres parametres et rien n'est generalisable, ni dans le sens de mon discours, ni dans l'autre, le mieux reste une etude appronfondie et un POC).
par contre la revolution va venir avec exchange 2010, et les c'est les constructeurs de stockage qui vont faire la gueule ;)



---------------
En théorie, la théorie et la pratique sont identiques, en pratique, non.
Reply

Marsh Posté le 15-01-2010 à 17:02:35    

Pour en remettre une couche sur les I/O:
Outre le type de disque, sa taille et sa vitesse, le RAID choisi aura aussi une influence dessus.
 
Pour exchange:
Exchange utilise une base de donnée, forcement il y a de nombreuses I/O.
C'est pour cette raison que l'on conseille le RAID 1 (IOP en ecriture 2xplus rapide que sur le RAID5) sur les DB, associé à ce qui est dit plus haut.

Reply

Marsh Posté le 15-01-2010 à 18:51:19    

évidemment, le 10Ge coûte même un bras + l'autre.
Mais, à moins de faire du streaming, on n'a pas besoin de bande passante et 1 Go suffit même pour de la base de donnée ! Mais qui peut le plus peut le moins.

Reply

Marsh Posté le 15-01-2010 à 19:18:47    

pour des flux de stockage 1GE ça fait pas lourd hein.


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 20:16:35    

el_barbone a écrit :


 
oui, mais la techno reste confidentielle et n'a pas vraiment pris au niveau du marché, mis à part pour les interco de cluster et de grid dans le monde du HPC et calcul scientifique. :o


 
je sais et il y a beaucoup de travaux dans diverse boite sur l'utilisation de l'infiniband sur les san. ca va venir a mon avis.
 
il m'en faut pour tester, noter sur une appli en cluster avec mpi... enfin un jour...
 

dreamer18 a écrit :

pour des flux de stockage 1GE ça fait pas lourd hein.


ben aggreagtion de lien... ca coute pas cher une carte 2 ports, et puis on peut toujours faire evoluer le reseau apres

Reply

Marsh Posté le 15-01-2010 à 20:44:28    

Je cherche toujours des initiateurs iSCSI qui supportent les agrégations de liens ;)

Message cité 1 fois
Message édité par dreamer18 le 15-01-2010 à 20:44:40

---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 15-01-2010 à 21:15:07    

dreamer18 a écrit :

Je cherche toujours des initiateurs iSCSI qui supportent les agrégations de liens ;)

 

ben linux :)

 

mais je suppose que tu parle d'initiateur  materiel.

 

et surtout je parlais de mettre l'aggregation de lien sur la baie san.


Message édité par ducon3d le 15-01-2010 à 21:16:20
Reply

Marsh Posté le 15-01-2010 à 21:20:30    

a priori sous VMWare / Xen les agrégats de liens sur le SAN sont pas supportés, donc quand t'as 30 VMs qui causent ben ça marche plus trop bien


---------------
"Parceque toi tu fracasses du migrant à la batte de baseball, c'est ça ?" - Backbone-
Reply

Marsh Posté le 19-01-2010 à 11:14:24    

dreamer18 a écrit :

Qu'est-ce que tu penses d'iSCSI sur 10GE ? ça tient la route ?


 
Ca reviendra aussi cher qu'en FC mais avec des perfs inférieures...


---------------
Hebergement d'images | Le topic de la VR standalone
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed