Heartbeat et DRBD

Heartbeat et DRBD - Installation - Linux et OS Alternatifs

Marsh Posté le 23-10-2007 à 12:35:32    

Bonjour à tous
 
Je suis en train de mettre en place drbd et heartbeat. J'ai deux serveur qui se partagent une ressource drbd0, et je veux qu'heartbeat gère cela.
Concernant drbd, en manuel, tout fonctionne correctement (bascule, montage). Si je laisse heartbeat gérer mon /dev/drbd0, il ne se passe rien. HA ne démarre ni le service drbd, ni le module. Bref rien.
 
Voici mon fichier de ha.cf (pour le premier noeud, pour le second il n'y a que l'ip qui change):
ucast   eth0    10.10.10.2
debugfile     /var/log/ha-debug
logfile /var/log/ha-log
use_logd yes
 
keepalive       2
deadtime        10
warntime      6
initdead        60
 
udpport 694
node    nodev1
node    nodev2
 
auto_failback   off
crm true
apiauth evms uid=hacluster,root
 
===> vu que crm est utilisé, je n'utilise pas de haresources.
 
Quant à mon cib.xml, voici à quoi il ressemble:
 
 <cib generated="true" admin_epoch="0" epoch="1" num_updates="16" have_quorum="true" ignore_dtd="false" ccm_transition="2" num_peers="2" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Fri Oct 19 16:04:18 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1192802637"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="nodev1" type="normal"/>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="nodev2" type="normal"/>
     </nodes>
     <resources/>
<group id="My-DRBD-group" ordered="true" collocated="true">
        <instance_attributes id="My-DRBD-group_instance_attrs">
           <attributes>
             <nvpair id="My-DRBD-group_target_role" name="target_role" value="started"/>
           </attributes>
        </instance_attributes>
   <primitive id="DRBD_data" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="DRBD_data_instance_attrs">
             <attributes>
               <nvpair id="DRBD_data_target_role" name="target_role" value="started"/>
               <nvpair id="93d753a8-e69a-4ea5-a73d-ab0d0367f001" name="1" value="repdata"/>
             </attributes>
           </instance_attributes>
         </primitive>
         <primitive id="FS_repdata" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="FS_repdata_instance_attrs">
             <attributes>
               <nvpair id="FS_repdata_target_role" name="target_role" value="started"/>
               <nvpair id="96d659dd-0881-46df-86af-d2ec3854a73f" name="fstype" value="ext3"/>
               <nvpair id="8a150609-e5cb-4a75-99af-059ddbfbc635" name="device" value="/dev/drbd0"/>
               <nvpair id="de9706e8-7dfb-4505-b623-5f316b1920a3" name="directory" value="/mnt/repl"/>
             </attributes>
           </instance_attributes>
<constraints/>
<rsc_location id="runs_on_pref_node" rsc="My-DRBD-group">
         <rule id="prefered_runs_on_pref_node" score="100">
           <expression attribute="#uname" id="786ef2b1-4289-4570-8923-4c926025e8fd" operation="eq" value="nodev1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
J'utilise le hb_gui.. et je galère .... et le site de HA est moyennement clair.
 
Quelqu'un pourrait me souffler une idée ?

Reply

Marsh Posté le 23-10-2007 à 12:35:32   

Reply

Marsh Posté le 23-10-2007 à 19:33:11    

T'as surveillé les logs?

Reply

Marsh Posté le 23-10-2007 à 19:52:10    

mogruith a écrit :

Bonjour à tous
 
Je suis en train de mettre en place drbd et heartbeat. J'ai deux serveur qui se partagent une ressource drbd0, et je veux qu'heartbeat gère cela.
Concernant drbd, en manuel, tout fonctionne correctement (bascule, montage). Si je laisse heartbeat gérer mon /dev/drbd0, il ne se passe rien. HA ne démarre ni le service drbd, ni le module. Bref rien.
[...]
J'utilise le hb_gui.. et je galère .... et le site de HA est moyennement clair.
 
Quelqu'un pourrait me souffler une idée ?


Le service drbd doit être lancé indépendamment de Heartbeat.
 
La ressource drbd de HB ne gère que l'accès au disque (mode primaire/secondaire + montage) mais le service doit être actif sur tes deux noeuds, que la ressource soit montée ou pas (puisque c'est ce qui permet de garder les disques synchros).


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 09:43:46    

Merci pour vos retours.  
 
Le systeme lance automatiquement le service drbd au boot, suivi du service heartbeat.
 
Ce qui est pertubant, c'est qu'un mount ne me permet pas de voir le disque monté sur la partition définie pour cela (sur le master, et quand heartbeat est censé gérer cela)
 
La avec la gui, j'ai rajouté une IP, mais je n'arrive toujours pas à monter mon /mnt/repl

Reply

Marsh Posté le 24-10-2007 à 10:19:29    

mogruith a écrit :

Merci pour vos retours.  
 
Le systeme lance automatiquement le service drbd au boot, suivi du service heartbeat.
 
Ce qui est pertubant, c'est qu'un mount ne me permet pas de voir le disque monté sur la partition définie pour cela (sur le master, et quand heartbeat est censé gérer cela)
 
La avec la gui, j'ai rajouté une IP, mais je n'arrive toujours pas à monter mon /mnt/repl


J'ai rien compris :D
 
Comment est configuré ton drbd ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 10:37:41    

C'est vrai qu'en me relisant, c'est moyennement clair :)
 
voici mon drbd.conf :
 
resource repl {
protocol C;
incon-degr-cmd "echo '!DRBD! pri on incon-degr' | wall ; sleep 60 ; halt -f";
  startup {
    degr-wfc-timeout 120;    # 2 minutes.
  }
 
  disk {
    on-io-error   pass_on;
  }
 
  net {
    # TODO: Should these timeouts be relative to some heartbeat settings?
    # timeout       60;    #  6 seconds  (unit = 0.1 seconds)
    # connect-int   10;    # 10 seconds  (unit = 1 second)
    # ping-int      10;    # 10 seconds  (unit = 1 second)
    on-disconnect reconnect;
  }
 
  syncer {
    rate 100M;
    group 1;
    al-extents 257;
  }
 
on node1
{
        device /dev/drbd0;
        disk /dev/sdb1;
        address 192.168.1.1:7788;
        meta-disk internal;
}
on node2
{
        device /dev/drbd0;
        disk /dev/sdb1;
        address 192.168.1.2:7788;
        meta-disk internal;
}
}
 
Le service drbd est initié dès le boot, le module est donc actif sur les deux serveurs.
 
Heartbeat arrive ensuite mais il n'effectue pas le montage.  
 
Voici un bout de log avec "crm_verify -L -V"
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource drbd0 running on sles10v1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource resource_ running on node1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: process_orphan_resource: Nothing known about resource module running on node1
crm_verify[21439]: 2007/10/24_10:33:01 WARN: unpack_rsc_op: Processing failed op (drbd0_start_0) on node2
crm_verify[21439]: 2007/10/24_10:33:01 WARN: unpack_rsc_op: Handling failed start for drbd0 on node2
Warnings found during check: config may not be valid
 
un cat /proc/drbd donne pourtant :
 
version: 0.7.18 (api:78/proto:74)
SVN Revision: 2186 build by lmb@chip, 2006-05-04 17:08:27
 0: cs:Connected st:Secondary/Primary ld:Consistent
    ns:4 nr:0 dw:0 dr:4 al:0 bm:39 lo:0 pe:0 ua:0 ap:0
 
(node2 est le master en ce moment)
 
Voici mon cib.xml en ce moment :
 
<cib generated="true" admin_epoch="0" epoch="1" num_updates="16" have_quorum="true" ignore_dtd="false" ccm_transition="2" num_peers="2" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Fri Oct 19 16:04:18 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1192802637"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" type="normal"/>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" type="normal"/>
     </nodes>
     <resources/>
   <primitive id="DRBD_data" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="DRBD_data_instance_attrs">
             <attributes>
               <nvpair id="DRBD_data_target_role" name="target_role" value="started"/>
               <nvpair id="93d753a8-e69a-4ea5-a73d-ab0d0367f001" name="1" value="repdata"/>
             </attributes>
           </instance_attributes>
         </primitive>
         <primitive id="FS_repdata" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="FS_repdata_instance_attrs">
             <attributes>
               <nvpair id="FS_repdata_target_role" name="target_role" value="started"/>
               <nvpair id="96d659dd-0881-46df-86af-d2ec3854a73f" name="fstype" value="ext3"/>
               <nvpair id="8a150609-e5cb-4a75-99af-059ddbfbc635" name="device" value="/dev/drbd0"/>
               <nvpair id="de9706e8-7dfb-4505-b623-5f316b1920a3" name="directory" value="/mnt/repl"/>
             </attributes>
           </instance_attributes>
<constraints/>
<rsc_location id="runs_on_pref_node" rsc="My-DRBD-group">
         <rule id="prefered_runs_on_pref_node" score="100">
           <expression attribute="#uname" id="786ef2b1-4289-4570-8923-4c926025e8fd" operation="eq" value="node1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
bref .... je tourne en rond ...


Message édité par mogruith le 24-10-2007 à 10:38:55
Reply

Marsh Posté le 24-10-2007 à 10:51:30    

Il est formaté ton /dev/drbd0 ?
 
Tu arrives à le monter sur le noeud sur lequel il est en Primary (quand tu fais le cat /proc/drbd) ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 10:53:44    

oui il est formaté. Manuellement, j'arrive à le monter et à  le basculer d'un serveur à l'autre et je retrouve mes fichiers à chaque fois.  
 

Reply

Marsh Posté le 24-10-2007 à 10:56:17    

Je ne sais pas s'il faut que je rajoute (via ha management client) des options du style is_managed ou multiple_active etc ....

Reply

Marsh Posté le 24-10-2007 à 11:14:11    

Salut,
Je te file un morceau de mon cib.xml qui marchait.
Je pense qu'il faut que tu ajoute le nom de ta ressource DRDB, moi c'était r0
 
DRDB:
 
 <primitive id="resource_DRBD" class="heartbeat" type="drbddisk" provider="heartbeat">
           <instance_attributes id="resource_DRBD_instance_attrs">
             <attributes>
               <nvpair id="ebf8f33a-dc85-4125-9318-7898befcba1a" name="1" value="r0"/>
               <nvpair id="resource_DRBD_target_role" name="target_role" value="started"/>
             </attributes>
           </instance_attributes>  
 
Mount:
 <primitive id="resource_Mount" class="ocf" type="Filesystem" provider="heartbeat">
           <instance_attributes id="resource_Mount_instance_attrs">
             <attributes>
               <nvpair id="resource_Mount_target_role" name="target_role" value="started"/>
               <nvpair id="b0603a98-4c0f-4896-bf52-f55850d41cbd" name="device" value="/dev/drbd1"/>
               <nvpair id="70a403a4-ed8c-4fa6-98b6-7cafacc2423f" name="directory" value="/rep"/>
               <nvpair id="ab7b2faf-ba2e-4d54-915f-f3a70c0b95ca" name="fstype" value="ext3"/>
             </attributes>
           </instance_attributes>
         </primitive>


Message édité par steph1066 le 24-10-2007 à 11:17:45
Reply

Marsh Posté le 24-10-2007 à 11:14:11   

Reply

Marsh Posté le 24-10-2007 à 11:15:04    

bon en ouvrant le pe-warn, j'ai un boxon d'enfer :
 
 
 <cib generated="true" admin_epoch="0" epoch="2" num_updates="378" have_quorum="true" ignore_dtd="false" num_peers="2" ccm_transition="4" cib_feature_revision="1.3" dc_uuid="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" cib-last-written="Wed Oct 24 11:10:20 2007">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1193217015"/>
           <nvpair id="cib-bootstrap-options-stonith-enabled" name="stonith-enabled" value="False"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" type="normal"/>
       <node id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" type="normal"/>
     </nodes>
     <resources>
       <primitive id="filesystem" class="ocf" type="Filesystem" provider="heartbeat">
         <instance_attributes id="filesystem_instance_attrs">
           <attributes>
             <nvpair id="filesystem_target_role" name="target_role" value="started"/>
             <nvpair id="e0110ff7-3a17-42b6-9c5a-81017d7fedd7" name="fstype" value="ext3"/>
             <nvpair id="639701fc-028b-47ce-b930-fe1dbf42bb1b" name="device" value="drbd0"/>
             <nvpair id="6b5bde58-b0d8-405c-b96e-d064f42970b9" name="directory" value="/mnt/repl"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="ip" class="ocf" type="IPaddr" provider="heartbeat" is_managed="true">
         <instance_attributes id="ip_instance_attrs">
           <attributes>
             <nvpair id="ip_target_role" name="target_role" value="started"/>
             <nvpair id="e0b8c892-eb3a-4132-8b3e-2a5176cc9856" name="ip" value="141.2.102.246"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="drbddisk" class="heartbeat" type="drbddisk" provider="heartbeat">
         <instance_attributes id="drbddisk_instance_attrs">
           <attributes>
             <nvpair id="drbddisk_target_role" name="target_role" value="started"/>
           </attributes>
         </instance_attributes>
       </primitive>
     </resources>
     <constraints>
       <rsc_colocation id="ip_drbd" from="ip" to="drbd0" score="INFINITY"/>
       <rsc_colocation id="fs_drbd" from="filesystem" to="drbd0" score="INFINITY"/>
     </constraints>
   </configuration>
   <status>
     <node_state id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5" uname="node1" crmd="online" crm-debug-origin="do_lrm_query" shutdown="0" in_ccm="true" ha="active" join="member" expected="member">
       <transient_attributes id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
         <instance_attributes id="status-969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
           <attributes>
             <nvpair id="status-969bbf54-1ef8-42dc-be1f-3f4554beb8c5-probe_complete" name="probe_complete" value="true"/>
           </attributes>
         </instance_attributes>
       </transient_attributes>
       <lrm id="969bbf54-1ef8-42dc-be1f-3f4554beb8c5">
         <lrm_resources>
           <lrm_resource id="filesystem" type="Filesystem" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="filesystem_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="86" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="9b8f509a6d792f307f5ad51cb4cd5e19"/>
           </lrm_resource>
           <lrm_resource id="drbd0" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbd0_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:139:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:139:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="67" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbd0_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="6:140:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;6:140:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="69" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbd0_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="6:160:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;6:160:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="76" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
           </lrm_resource>
           <lrm_resource id="resource_" type="Evmsd" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="resource__monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="4:106:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;4:106:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="48" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
           <lrm_resource id="module" type="drbd" class="lsb" provider="heartbeat">
             <lrm_rsc_op id="module_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="4:121:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;4:121:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="54" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
             <lrm_rsc_op id="module_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="9:122:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;9:122:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="55" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
           <lrm_resource id="drbddisk" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbddisk_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:167:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:167:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="79" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
             <lrm_rsc_op id="drbddisk_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="5:191:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;5:191:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="84" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbddisk_stop_0" operation="stop" crm-debug-origin="build_active_RAs" transition_key="7:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;7:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="85" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="e1c46569e84224c134048167b5c96b36"/>
           </lrm_resource>
         </lrm_resources>
       </lrm>
     </node_state>
     <node_state id="557ff4bc-87d6-49b7-bd25-0c26fd81f087" uname="node2" crmd="online" crm-debug-origin="do_lrm_query" ha="active" in_ccm="true" join="member" shutdown="0" expected="member">
       <transient_attributes id="557ff4bc-87d6-49b7-bd25-0c26fd81f087">
         <instance_attributes id="status-557ff4bc-87d6-49b7-bd25-0c26fd81f087">
           <attributes>
             <nvpair id="status-557ff4bc-87d6-49b7-bd25-0c26fd81f087-probe_complete" name="probe_complete" value="true"/>
           </attributes>
         </instance_attributes>
       </transient_attributes>
       <lrm id="557ff4bc-87d6-49b7-bd25-0c26fd81f087">
         <lrm_resources>
           <lrm_resource id="filesystem" type="Filesystem" class="ocf" provider="heartbeat">
             <lrm_rsc_op id="filesystem_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="3:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;3:199:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="6" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="9b8f509a6d792f307f5ad51cb4cd5e19"/>
           </lrm_resource>
           <lrm_resource id="drbddisk" type="drbddisk" class="heartbeat" provider="heartbeat">
             <lrm_rsc_op id="drbddisk_monitor_0" operation="monitor" crm-debug-origin="build_active_RAs" transition_key="5:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="4:7;5:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="4" crm_feature_set="1.0.8" rc_code="7" op_status="4" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
             <lrm_rsc_op id="drbddisk_start_0" operation="start" crm-debug-origin="build_active_RAs" transition_key="8:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" transition_magic="0:0;8:193:07c42bab-27e9-44a4-bdf2-dab651e7510f" call_id="5" crm_feature_set="1.0.8" rc_code="0" op_status="0" interval="0" op_digest="08b7001b97ccdaa1ca23a9f165256bc1"/>
           </lrm_resource>
         </lrm_resources>
       </lrm>
     </node_state>
   </status>
 </cib>
 
 
Je pense que je vais brûler ces serveurs d'ici à ce soir ...


Message édité par mogruith le 24-10-2007 à 11:16:02
Reply

Marsh Posté le 24-10-2007 à 11:28:59    

A priori il te manque la resource drbddisk pour 'repl'


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 11:32:04    

Une dernière chose bizarre : lorsque je redémarre tout : drbd et heartbeat, et que je lance hb_gui, il n'y plus aucune ressource qui apparait. Or mon fichier cib.xml est présente et "plein".
 
bug ou ratage de ma part quelquepart ?

Reply

Marsh Posté le 24-10-2007 à 11:35:28    

Si tu as coller mon cib gaffe il manque un </primitive>

Reply

Marsh Posté le 24-10-2007 à 11:42:43    

AAARRRGGGGG !!!!!!!!!!!!!!!!!!!!!!!
 
 
CA MARCHE .. ENFIN !!!!!!!!!!!!!!!!!
 
effectivement, c'est idiot mais j'ai repris un autre nom pour les ressources (tel que ceux utilisés par steph1066) mount pour filesystem etc etc ....
 
et la heartbeat a non seulement monté mon eth0:0, mon /mnt/repl ....
 
'tain .. 3 jours que je suis sur ce truc ..
 
Merci beaucoup les gars :)

Reply

Marsh Posté le 24-10-2007 à 11:46:34    

bon ca marche mais la bascule est un peu longue tout de meme ....

Reply

Marsh Posté le 24-10-2007 à 11:49:23    

C'est à dire ? combien de temps ? à quel niveau ?


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 11:50:29    

ben j'ai arrêté un peu à l'arrache heartbeat (/etc/init.d/heartbeat stop) sur mon master et le deuxième noeud n'a toujours pas repris la main et les ressources .. ca fait 5 min déjà ...

Reply

Marsh Posté le 24-10-2007 à 11:55:02    

le master est a nouveau up, mon slave est porté disparu et il n'y a plus de ressources .... sniff ...

Reply

Marsh Posté le 24-10-2007 à 11:55:50    

T'as raté un truc alors :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 12:25:19    

Pour info la bascule ce fait en quelques secondes

Reply

Marsh Posté le 24-10-2007 à 12:26:30    

une question, tes deux fichiers cib.xml sont bien synchro ?
Tu ne peux pas les modifiers à la main comme ça, il y a des utilitaires

Reply

Marsh Posté le 24-10-2007 à 13:50:29    

j'ai modifié mon cib via hb_gui. Je pensais que la syncro sur les deux noeuds était automatique. Sinon, j'ai lancé un petit ha_propagate.

Reply

Marsh Posté le 24-10-2007 à 14:01:08    

Steph1066,
peux tu me préciser les commandes pour reloader mon cib.xml ? (celui qui fonctionen enfin :))

Reply

Marsh Posté le 24-10-2007 à 14:17:21    

Tu as raison vi hb_gui c'est automatique, je pensais que tu l'avais modifié à la main (VI)

Reply

Marsh Posté le 24-10-2007 à 14:23:15    

ben en fait .. j'ai effacé le cib.xml, lancé hb_gui, appliquer ma config .. et je n'ai pas de fichier cib.xml dans /var/lib/heartbeat / ??????  
 
heu .. la config s'enregistre ou ???

Reply

Marsh Posté le 24-10-2007 à 14:37:46    

une question encore :
 
est ce que dans fstab, ce qui suit doit etre commenté :
/dev/drbd0          /mnt/repl            ext3       noauto     0 0

Reply

Marsh Posté le 24-10-2007 à 14:53:49    

mogruith a écrit :

ben en fait .. j'ai effacé le cib.xml, lancé hb_gui, appliquer ma config .. et je n'ai pas de fichier cib.xml dans /var/lib/heartbeat / ??????  
 
heu .. la config s'enregistre ou ???


La config est généré par heartbeat (et pas directement par hb_gui) automatiquement.
Relance heartbeat parce que je pense que t'as foutu un joli bordel :D


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 14:54:16    

mogruith a écrit :

une question encore :
 
est ce que dans fstab, ce qui suit doit etre commenté :
/dev/drbd0          /mnt/repl            ext3       noauto     0 0


Oui, ca ne sert à rien.


---------------
Ce n'est point ma façon de penser qui a fait mon malheur, c'est celle des autres.
Reply

Marsh Posté le 24-10-2007 à 15:01:10    

pom pom pom .. ce n'est plus le bordel ... c'est carrément un apres ouragan .... :(
 
ceci dit je reste positif .... parceque apres il y a de la doc a faire :)


Message édité par mogruith le 24-10-2007 à 15:01:49
Reply

Marsh Posté le 24-10-2007 à 15:29:00    

bon ca remarche .. alors j'ai un truc marrant si je nomme "mount" la ressource filesystem, ca ne marche pas. Si je l'appelle filesystem, ca fonctionne .. strange ?

Reply

Marsh Posté le 24-10-2007 à 15:36:33    

bon en tout ca "rox grave"
 
Encore une fois merci for your help !!!!

Reply

Marsh Posté le 29-04-2008 à 15:44:13    

Bonjour a tous  
j'ai quelque problèmes lorsque j'utilise le drbddisk   lorsque j'arrête  heartbeat sur la machine master  la machine slave reprends toutes les ressources sauf  le drbd et le mount  
 
- je voudrais savoir aussi comment faire pour que la machine slave  change son drbd en primaire  
 
voici mon CIB  
 
 
 <cib generated="true" admin_epoch="0" ignore_dtd="false" num_peers="2" have_quorum="1" cib_feature_revision="2.0" crm_feature_set="2.1" dc_uuid="073bf9e2-7229-4209-8803-40287b0d1a3b" epoch="78" num_updates="2" cib-last-written="Tue Apr 29 15:02:30 2008">
   <configuration>
     <crm_config>
       <cluster_property_set id="cib-bootstrap-options">
         <attributes>
           <nvpair id="cib-bootstrap-options-dc-version" name="dc-version" value="0.6.2-node: 000d7573fbf8ac5f0c2835c8739973e826d0671b"/>
           <nvpair id="cib-bootstrap-options-last-lrm-refresh" name="last-lrm-refresh" value="1209473748"/>
         </attributes>
       </cluster_property_set>
     </crm_config>
     <nodes>
       <node id="073bf9e2-7229-4209-8803-40287b0d1a3b" uname="serv2" type="normal"/>
       <node id="0de230ca-b3dd-4e7d-9a28-4aac2a493570" uname="serv1" type="normal"/>
     </nodes>
     <resources>
       <primitive id="resource_ip_virtuelle" class="ocf" type="IPaddr2" provider="heartbeat">
         <meta_attributes id="resource_ip_virtuelle_meta_attrs">
           <attributes>
             <nvpair id="resource_ip_virtuelle_metaattr_target_role" name="target_role" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="resource_ip_virtuelle_instance_attrs">
           <attributes>
             <nvpair id="a6116118-9a60-45a6-b703-5ea9b8f71737" name="ip" value="10.16.10.108"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive id="resource_apache" class="ocf" type="apache" provider="heartbeat">
         <meta_attributes id="resource_apache_meta_attrs">
           <attributes>
             <nvpair id="resource_apache_metaattr_target_role" name="target_role" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="resource_apache_instance_attrs">
           <attributes>
             <nvpair id="7af025be-fa42-4ce8-9f95-94fe259c027d" name="configfile" value="/etc/apache2/apache2.conf"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive class="ocf" provider="heartbeat" type="Filesystem" id="fs0">
         <meta_attributes id="ma-fs0">
           <attributes>
             <nvpair name="target_role" id="ma-fs0-1" value="started"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="ia-fs0">
           <attributes>
             <nvpair id="ia-fs0-1" name="fstype" value="ext3"/>
             <nvpair id="ia-fs0-2" name="directory" value="/mnt"/>
             <nvpair id="ia-fs0-3" name="device" value="/dev/drbd0"/>
           </attributes>
         </instance_attributes>
       </primitive>
       <primitive class="heartbeat" type="drbddisk" provider="heartbeat" id="DRBD_data">
         <meta_attributes id="DRBD_data_meta_attrs">
           <attributes>
             <nvpair id="DRBD_data_metaattr_target_role" name="target_role" value="stopped"/>
           </attributes>
         </meta_attributes>
         <instance_attributes id="DRBD_data_instance_attrs">
           <attributes>
             <nvpair name="1" id="4c3c1566-d9ca-44a9-9562-82793633f06e" value="r0"/>
           </attributes>
         </instance_attributes>
       </primitive>
     </resources>
     <constraints>
       <rsc_location id="location_ip_virtuelle" rsc="resource_ip_virtuelle">
         <rule id="prefered_location_ip_virtuelle" score="INFINITY">
           <expression attribute="#uname" id="21d37a06-2666-4876-8ce3-1f820a3055f2" operation="eq" value="serv1"/>
         </rule>
       </rsc_location>
       <rsc_location id="location_apache" rsc="resource_apache">
         <rule id="prefered_location_apache" score="INFINITY">
           <expression attribute="#uname" id="db26781f-446f-446b-849d-ac846c006689" operation="eq" value="serv1"/>
         </rule>
       </rsc_location>
     </constraints>
   </configuration>
 </cib>
 
 
quelqu'un pourrait m'aider SVP


Message édité par snake-jump le 02-05-2008 à 09:47:42
Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed