Announcement

Collapse
No announcement yet.

Question bête sur le check_centreon_snmp_loadaverage

Collapse
X
 
  • Filter
  • Time
  • Show
Clear All
new posts

  • Question bête sur le check_centreon_snmp_loadaverage

    Salut a tous,

    J'utilise le plugin suivent pour checker les pross de mon serveur centreon:

    $USER1$/check_centreon_snmp_loadaverage -H $HOSTADDRESS$ -v $ARG1$ -C $ARG2$ -w $ARG3$ -c $ARG4$

    Ca marche très bien mais je ne comprend pas a quoi correspond ma remonté:

    load average: 3.12, 2.57, 2.26.

    Sur les pross que je check sur windows ce sont des pourcentage ce qui est plus parlant. Je voudrai juste savoir a quoi correspont le 3.12, etc... car je suis toujours en warning mais je c pas si c'est que mon serveur galère ou pas...

    Merci d'avance

  • #2
    Regarde http://forum.centreon.com/showthread...4645#post34645

    Le load average n'est pas le CPU, enfin pas tout seul

    Edit: si tu veux plus de détails sur le sujet, y a eu un article sur le sujet dans le linux mag du mois dernier
    Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

    Comment


    • #3
      Merci tes explications sont clair mais par contre mon serveur doit galéré si je comprend bien.
      J'ai 2 processeurs Intel(R) Xeon(R) CPU E5430 @ 2.66GHz relié sur un san a 15000tours avec 2.5Go de ram et mon nagios galèrerai!!. Je check 465 services pour 84 hotes, ce n'est pas si énorme et pourtant j'ai parfois des pic a 5 pour une moyenne de 2.5 à 3 environ.

      Si j'ai bien compris tes explications, ce n'est pas bon....?

      Comment


      • #4
        C'est ton serveur de supervision? Ce sont des proc 4 coeurs il me semble non? Donc tu as 8 coeurs au total. Dans ce cas deux situtations:
        *tu bouffes principalement du CPU, là ca va, tu as encore pas mal de marge.
        *tu bouffes que des I/O, là c'est trop haut...
        *le meilleur: les deux en même temps là c'est encore plus galère à voir.

        Normalement, avec un Nagios, c'est surtout du CPU. MAis ça m'etonne qu'avec aussi peu de hosts à supervisé, ca soit si haut. A titre de comparaison, j'ai 2 disques locaux en 10k, avec un Xeon 4 coeurs 1.6Ghz, 500 hosts et plus de 6000 services et je suis a peu près aux mêmes valeurs que toi (moi par contre la machine commence à avoir du mal )

        Dans ton cas on va faire simple, on va demander à Nagios s'il a du mal ou pas.

        Lance un nagiostats et poste le résultat, on va regarder la latence de Nagios. Si elle est faible, pas de crainte à avoir, il a assez de ressources, si elel est elevée (plus d'une minute par exemple), là c'est qu'il a du mal. Il y a un topic dédié à ce problème, on y passera si besoin
        Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

        Comment


        • #5
          oui c'est une vm sur esx.
          voici mon nagiosstats

          Nagios Stats 3.0.1
          Copyright (c) 2003-2008 Ethan Galstad (www.nagios.org)
          Last Modified: 04-01-2008
          License: GPL

          CURRENT STATUS DATA
          ------------------------------------------------------
          Status File: /usr/local/nagios/var/status.log
          Status File Age: 0d 0h 0m 3s
          Status File Version: 3.0.1

          Program Running Time: 3d 23h 5m 4s
          Nagios PID: 4367
          Used/High/Total Command Buffers: 0 / 30 / 4096

          Total Services: 465
          Services Checked: 465
          Services Scheduled: 460
          Services Actively Checked: 465
          Services Passively Checked: 0
          Total Service State Change: 0.000 / 20.130 / 0.096 %
          Active Service Latency: 0.003 / 1.967 / 0.598 sec
          Active Service Execution Time: 0.012 / 8.487 / 0.503 sec
          Active Service State Change: 0.000 / 20.130 / 0.096 %
          Active Services Last 1/5/15/60 min: 193 / 326 / 405 / 461
          Passive Service Latency: 0.000 / 0.000 / 0.000 sec
          Passive Service State Change: 0.000 / 0.000 / 0.000 %
          Passive Services Last 1/5/15/60 min: 0 / 0 / 0 / 0
          Services Ok/Warn/Unk/Crit: 461 / 3 / 0 / 1
          Services Flapping: 0
          Services In Downtime: 0

          Total Hosts: 84
          Hosts Checked: 84
          Hosts Scheduled: 84
          Hosts Actively Checked: 84
          Host Passively Checked: 0
          Total Host State Change: 0.000 / 0.000 / 0.000 %
          Active Host Latency: 0.000 / 2.303 / 1.429 sec
          Active Host Execution Time: 0.016 / 0.247 / 0.070 sec
          Active Host State Change: 0.000 / 0.000 / 0.000 %
          Active Hosts Last 1/5/15/60 min: 9 / 45 / 84 / 84
          Passive Host Latency: 0.000 / 0.000 / 0.000 sec
          Passive Host State Change: 0.000 / 0.000 / 0.000 %
          Passive Hosts Last 1/5/15/60 min: 0 / 0 / 0 / 0
          Hosts Up/Down/Unreach: 84 / 0 / 0
          Hosts Flapping: 0
          Hosts In Downtime: 0

          Active Host Checks Last 1/5/15 min: 14 / 61 / 212
          Scheduled: 14 / 54 / 191
          On-demand: 0 / 7 / 21
          Parallel: 14 / 55 / 193
          Serial: 0 / 0 / 0
          Cached: 0 / 6 / 19
          Passive Host Checks Last 1/5/15 min: 0 / 0 / 0
          Active Service Checks Last 1/5/15 min: 234 / 1199 / 3560
          Scheduled: 234 / 1199 / 3560
          On-demand: 0 / 0 / 0
          Cached: 0 / 0 / 0
          Passive Service Checks Last 1/5/15 min: 0 / 0 / 0

          External Commands Last 1/5/15 min: 0 / 0 / 0

          Comment


          • #6
            VM: Ouch. regardes le %READY de la VM, elle doit être élevée. Enlève lui des CPU et augmente lui la limite en Mhz, ca devrait faire baisser le load average.

            Sinon ton nagios va très bien:
            Active Service Latency: 0.003 / 1.967 / 0.598.
            Latence de 0.5 seconde en moyenne, c'est nikel.
            Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

            Comment


            • #7
              Merci beaucoup. J'ai viré un pross, j'ai augmenter la limite et du coup je suis à
              load average: 0.38, 0.39, 0.31
              Par contre j'ai été obliger de redémarrer ma vm donc au début les ressources utilisé sont faible et plus ca va plus ca monte, donc je vais voir dans quelques jours.

              Merci beaucoup en tous cas.

              Comment


              • #8
                en faite au bout d'une heure j'ai un ca:


                load average: 4.02, 3.84, 2.65.

                Faut que je regarde la limit de ma vm.

                Comment


                • #9
                  oula

                  load average: 6.55, 5.01, 3.54.

                  Nagios Stats 3.0.1
                  Copyright (c) 2003-2008 Ethan Galstad (www.nagios.org)
                  Last Modified: 04-01-2008
                  License: GPL

                  CURRENT STATUS DATA
                  ------------------------------------------------------
                  Status File: /usr/local/nagios/var/status.log
                  Status File Age: 0d 0h 0m 14s
                  Status File Version: 3.0.1

                  Program Running Time: 0d 0h 52m 15s
                  Nagios PID: 4294
                  Used/High/Total Command Buffers: 0 / 2 / 4096

                  Total Services: 465
                  Services Checked: 465
                  Services Scheduled: 460
                  Services Actively Checked: 465
                  Services Passively Checked: 0
                  Total Service State Change: 0.000 / 22.370 / 0.220 %
                  Active Service Latency: 0.012 / 2.546 / 0.657 sec
                  Active Service Execution Time: 0.014 / 7.678 / 0.675 sec
                  Active Service State Change: 0.000 / 22.370 / 0.220 %
                  Active Services Last 1/5/15/60 min: 162 / 328 / 411 / 460
                  Passive Service Latency: 0.000 / 0.000 / 0.000 sec
                  Passive Service State Change: 0.000 / 0.000 / 0.000 %
                  Passive Services Last 1/5/15/60 min: 0 / 0 / 0 / 0
                  Services Ok/Warn/Unk/Crit: 462 / 1 / 0 / 2
                  Services Flapping: 0
                  Services In Downtime: 0

                  Total Hosts: 84
                  Hosts Checked: 84
                  Hosts Scheduled: 84
                  Hosts Actively Checked: 84
                  Host Passively Checked: 0
                  Total Host State Change: 0.000 / 0.000 / 0.000 %
                  Active Host Latency: 0.000 / 2.062 / 1.228 sec
                  Active Host Execution Time: 0.012 / 10.012 / 0.199 sec
                  Active Host State Change: 0.000 / 0.000 / 0.000 %
                  Active Hosts Last 1/5/15/60 min: 6 / 44 / 84 / 84
                  Passive Host Latency: 0.000 / 0.000 / 0.000 sec
                  Passive Host State Change: 0.000 / 0.000 / 0.000 %
                  Passive Hosts Last 1/5/15/60 min: 0 / 0 / 0 / 0
                  Hosts Up/Down/Unreach: 84 / 0 / 0
                  Hosts Flapping: 0
                  Hosts In Downtime: 0

                  Active Host Checks Last 1/5/15 min: 11 / 66 / 214
                  Scheduled: 10 / 60 / 196
                  On-demand: 1 / 6 / 18
                  Parallel: 11 / 63 / 199
                  Serial: 0 / 0 / 0
                  Cached: 0 / 3 / 15
                  Passive Host Checks Last 1/5/15 min: 0 / 0 / 0
                  Active Service Checks Last 1/5/15 min: 240 / 1203 / 3574
                  Scheduled: 240 / 1203 / 3574
                  On-demand: 0 / 0 / 0
                  Cached: 0 / 0 / 0
                  Passive Service Checks Last 1/5/15 min: 0 / 0 / 0

                  External Commands Last 1/5/15 min: 0 / 0 / 0

                  Comment


                  • #10
                    Arg. Tu as mis combien de cpu au total? 2?
                    Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

                    Comment


                    • #11
                      Bah en faite je suis passé a un CPU et la mon load average a exploser au bout d'une 1h . Malgrés qu'au début il arrivait a suivre. Je suis passé a 4 cpu pour voir ce que ca donne au bout d'une heure. (ca ne fait que quelque minute)Mais en regardant en htop, je me rend compte que c'est vraiment que le Cpu qui galère.

                      Comment


                      • #12
                        Vies plutôt 2 mais avec une limite haute pour les Mhz/proc. Les vm ne fonctionnent pas bien si on leur mets trop de CPU malheureusement.

                        Mais bon, avoir un load average élevé n'est pas forcément grave si ta latence n'explose pas.
                        Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

                        Comment


                        • #13
                          Saut, la en faite j'en ai mis quatre pour essayer. Mais sur ma vm je suis en
                          60Ghz de limit donc je peux pas allé plus! je vois pas trop ce qu'est le %READY dont tu me parle.

                          Comment


                          • #14
                            Le %READY on peut le voir directement en SSH sur l'esx avec un esxtop. Ca te montre les contentions au niveau du CPU.
                            Auteur de Shinken, outil de supervision compatible avec Nagios et orientée supervision distribuée hautement disponible et mulitplateforme.

                            Comment

                            Working...
                            X