Sie sind hier : Homepage →  Linux (1) Server-Installation→  hier stehen die veralteten Seiten→  e) Suse 11.4/64 mit XEN (2)

Diese Seite ist um den 25.6.2011 herum in Arbeit !!

Juni 2011 - einen Proliant DL385 mit Suses XEN 11.4/64

Die Erfahrung hat gezeigt, daß es immer wieder etwas zu optimieren und zu verbessern gibt. Manche Vorgaben bzw. Voraussetzungen erfährt man viel zu spät, um dann nochmal eingereifen zu können. Darum nocheinmal die Basis-Voraussetzungen:
-

  1. Aufsetzen eines Quad-Core AMD Opteron DL385 Produktions-Servers mit RAID Controller, 6 x 72 Giga Platten und mit der Opensuse 11.4 Version.
  2. Installation der DOM0 mit minimalem grafischen System X11 von der NET CD.
  3. Installation der SNMP basierten HP/Compaq Insight Manager HPASM Daemons zur Hardware Fernüberwachung unter Suse 11.4 im 64 Bit Linux Umfeld - Diese Dienste sollen den Proliant Server an sich hardwaremässig überwachen und müssen darum in der DOM-0 laufen !!

-

110 - Proliant DL385 Server initialisieren

Unser Proliant DL385 G1 mit zwei DualCore Opterons hat 6 SCSI Platten je 74 Giga und die benutze ich zusammen als ein großes RAID5 System.

Um später die einzelnen virtuellen Maschinen performant zu bekommen, teile ich mit der HP (ehemals Compaq) Smart Start 7.9 CD jetzt schon unser gesamtes 370GB RAID5 System in lauter kleine (bei HP sogenannte) "Proliant Volumes". Das sind dann für Linux (bzw. jedes Betriebssystem) lauter einzelne physikalische Platten oder (Device-) Geräte. Die Aufteilung beginnt (als Beispiel bei uns) mit
-

  1. Gerät 00 - 6 GB für die DOM 0
  2. Gerät 01 - 40 GB (Webserver 1)
  3. Gerät 02 - 40 GB (Webserver 2)
  4. Gerät 03 - 40 GB (Webserver 3)
  5. Gerät 04 - 20 GB (Webserver 4)
  6. Gerät 05 - 20 GB (Mail-Server)
  7. Gerät 06 - 20 GB (FTP-Server)
  8. Gerät 07 - 20 GB (DNS-Server)
  9. Gerät 08 - 60 GB (Backup und Datenbereich) und zuletzt
  10. Gerät 09 - 10GB für das ISO Image der Suse 11.4 DVD

-

112 - ILO, LCD, Tastatur und Maus müssen dran stecken . . .

Nach vielen Mühen musste ich akzeptieren: Ein am Server angeschlossener LCD Bildschrim mit 1028x786 Pixeln samt Tastatur und Maus ist bei der Grund-Installation eines Proliants über ILO Remote Desktop nicht nur von Vorteil, das alles ist zwingend erforderlich. -  Eine höhrere Auflösung ist wiederum für den ILO Remote Desktop zu groß.
Es ist so ! So ist der grafische Bildschrim mit 1024x768 groß genug, um damit vernünftig zu arbeiten.

Bei der ILO Remote Installation hängt die Installation sogar mit der Einstellung "VESA" beim Probing der Bildschirmeinstellungen. Die ganze Prozedur stirbt einfach ab. Lösung: Nach der Bestätigung der Installation auf dem ILO Remote Monitor muß diese "Remote-Konsole" nochmal sofort verlassen werden, bis die Boot-Prozedur nach 1 Minute oder etwas mehr im grafischen Modus angekommen ist. Das ist zwar auch Mist, aber es ist so.

120 - Installieren des "XEN Grundsystems" - das ist die "Domain-0", auch "DOM-0" oder "VM-Server" genannt.

Warum sich hier 4 verschiedene Namen eingebürgert haben, ist nicht bekannt, man sollte es aber wissen.

Für die Installation hatte ich mir die Suse 11.4 NET CD mit ca. 180MB heruter geladen und auf CD gebrannt. Die Remote Console der Proliant ILO Technik (die physikalische Konsole wird über Ethernet per Mini-https-Webserver und X11/VNC Server mit einem Browser mit Java dargestellt) startet die CD mit mit der Bildschirmauflösung 1024x786 des angeschlossenen LCD Schirms. Die lokale Console holen Sie sich also über den Java enabled Browser, am besten mit einem alten Browser wie dem Netscape 9. Der fragt nicht so viel wie der Firefox4 und ist auch nicht so störrisch.

121 - XEN VM-Server Installation - Hier gehts los

Nach dem Start der 11.4 NET CD und der Auswahl "Installation" und der Sprache "Deutsch" sowie des Videomodes "VESA" (und weiter nichts !!!!!) geht es weiter. (Mit anderen Video-Modi hängt sich die ILO Emulation beim Linux Grafik Probing auf und dann geht nichts mehr. Das ILO des Proliants hat leider mit den diversen Bildschirm-Umschaltungen Probleme und stürzt beim "Probing" der Auflösung immer mal wieder völlig ab.) jetzt kommt die grüne grafische "Willkommen" Seite der (Installations-) Vorbereitung von Suse.

Bevor man sich mit virtuellen Maschinen unter Suse beschäftigt, ist diese Seite unbedingt lesenswert oder fast sogar ein MUß !! : doc.opensuse.org/products/draft/SLES/SLES-xen_draft/book.xen.html

122 - Wenn bis hierher die Hardware irgendwo nicht funktioniert

Zum Beispiel - Keine Festplatten gefunden - Suchen Sie den Fehler gleich und beheben Sie ihn. Jede Ausflucht: das machen wir später ! rächt sich fürchterlich. Sie können an einer XEN-Server Installation im Nachhinein nur ganz wenig (eigentlich fast gar nichts) ändern oder schon gar nichts (rum-) basteln.

124 - Erfahrung mit dem VM-Server (dem XEN-Grundsystem):

Grundsätzlich braucht man die Net-Boot-CD im CD Laufwerk nur einmal, bis der VM-Server, also das Grundsystem installiert ist. Von nun an können Sie mit der ILO Technik alle VMs installieren und reparieren,  - außer diesem Grundsysstem selbst.

Wenn daher diese Installation irgendwo mal "krank" wird, weil Sie mitten drin aufsetzen mussten oder den VM-Server reparieren mussten, dann sind alle VM-Gäste absolut höchst gefährdet. Also installieren Sie lieber mit der gemachten Erfahrung nochmal neu, als zu knorzen, weil angeblich die Zeit nicht reicht. Es rächt sich. Ich habe das XEN Grundsystem (den VM-Server) jetzt 6, 7 oder 8 mal neu aufgesetzt, weil immer irgendwo eine Macke aufkam, die (im Nachhinein) nicht zu reparieren war.

Innerhalb der VM-"Server"- Installation sollte es keinerlei noch so triviale Applikationen wie HTTP, DNS oder Mail-Sever oder sonstwas geben !!! Das ist absoluter Unsinn !!! Den vsftp installieren wir zwar, (um einmalig die Suse ISO-DVD und andere ISOs auf die hinterste Platte zu kopieren), aktivieren ihn aber nur bei Bedarf samt der Freigabe in der Firewall.

128 - es geht weiter mit der XEN Installation

Der ILO-Remote Bildschirm kommt zwar im X11 (VNC) Grafik Modus hoch, doch man kann viele Abfragen parallel zur Maus mit der Tastatur beantworten. Das geht wirklich erheblich schneller.

Auswahl des Installationsmodus:
Ich wähle jetzt die Neuinstallation und dazu NICHT die automatische Konfiguration. Die Zeitzone stimmt bereits. Alles läuft jetzt normal bis zur Abfrage "Grafiksystem". Hier brauche ich für den VM-Manager des XEN Grundsystems später den X11 Server.

Also unter der Auswahl: "Andere" wähle ich das !!! "minimales Grafik System mit X11", kein KDE und kein Gnome, denn an der realen Konsole der DOM-0 wird sowieso nicht gearbeitet. Und diese minimale Grafik brauche ich später nur für den X11-XEN Manager unter yast2 mit Hilfe des VNC-Viewers.

Beim Partitionsaufbau gehe ich sofort auf "bearbeiten" und lösche erst mal die automatisch erstellten Vorschläge wieder raus.

Ich will das XEN Basissystem auf dem 1. Gerät (also meiner allerersten "Platte" /dev/c0d0 von insgesamt 19 oder mehr) installieren. Die "Partition/Platte" ist bei mir 6 Giga groß. Die späteren Installations-Sourcen sollen von einer "Partition/Platte" auf der allerletzten lokalen Platte kommen. Das ist alles sehr trickreich, aber es geht und wird später noch beschrieben.

Deshalb erzeuge ich auf der allerersten "Platte" (mit 6 Giga) auf dem Device "c0d0" eine Swap Partition (1) mit 1 GB und die eigentliche "root" Partition (2) mit 5 Giga mit "ext4" Filesystem. Davon werden nur etwa 45% wirklich benötig, aber die Logs könnten mal aufquellen, man weiß ja nie.

 

130 - Neue Benutzer anlegen und Softwareauswahl

-

  1. Ich erstelle hier bereits immer meinen Hilfsbenutzer (einen "nicht" Admin) mit seinem Kennwort, und dazu auf der Folgeseite ein separates Kennwort für root.
  2. Der externe SSH Zugang für User "root" ist bei der 11.4 per default erst mal offen (wieso ?? wer war das ?). Ganz viel später wird der externe SSH-root-Zugang im sshd_conf File wieder geblockt.
  3. Bei Softwareauswahl ändere ich hier noch nichts, bittere Erfahrung aus mehr als 8 Versuchen
  4. Bei der Boot Konfiguration wähle ich den Level 3 (Netzwerk ohne Grafik) -also nicht Level 5 !!.
  5. Weiterhin aktiviere ich jetzt gleich über den Eintrag Firewall den SSH Dienst.
  6. Nach der 1. Bestätigung der Auswahlen und der 2. Bestätigung, daß ich wirklich installieren möchte, geht es weiter.

-

132 - Mitlesen der Installation von Dom-0

Auf der R-Console kann man ganz oben "Details" anklicken und sehen, was da gerade aus dem Netz geholt wird. Es ist die fast kleinste Installationsvariante, die sich noch lohnt, direkt aus dem Netz zu laden (wenn man noch kein DVD Laufwerk im Server hat). Waren es früher mal 200 MB, so sind es inzwischen 405MB, die aus dem Internet geladen werden. Es dauert etwa 20 - 25 Minuten. So bekomme ich auf jeden Fall die einigermaßen aktuelle Version der 11.4 XEN version auf die Platte.

Am Ende der Installation wird automatisch ein Warmstart ausgeführt, auch, weil ich IPV6 abgewählt hatte. Dort stürzt der ILO-VNC Server mit VESA Videomodus inzwischen nicht mehr ab. Sie können den Startprozess über "Boot from local Harddisk" komplett mitverfolgen.

Sogar die Suse 11.4 NET Boot CD kann sicherheitshalber im Laufwerk bleiben, der Zeitverlust beim Booten ist marginal.
-

136 - Installation aus dem Netz mit DSL 16.000

Der Restart geht erstaunlich schnell, dank des ganz am Anfang spezifizierten VESA Modus stürzt ILO nicht mehr ab und jetzt kommt die "Hostname und Domainname" Seite. Hier ändern wir nur den Hostnamen zur sauberen Identifikation. Auf jeden Fall bleibt DHCP vorerst bestehen !!

Auf der folgenden Seite der "Netzwerkkonfiguration" aktivieren wir den VNC-SERVER. Weiterhin schalten wir (evtl. hier nochmal) IPV6 ab. Schneller geht es mit der ALT Taste und den Buchstaben.

Da in unseren Proliants immer eine zweite (Doppel-) Netzwerk- Karte mit zwei Ethernet Ports drinnen ist, sehen wir auf der Folgeseite insgesamt 4 Bridges und 4 Netzwerkkarten (!! sofern alle 4 auch eine funktionierende Verkabelung zum Switch haben !! - ganz wichtig !!).

140 - Aktualisierung über das Netz

Auf jeden Fall muß man die Online-Updates von 11.4 laufen lassen, da steckt viel Feinarbeit drinnen, über die man sonst später stolpert. (Ohne die Updates war der VM-Server mehrfach instabil.) Das dauert zwar bestimmt 30 Minuten, denn das Laden alleine ist nicht so schlimm. Die RPMs werden aber auch gleich installiert. Das kann sogar unbeaufsichtigt laufen.

Dumm ist nur, wenn dabei das Repository abstürzt. Also die Online Aktualisierung (oder beide nacheinander) bestätigen. Es hat keinen Sinn, von den Paketen welche abzuwählen, das ist sehr mühsam und kostet mehr Zeit, als der Download verschlingt.

Das dauert insgesamt etwa 30 Minuten oder etwas mehr und danach ist der 2. Neustart fällig. Die NET-Boot-CD kann jetzt (muss aber nicht) entnommen werden. Ich lasse die inzwischen so lange drinnen , bis die Installation völlig problemlos abgeschlossen ist.

142 - Hardware Konfiguration und Neustart

Wir brauchen auf allen unseren Datacenter Servern keinen Sound und keine Drucker. Darum bestätigen wir einfach die erkannten Geräte aus Zeitgründen.

Yast führt jetzt einen kurzen Warmstart aus (den 3. oder 4. Neustart) und da ich weiter vorne den Runlevel 3 ausgewählt hatte, kommt im ILO Remote-Consolen-Fenster nicht mehr die grafische Login Maske sondern die schwarze Text-Konsole.
-

143 - erste Konfiguration von Hand

Auf der ILO Remote Konsole ist der kleine 80x40 Textbildschim zu sehen. Dort kann ich mich mit "root" einloggen, aber fast nichts machen. "ifconfig" zum Beispiel zeigt nur die letzten Zeilen und man kann keine DHCP IP-Nummern erkennen. Das geht viel besser im grafischen Modus.

Ich kann jetzt mit init=5 in den grafischen Mode wechseln, mich an der ILO R-Console nochmals als root anmelden und ein X-Terminal aufmachen. Auf der R-Console kann ich mir jetzt mit "ifconfig" komfortabel anzeigen lassen, welche IP Adresse(n) der DHCP Server für den normalen SSH Zugriff auf den VM-Server (das XEN Grundsystem) vergeben hatte. Mit dem IP-Scanner teste ich trotzdem, welche IP Nummer(n) neu hinzugekommen sein könnte(n) und pinge die mal an. Also die IPs sind bereits online.

In diesem X-Term rufe ich yast2 auf und installiere über "Virtualization" alle benötigten XEN Programme. Das geht hier besser als im Putty Fenster. Mit "crtl C" verlasse ich yast 2 wieder und mit "crtl d" schliße ich das xterm Fenster in der ILO Remote Console. Dort geht nämlich alles sehr langsam..

145 - weiter mit putty

----- Schnitt ------

Nun starte ich mein Putty mit einer dieser DHCP IP-Nummern und logge mich mit User "root" ein. Noch ist "rootlogoin" nicht abgeschaltet (wir sind ja noch beiuns lokal im Labor). Über yast (Textmodus) oder mit zypper installiere den mc, htop, iftop und netdate.

Mit dem "joe" editiere ich in /etc/ssh die Datei sshd_config und aktiviere (temporär hier im Labor !!!!) die bislang auskommentierte Zeile "permit rootlogin yes" und starte in /etc/init.d (oder mit rcsshd restart) den sshd Dämon neu. Später muss dort ein "no" hinten dran, damit wirklich KEIN "root_login" funktioniert. Übrigens ist das später auch ein MUß bei allen VM-Gästen !!!!

(Doppelt: Also der root login mit ssh und putty ist per Default erst mal offen. In sshd_conf ist diese Zeile bei 11.4 auskommentiert. Sobald der Server ins Datacenter kommt, müssen Sie das unbedingt ändern auf "rootlogin=no". Und zwar beim VM-Server wie auch bei allen Gästen ebenfalls !!)

Weiterhin prüfe ich mit yast die Bootreihenfolge und ändere die auf XEN. In yast bei den Sprachen wird über "Details" dem User root auch die Std-Sprache (Deutsch)  = yes zugeordnet.

Jetzt muß ich einmal aus Putty raus und wieder rein, dann geht auch der User "root" und alles auf Deutsch, auch im yast. Jetzt die Systemdienste (Runlevel) prüfen.

  1. Alsasound abschalten - kein Sound benötigt
  2. cups abschalten - wir drucken dort nie
  3. Splash Screen Setup abschalten
  4. cpufreq und smartd abschalten
  5. Der xdm, der X-Display Manager muss geladen werden.


Bei der Netzwerk-Konfiguration hatte ich mehrmals vergessen, SSH zu aktivieren sowie in der Firewall SSH und VNC freizugeben, das muss ich im Zweifelsfall jetzt nachholen.

Jetzt folgt ein reboot im putty Fenster - Der Server muß mit XEN starten . . . . .
-

146 - der Server kommt relativ schell wieder hoch.

Der "reboot" muß schnell gehen und ist auf der ILO Remote Konsole komplett mit verfolgbar. Am Ende werden einige Services übersprungen, vor allem "xendomains", denn es gibt ja noch keine.
-

148 - da fehlt noch die Vorbereitung der Zielplatte

Die letzte "Platte" unseres neuen Servers muß vorher erst mal mit yast das ext4 Format bekommen und wird dann dazu im root unter /opt eingehängt.

Zur Übertragung weiterer ISO Dateien wird in "/etc/vsftp.conf" das Schreiben über ftp erlaubt und mit "rcvsfp restart" der ftp Server aktualisiert gestartet.

Bei uns auf den NAS Stationen (Buffalo Linkstation live) läuft auch der Midnight Commander, der einen ftp Client eingebaut hat. So übertrage ich direkt vom NAS Server zum XEN-Server im Schnellgang die vorher herunter geladenen dicken 2 Giga Brocken mit fast Netzwerk Geschwindigkeit.

Das ist die opensuse DVD, sowie einige Brocken aus der SLES11, die ich für die HPASM Daemons zur Serverüberwachung brauche.

150 - RPMs werden auf den XEN-Server kopiert


Dazu kommen noch die erforderlichen RPMs wie weiter oben beschrieben.

180 - SNMP installieren

Für die Serverüberwachung benötigen wir das SNMP Protokoll und den snmp Dienst sowie die HP/Compaq Server Daemeons.

Über yast suchen wir nach snmp und aktivieren "net-snmp", die 64 bit version. Aus den Dokumentationen der HP Software wissen wir bereits, daß diese Daemons 32 Bit Kompilate sind.

Beim aktivieren von net-snmp werden noch einige andere Teile installiert. Danach aktivieren wir noch "collectd-plugin-snmp" vorbereitend für eine Hardware-Überwachung.
-
Eine Empfehlung ist, das HP PSP (Proliant Suppport Pack) zuinstallieren, da wäre alles drinnen:

Dateiname ist "psp-8.70.sles11.x86_64.en.tar.gz" mit etwa 142 MB - Das wird auf den Zielserver in /tmp kopiert und in /op7/psp-support/ ausgepackt.


Dort habe ich laut CLI- (Command Line Interface) Help- File folgendes aufgerufen:

./hpsum /dryrun (simuliere das Update, ohne etwas zu machen !!!!)

und dann einzeln die benötigten 32 bit !!!! Libs nachgerüstet, die 64 Bit waren alle bereits da.

Es ist mühsam, langweilig und dauert, aber am Ende kam nur noch diese letzte Meldung : "hpsum: cannot connect to X server"

Aha, das muß unter VNC aufgerufen werden wie auch später das yast2 für die XEN VM Installationen.

184 - der HP System Update Manager unter VNC-Viewer

Also den VNC Tunnel aufgemacht, auf einer Textkonsole "vncserver " eingegeben und die Konsolennumer erfahren, es ist bei uns immer erst mal die :2

Auf meinem Windows PC den TightVNC2.0 aufgerufen, IP Nummer und Konsolennummer eingetippt, dann das VNC-Paswort des Servers und ich hatte eine X11-Konsole sogar schon im richtigen Verzeichnis: /opt/support-pack/

Dort habe ich nochmal von hand ./hpsum /dryrun aufgerufen und es hat geklappt, die HP Maske kam hoch.

Inziwschen sucht der Installer nach vorhandener Software = Step 2 of 3 = Check for.....

Er hat aber nichts gefunden, darum Cancel angeklickt . . .

Es sind keine Tools "to build source RPMs" vorhanden. also OK

folgende Voraussetzungen waren noch zu erkennen:
glib-1.2.10-15.i386 or later
libstdc++33-32bit-3.3.3-11.9 or later
perl-snmp-5.4.2.1.6.3.x86_64 or later
net-snmp-5.4.2.1-6.3-x86_64 or later

also mal sehen:
wenn ich aus dem entpackten Supportpack "rpm -ivp hp-snmp-agents-8.7.0.23-18.sles11.x86_64.rpm" aufrufe, kommt:

error: Failed dependencies:
        hp-health is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libcpqci.so.2 is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libcpqci64.so.2()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libhpasmintrfc.so.3 is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libhpasmintrfc64.so.3()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libhpev.so.1 is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmp.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmpagent.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmphelpers.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmpmibs.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64

wenn ich "rpm -ivp hp-health-8.7.0.22-22.sles11.x86_64.rpm" aufrufen , kommt:

Preparing packages for installation...
hp-health-8.7.0.22-22
Please read the Licence Agreement for this software at

         /opt/hp/hp-health/hp-health.license

By not removing this package, you are accepting the terms
of the "HP Proliant Essentials Software End User License Agreement".
==============================================================================
NOTE: To activate the software contained in this package, you must type:
      /etc/init.d/hp-health start
      /etc/init.d/hp-asrd start
as 'root' user.
==============================================================================
The hp-health RPM has installed successfully.

wenn ich dann wieder "rpm -ivp hp-snmp-agents-8.7.0.23-18.sles11.x86_64.rpm" aufrufe, kommt:

error: Failed dependencies:
        libnetsnmp.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmpagent.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmphelpers.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64
        libnetsnmpmibs.so.15()(64bit) is needed by hp-snmp-agents-8.7.0.23-18.x86_64

also habe ich per yast nach snmp gsucht und diese libsnmp15 nachinstalliert und auf einmal gehts:

/opt/support-pack $ rpm -ivp hp-snmp-agents-8.7.0.23-18.sles11.x86_64.rpm
Preparing packages for installation...
hp-snmp-agents-8.7.0.23-18
Please read the Licence Agreement for this software at

         /opt/hp/hp-snmp-agents/hp-snmp-agents.license

By not removing this package, you are accepting the terms
of the "HP Proliant Essentials Software End User License Agreement".
==============================================================================
NOTE: In order to activate the software contained in this package, you must
      type '/sbin/hpsnmpconfig' as 'root' user.
      Once configuration is completed start the agents by typing
      /etc/init.d/hp-snmp-agents start
==============================================================================

na endlich, war ein mühsamer Weg. Keines der herunter geladnen Einzel RPMs habe ich gebraucht, es war alles in dem HP Supportpack für Suse sles11 drinnen. Nicht mal das Programm hpsum hatte ich wirklich benötigt
-

186 - erste und letzte Schritte mit den HP Health snmp Daemons

$ /sbin/hpsnmpconfig

You will now be asked a series of SNMP configuration questions.  How you answer
these question will affect the way SNMP behaves.  Configuring SNMP could have
security implications on your system. If you are not sure how to answer a
question, you can abort by pressing <Ctrl-c> and no changes will be made to
your SNMP configuration.

Enter the localhost SNMP Read/Write community string

. . . . . . . .  usw . . . . . . .

Enter system location infomation
(Building, room, etc; Blank to skip): Witcom Datacenter

==============================================================================
NOTE: New snmpd.conf entries were added to the top of /etc/snmp/snmpd.conf
==============================================================================
snmpd is started
Fertig.

Auf einer weiteren Konsole läuft imme rhtop zu CPU Auslastung.

und jetzt kommt der grosse Moment: mit /etc/init.d/hp-snmp-agents start

[xen1.ipw.net - root] / $ /etc/init.d/hp-snmp-agents start
Starting Proliant System Health Monitor (hpasmd):      done
Starting Health agent (cmahealthd):                            done
Starting Standard Equipment agent (cmastdeqd):       done
Starting Host agent (cmahostd):                                  done
Starting Threshold agent (cmathreshd):                      done
Starting RIB agent (cmasm2d):                                     done
Starting Rack Infrastructure Info Srv (cpqriisd):        done
Starting Rack agent (cmarackd):                               done
Starting Performance  agent(cmaperfd):                      done
Starting SNMP Peer (cmapeerd):                                  done
Starting Storage Event Logger (cmaeventd):             done
Starting FCA agent (cmafcad):                                    done
Starting SAS agent (cmasasd):                                   done
Starting IDA agent (cmaidad):                                      done
Starting IDE agent (cmaided):                                    done
Starting SCSI agent (cmascsid):                               done
Starting NIC Agent Daemon (cmanicd):   Unable to determine if cmanic successfully started


[xen1.ipw.net - root] / $ /etc/init.d/hp-snmp-agents status
cmahealthd is ...                                                running
cmastdeqd is ...                                                  running
cmahostd is ...                                                    running
cmathreshd is ...                                                 running
cmasm2d is ...                                                      running
cpqriisd is ...                                                      unused
cmarackd is ...                                                   unused
cmaperfd is ...                                                   running
cmapeerd is ...                                                 running
cmaeventd is ...                                                running
mafcad is ...                                                      running
cmasasd is ...                                                     running
cmaidad is ...                                                    running
maided is ...                                                     running
mascsid is ...                                                    running
manicd is ...                                                      unused
[xen1.ipw.net - root] / $

188 - Enttäuschung - 1 CPU rennt mit 100% und es geht nicht

Irgendwo ist noch der Wurm drinnen, den eine CPU läuft mit dem gestarteten HP-health Daemon mit 100%. Weiterhin laufen jetzt einige andere Programme nicht mehr.

Es funktioniert also so nicht, eine Kollision von alten SLES 11 HPASM Modulen und neuen Opensuse 11.4 SNMP Modulen ???

Da für mich die Hardwareüberwachung den allerobersten Stellenwert besitzt, noch ein neuer Versuch mit SLES 11 als XEN DOM-0 Grundsystem und der HPASM Hardware-Kontrolle.

Warum gibt es die HPASM Module nicht als Source, dann könnte man die jeweils aktuelle Version auf sein aktuelles Linux anpassen ?

 

 

Zurück zur Startseite ----- © 2009 / 2018 - Copyright by Dipl. Ing. Gert Redlich - Zum Telefon - - - - NEU : Zum Flohmarkt