Sie sind hier : Homepage →  Linux (1) Server-Installation→  hier stehen die veralteten Seiten→  j) Suse 12.2/64 XEN Versuche

Erste Versuche mit Suse 12.2 auf einem Proliant Server

Proliant DL 385 mit 2 DC Opterons

4.12.2012 - Ich habe absichtlich bis zum Dezember 2012 gewartet, damit ich nicht wieder über die simpelsten Fehler bei der Installation stolpere wie bei opensuse 10.3 und 11.4 und 12.1 . In meinen Proliant 385 arbeiten jeweils 4 Opteron 275 Kerne und darum kommen nur noch die 64bit Versionen infrage.

Erstens : Es ist wieder alles anders als früher - ok.


Zweitens : Grub2 (default) ist etwas "sehr" wählerisch. Man darf durchaus das Ganze zwei mal installieren oder drei mal, wenn der Server nicht mehr startet. Wenn man nämlich gleich grub2 "AB"-wählt zugunsten des alten grub bootloaders, dann geht es sofort.

Die minimale 12.2 Serverversion ist etwas über 500 MB groß (wird aus dem Netz geladen), wenn man von der 12.2-NET Installations-CD (ca. 200MB groß) startet.

Wählt man aber "minimale Serverversion" und zusätzlich X11 (minimale Grafik), sind es schon 1,5 Gigabyte, die vom Suse Server geladen werden wollen. Eigentlich sollten man gleich die VM-XEN Module mit laden und auch die VNC-Verwaltung des Servers. So kommt man auf "lockere" 2 Gigabyte pro Installation des XEN- Grundsystems, der DOM0.

War das wirklich so gewollt ? Warum werden so viele Gnome und KDE Brocken mit herunter geladen, die ich nie und nimmer auf meinen Server haben wollte ?

Doch das ist bei DSL 16.000 das geringste Problem - die "Gesundheit" der Festplatten ist viel wichtiger:

Jan. 2013 - Ein kleines Erfolgserlebnis: hpacucli 9.30...x86_64

Man soll ja die Hoffnung nie aufgeben, speziell, wenn es "nie" (also fast 2 Jahre lang) richtig funktioniert hatte. Die HP-Health Module, die per snmp Protokoll die Gesundheit in Echtzeit anzeigen könnten (bzw. damals angezeigt hatten), funktionieren bei mir jedenfalls weder unter Suse SLES11 (alle Versionen und Updates) noch unter opensuse 12.1 oder 12.2.

Doch es gibt eine kleine Hilfe, die cli (command line) utils genannt "hpacucli".

Die habe ich in meiner Not herunter geladen und auf der DOM0 unter "opensuse 12.2" installiert und der wichtigste Befehl funktioniert (sogar) !!!

Also bei HP das Paket hpacucli-9.30-15.0.x86_64.rpm holen . . .

Als Serveradmin als root angemeldet z.B. in /tmp/ verzweigen und mit

wget ftp.hp.com/pub/softlib2/software1/pubsw-linux/p1257348637/v77370/hpacucli-9.30-15.0.x86_64.rpm

die 6MB holen und mit

   rpm -i hpacucli-9.30-15.0.x86_64.rpm

installieren.

Dann der erste Versuch mit:

[XEN1-DOM0 - root] /tmp $   hpacucli ctrl all show config

und das wird bei mir angezeigt:

Smart Array 6400 in Slot 0 (Embedded)     (sn: P57..)

      logicaldrive 1 (6.4 GB, RAID 5, OK)
      logicaldrive 2 (58.6 GB, RAID 5, OK)
      logicaldrive 3 (39.1 GB, RAID 5, OK)
      logicaldrive 4 (39.1 GB, RAID 5, OK)
      logicaldrive 5 (58.6 GB, RAID 5, OK)
      logicaldrive 6 (39.1 GB, RAID 5, OK)
      logicaldrive 7 (39.1 GB, RAID 5, OK)
      logicaldrive 8 (39.1 GB, RAID 5, OK)
      logicaldrive 9 (39.1 GB, RAID 5, OK)
      logicaldrive 10 (39.1 GB, RAID 5, OK)
      logicaldrive 11 (39.1 GB, RAID 5, OK)
      logicaldrive 12 (39.1 GB, RAID 5, OK)
      logicaldrive 13 (39.1 GB, RAID 5, OK)
      logicaldrive 14 (58.6 GB, RAID 5, OK)
      logicaldrive 15 (9.8 GB, RAID 5, OK)
      logicaldrive 16 (9.8 GB, RAID 5, OK)
      logicaldrive 17 (91.3 GB, RAID 5, OK)
   array A (Parallel SCSI, Unused Space: 0  MB)

      physicaldrive 2:0   (port 2:id 0 , Parallel SCSI, 146.8 GB, OK)
      physicaldrive 2:1   (port 2:id 1 , Parallel SCSI, 146.8 GB, OK)
      physicaldrive 2:2   (port 2:id 2 , Parallel SCSI, 146.8 GB, OK)
      physicaldrive 2:3   (port 2:id 3 , Parallel SCSI, 146.8 GB, OK)
      physicaldrive 2:4   (port 2:id 4 , Parallel SCSI, 146.8 GB, OK)
      physicaldrive 2:5   (port 2:id 5 , Parallel SCSI, 146.8 GB, OK)

[XEN1-DOM0 - root] /tmp $
.

Und so sieht es aus, wenn ein Fehler aufgetreten ist und der Admin sofortigen Leidensdruck spürt

Smart Array 6400 in Slot 0 (Embedded)     (sn: P5............)

      logicaldrive 1 (7.8 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 2 (39.1 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 3 (39.1 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 4 (39.1 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 5 (19.5 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 6 (19.5 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 7 (9.8 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 8 (9.8 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 9 (58.6 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 10 (9.8 GB, RAID 5, Interim Recovery Mode)
      logicaldrive 11 (87.1 GB, RAID 5, Interim Recovery Mode)
  array A (Parallel SCSI, Unused Space: 0  MB)

      physicaldrive 2:0   (port 2:id 0 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:1   (port 2:id 1 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:2   (port 2:id 2 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:3   (port 2:id 3 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:4   (port 2:id 4 , Parallel SCSI, ??? GB, Failed)
      physicaldrive 2:5   (port 2:id 5 , Parallel SCSI, 72.8 GB, OK)
.
Jetzt aber schnell, bevor die nächste Platte den geist aufgibt.
.

Kurz vor Ende des "rebuilt" wird dieses angezeigt:

Smart Array 6400 in Slot 0 (Embedded)     (sn: P57..)

      logicaldrive 1 (7.8 GB, RAID 5, OK)
      logicaldrive 2 (39.1 GB, RAID 5, OK)
      logicaldrive 3 (39.1 GB, RAID 5, OK)
      logicaldrive 4 (39.1 GB, RAID 5, OK)
      logicaldrive 5 (19.5 GB, RAID 5, OK)
      logicaldrive 6 (19.5 GB, RAID 5, OK)
      logicaldrive 7 (9.8 GB, RAID 5, OK)
      logicaldrive 8 (9.8 GB, RAID 5, OK)
      logicaldrive 9 (58.6 GB, RAID 5, OK)
      logicaldrive 10 (9.8 GB, RAID 5, OK)
      logicaldrive 11 (87.1 GB, RAID 5, Recovering, 99% complete)
   array A (Parallel SCSI, Unused Space: 0  MB)

      physicaldrive 2:0   (port 2:id 0 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:1   (port 2:id 1 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:2   (port 2:id 2 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:3   (port 2:id 3 , Parallel SCSI, 72.8 GB, OK)
      physicaldrive 2:4   (port 2:id 4 , Parallel SCSI, 72.8 GB, Rebuilding)
      physicaldrive 2:5   (port 2:id 5 , Parallel SCSI, 72.8 GB, OK)

[XEN5-DOM0 - root] / $

Zuerst einmal der Befehlsumfang

[XEN5-DOM0 - root] /tmp $ hpacucli -help

CLI Syntax
   A typical ACU CLI command line consists of three parts: a target device,
   a command, and a parameter with values if necessary. Using angle brackets to
   denote a required variable and plain brackets to denote an optional
   variable, the structure of a typical ACU CLI command line is as follows:

      <target> <command> [parameter=value]

   <target> is of format:
      [controller all|slot=#|wwn=#|chassisname="AAA"|
                  serialnumber=#|chassisserialnumber=#|ctrlpath=#:# ]
      [array all|<id>]
      [physicaldrive all|allunassigned|[#:]#:#|[#:]#:#-[#:]#:#]
      [ssdphysicaldrive all|allunassigned|[#:]#:#|[#:]#:#-[#:]#:#]
      [logicaldrive all|#]
      [enclosure all|#:#|serialnumber=#|chassisname=#]
      [licensekey all|<key>]
      [ssdinfo]
      Note 1: The #:#:# syntax is only needed for systems that
              specify port:box:bay. Other physical drive targeting
              schemes are box:bay and port:id.
      Note 2: The chassisserialnumber is known in ACU as the
              RAID Array Serial Number. The chassisname is known
              in ACU as the RAID Array ID.
      Note 3: ctrlpath=#:# maps to "smart enclosure hooked up to
              host bus adapter slot:host bus adapter port"

   Example targets:
      controller slot=5
      controller chassisname="Lab C"
      controller serialnumber=P21DA2322S
      controller chassisserialnumber=9J3CJN71XDCH
      controller wwn=500308B300701011
      controller slot=7 array A
      controller slot=5 logicaldrive 5
      controller slot=5 physicaldrive 1:5
      controller slot=5 physicaldrive 1E:2:3
      controller slot=5 ssdphysicaldrive all
      controller slot=5 enclosure 4E:1 show
      controller slot=5 licensekey XXXXX-XXXXX-XXXXX-XXXXX-XXXXX

For detailed command information type any of the following:
   help add
   help create
   help delete
   help diag
   help modify
   help remove
   help shorthand
   help show
   help target
   help rescan
   help version

Help also accepts commonly used CLI parameters and ACU keywords. Adding
additional keywords will further filter the help output. Examples:
   help ssp        (shows all ssp help including show and modify commands)
   help ssp modify (restricts ssp help to only modify commands)
   help migrate
   help expand
   help extend
   help <keyword> <keyword> ... <keyword>

[XEN5-DOM0 - root] /tmp $

Die nächste Aktion ist ein shell-script mit e-mail Versand

Mir würde es reichen, wenn ich zunächst täglich zur Gesundheitsvorsorge meiner Festplatten eine e-mail bekäme.

Das wird als nächstes in den cron-job eingebaut.
.

Zusätzlicher Versuch mit hpdiags

Mit der oben genannten Software kann man nur die Festplatten bearbeiten/abfragen. Ein weiteres Tool könnte noch mehr auslesen.

Die "HP Insight Diagnostics Online Edition for Linux" gibt es hier :

ftp://ftp.hp.com/pub/softlib2/software1/pubsw-linux/p1434822916/v79548/hpdiags-9.3.0-466.linux.x86_64.rpm

die Downloadseite steht hier :

h20000.www2.hp.com/bizsupport/TechSupport/SoftwareDescription.jsp

nach der Installation durch :

rpm -ivh < rpmFilename >

soll man die CLI Tools so aufrufen können :

cd /opt/hp/hpdiags/
./hpdiags -?

[XEN5-DOM0 - root] /tmp $ rpm -i hpdiags-9.3.0-466.linux.x86_64.rpm
error: Failed dependencies:
        hpsmh is needed by hpdiags-9.3.0-466.x86_64
[XEN5-DOM0 - root]

klappt noch nicht, da fehlt etwas:

ftp://ftp.hp.com/pub/softlib2/software1/pubsw-linux/p1507410135/v64330/hpsmh-6.3.0-22.x86_64.rpm

rpm -ivh hpsmh-6.3.0-22.x86_64.rpm

dann kommt

[XEN5-DOM0 - root] /tmp $ rpm -ivh hpsmh-6.3.0-22.x86_64.rpm
Preparing...                ########################################### [100%]
Detected openSUSE 12.2
Created hpsmh user and group...
   1:hpsmh                  ########################################### [100%]

**********************************************************
* System Management Homepage installed successfully with *
* default configuration values.   To change the default  *
* configuration values,  type the following command at   *
* the root prompt:                                       *
*                                                        *
* /opt/hp/hpsmh/sbin/smhconfig                           *
*                                                        *
**********************************************************

insserv: Service network is missed in the runlevels 4 to use service HP

Note: This output shows SysV services only and does not include native
systemd services. SysV configuration data might be overridden by native
systemd configuration.

hpsmhd                    0:off  1:off  2:off  3:on   4:on   5:on   6:off
[XEN5-DOM0 - root] /tmp $

jetzt nochmal:

[XEN5-DOM0 - root] /tmp $ rpm -ivh hpdiags-9.3.0-466.linux.x86_64.rpm
Preparing...                ########################################### [100%]
   1:hpdiags                ########################################### [100%]
redirecting to systemctl
[XEN5-DOM0 - root] /tmp $

Der erste Test ist erfolgreich:

[XEN5-DOM0 - root] /opt/hp/hpdiags $ ./hpdiags -p -t > XEN5-diagnose-2013-01-17-test1.txt

Die so erzeugte LOG-Datei ist 182 Kilobyte gross !!!!


.

Zurück zur Startseite ----- © 2009 / 2018 - Copyright by Dipl. Ing. Gert Redlich - Zum Telefon - - - - NEU : Zum Flohmarkt