9. August 2010: PXE und BOOTP

Live-CDs sind eine geniale Erfindung. Auf jedwedem Computer kann man so eine gewohnte Umgebung nutzen ohne zuvor eine langwierige Installations-Prozedur durchlaufen zu müssen. Und das ganz ohne die Daten auf dem Rechner an-zufassen. Leider muss man, um sie zu nutzen, entweder eine CD brennen, oder einen USB-Stick entsprechend herrichten. Das kann sich mitunter mindestens ebenso langwierig gestalten.

Grund genug das Heim-Netzwerk um einen Boot-Server zu erweitern. Damit sollten sich die CD-Flut im Zaum halten und der USB-Stick weniger häufig formatieren lassen. Und die Installation ist dabei auch noch herrlich einfach:

apt-get install tftpd-hpa

Natürlich muss der Dienst auch noch konfiguriert werden, aber das komplizierteste dabei ist noch das Spezifizieren des Installations-Verzeichnisses. Mit diesem Dienst kann man nun fertige PXE-Images via Netzwerk starten. Zum Beispiel eine Debian-Installation, oder Tools wie ConeZilla. Praktisch!

Doch es geht auch noch besser. Wenn man auf seinem Debian-System einen NFS-Server betreibt, ist es auch möglich zum Beispiel Ubuntu via Netzwerk zu starten. Der Trick besteht darin, dass File-System komplett via NFS einzuhängen – und somit einen USB-Stick oder eine CD überflüssig zu machen. Eine feine Sache, und durchaus performant! Kleiner Tipp dazu: Den Inhalt des ISO-Images nicht auf das Filesystem kopieren, sondern direkt auf den freigegeben NFS-Pfad mounten.

4. March 2010: Spezialist

Eigentlich sollte es ja Certified Linux Administrator heißen, aber Data Center Technical Specialist klingt auch gut:

3. December 2009: Zurück

Vor ein paar Tagen habe ich mich doch dazu überwinden können und das Backup meiner Windows-Installation zurück gespielt. Es ist mir wirklich nicht leicht gefallen – schließlich ist mir Tux auch ein Stück weit ans Herz gewachsen. Aber die anhaltenden Abstürze durch die mangelhafte Treiber-Implementation seitens nVidia wurden mir zum Schluss schlichtweg zu häufig. Mag sein, dass die Hardware nicht optimal für eine Linux-Konfiguration ist, aber ich bin nicht gewillt neue Hardware für bessere Treiberunterstützung zu kaufen (mit Windows 7 käme ich günstiger weg). Allerdings werde ich beim nächsten Kauf durchaus darauf achten.

Apropos Windows 7: Den Schritt werde ich mir (vorerst) sparen. Beim ersten Service Pack werde ich es mir allerdings nochmals genauer anschauen.

20. November 2009: Linux-Bilanz

Vor drei Wochen bin ich auf Linux umgestiegen. Seinerzeit hatte ich mir vorgenommen mindestens für eben diese Zeit die Entscheidung nicht rückgängig zu machen. Grund genug für eine kleine Bilanz:

Nachteile

  • ACPI funktioniert nicht zuverlässig, StandBy und Hibernate können nicht genutzt werden. Hibernate funktioniert überhaupt nicht, StandBy hat Probleme den Computer wieder korrekt aufzuwecken. Skurriler Weise führt dies dazu, dass ich den Linux-Rechner wesentlich häufiger herunterfahre als sein Windows-Pendant.
  • Die nVidia-Treiber sind unausgereift. Es kommt laufend zu spontanen Abstürzen in 3D-Applikationen. Weder die Ubuntu-Treiber, noch die Original nVidia-Treiber leisten Abhilfe.
  • Tastatur-Eingaben hängen manchmal hinterher, allerdings scheint dies auf FireFox beschränkt zu sein.
  • Magnetische Fenster sind nicht toll, das Feature lässt sich leider auch nicht abschalten.
  • Dauerhaft verzerrter Sound in VirtualBox-Instanzen (kommt unter Windows nur nahezu gar nicht vor) – gelegentlich auch unter Wine.
  • Man bekommt den Desktop nicht grundsätzlich Icon-frei.

Vorteile

  • Die TV-Karte funktioniert auch in der 64-Bit Ausführung des Betriebssystems (welche aufgrund von 8GB RAM Pflicht ist).
  • Widgets sind unter gnome wesentlich toller!

Rein optisch betrachtet spricht diese Liste durchaus für sich selbst. Der Weg zurück zu Bill ist Dank eines Disk-Images auch sehr kurz und schmerzfrei. Allerdings habe ich mich mittlerweile durchaus an einige Funktionen (Multi-Desktop) und Methoden (File-System) gewöhnt, die ich unter Windows schmerzlich vermissen würde. Und am Ende würde ich vermutlich auch noch zu Windows 7 neigen. Vielleicht nutze ich doch erst noch ein wenig die Zeit an den Knackpunkten zu arbeiten. Auch wenn bei den Grafiktreibern vermutlich nicht viel zu machen sein wird…

8. November 2009: LPIC vs MCTS

Nach meiner erfolgreichen LPIC habe ich mich dem MCTS zugewandt. Ziel ist zwar eine MCP-Zertifizierung, aber auf dem Weg dahin hat Bill zwei Vor-Zertifizierungen gestellt. Angefangen habe ich mit dem 70-642, da es einige Teile dessen enthält, die ich erst kürzlich für die LPIC gelernt habe. Interessant sind dabei die Unterschiede zwischen beiden Ansätzen. Hier ein paar Exemplare.

  • Bei Microsoft ist der Ansatz für TCP/IP ein wenig anders. IP-Adressen werden hier in Netzwerk- und Host-IDs aufgeteilt. Derlei Terminologie fehlte bei Linux komplett – zumindest was den Host-Teil betrifft, die Netzwerk-Adresse wurde in einem etwas anderen Kontext benutzt. Allerdings ist es eine gute Grundlage für die CIDR-Notation (die übrigens die klassische Aufteilung in A-, B- und C-Netzwerke abgelöst hat, wie ich nun weiß), wenn die Definition denn auch beim Subnetting noch um die Subnet-ID erweitert werden muss.
  • IPv6 war beim LPIC kein Thema. Der MCTS wird hier konkret. Im Allgemeinem kann man sagen, dass der MCTS in Sachen Netzwerk wesentlich detaillierter ist (was allerdings auch in der Natur der Sache liegt).
  • Für das LPIC reicht es den Befehl zu kennen – Hilfe-Funktionen und manpages helfen einem bei den Parametern schließlich weiter. Das MCTS legt allerdings wert darauf, dass Kandidaten wissen das start /w ocsetup DNS-Server-Core-Role den DNS-Serverdienst installiert.
  • Dafür gibt es für die Microsoft-Prüfungen offene Prüf-Testprogramme. Ähnlich wie für den theoretischen Teil der Führerscheinprüfung (die ich hauptsächlich dich das auswendig-lernen der Fragen gemeistert habe).
  • Der gravierenste Unterschied jedoch: Sind beim LPIC Gewichtung der Themengebiete und Mindestmaß für eine erfolgreiche Zertifizierung offen gelegt, hüllt sich Microsoft hier in schweigen. In dem mitgelieferten Test-Fragen hatte ich öfters 76% – und bin damit durchgefallen.

Am besten gefällt mir jedoch die mitgelieferte Test-Umgebung. Einfach ein paar virtuelle Maschinen mit Windows Server 2008 bestücken (die 8GB RAM lohnen sich auch hierbei) und die Praxis-Aufgaben im Buch mitmachen. Das klappt nicht nur super um das soeben gelernte zu verfestigen, sondern macht auch noch Spaß!

MCTS-Vorbereitung

Unschön am Buch hingegen: Es gibt Kapitel in denen erst Gemacht und anschließend Erklärt wird. Man richtet also zum Beispiel erst eine Health Requirement Policy ein und bekommt dann anschließend erklärt was das eigentlich ist, woraus sie besteht und was sie macht – bekommt also das, was man zuvor getan hat erklärt. Umgekehrt ist es wesentlich verständlicher. In den Auflösungen zu (mindestens einer) Testfrage ist im übrigen auch eine falsche Antwort genannt (DHCP-Option 015 ist nunmal nicht der Router).

Im Allgemeinen ist es schon sehr schockierend / amüsant (je nachdem, auf welcher Seite man steht), wie oft man in den Übungen die Server der Test-Umgebung neu starten soll. IPv6 deaktiviert? Server neu starten. NetBIOS aktiviert? Server neu starten. Nicht, dass man das wirklich müsste – abgesehen von etwaigem merkwürdigen Verhalten bei der Namensauflösung – aber was soll man davon halten wenn dieses Vorgehen konsequent in den offiziellen Microsoft-Büchern beschrieben ist? Die Ausführungen über die Notwendigkeit einer Network Access Protection seien besser erst garnicht erwähnt.

3. November 2009: Mein erstes Zertifikat

Ich erwähnte ja schon, dass ich die Linux-Zertifizierung erfolgreich gemeistert habe. Heute kam dann auch die dazugehörige Urkunde bei mir an:

Ging um einiges schneller, als mir vorher gesagt wurde (vier bis sechs Wochen). Schade nur, dass der Postbote sie fies geknickt hat um sie in den Briefkasten zu quetschen.

31. October 2009: Adios, Bill!

Ich hab es getan. Donnerstag, so ganz nebenbei. Es hat ein wenig gezwickt, aber alles in allem ging es doch problemlos. Zugegeben, ein wenig gezögert habe ich schon. Aber wer kann einem die Aufregung schon verdenken? Immerhin ist es das erste Mal. Und nach wie vor mutiger Schritt. Den ich bislang auch noch nicht bereut habe – wenn ein Resümeé allerings auch verfrüht wäre.

Was genau ich denn getan habe? Meine Sachen gepackt, wie so viele es derzeit tun, und den Umstieg gewagt:

Nein, nicht auf einen Mac. Überteuerte Hardware mit einem bevormundenden Betriebssystem wäre ja auch eher ein Schritt zurück. Nein, ich bin auf Linux umgestiegen. Ubuntu, um genau zu sein. Canonical hat nämlich Karmic Koala (Version 9.10) gerade verabschiedet. Getestet habe ich die Version ja ohnehin schon einige Wochen. Und auf das einzig fehlende Featurebin ich mittlerweile auch nicht mehr angewiesen.

Mal schauen wie es sich entwickelt. So sorgenfrei wie Windows ist eine Linux-Installation jedenfalls nicht – wenn sich die Sorgen auch eher auf technische Aspekte beschränken und nicht auf Sicherheit.

30. October 2009: Getunnelt

Wie konnte man doch gleich Webseiten aufrufen, die die Herkunft der Anfrage anhand der IP-Adresse feststellen, von die die Anfrage ausgeht? Richtig, mit einem SSH-Tunnel! Und wie genau geht das doch gleich? Unter Linux ist es recht einfach:

ssh -D 8080 <host>

Unter Windows geht es dank PuTTY allerdings auch:

PuTTY-Tunnel

Anschließend im lokalen Browser localhost:8080 als SOCKS-Proxy hinterlegen und lossurfen! Für Webseiten funktioniert das wunderbar. Ob Videos auch über den Proxy angefragt werden oder, wie zum Beispiel DNS-Anfragen, weiterhin direkt angefordert werden, müsste noch getestet werden.

28. October 2009: Tücken mit Linux

Man sollte es eigentlich besser wissen, wenn man die Test-Version von Debian auf seinen Systemen installiert: Manchmal funktioniert irgend etwas nicht mehr. Urplötzlich. Und einfach so. War es vor einigen Wochen noch der VLC-Player (der auf einmal einen Filter nicht mehr enthielt, den ich für meinen Streaming-Server genutzt habe), war es dann vor einigen Tagen BackupPC, die Backup-Lösung für meine Linux-Systeme (und den Windows-Server). Besonders ärglich war dies, weil ich gerade auf einen Restore-Point zurückgreifen musste.

Im Falle des BackupPC-Problems war die Fehlermeldung leider nicht wirklich offensichtlich. Beim Aufruf der entsprechenden Webseite beschwerte sich die Installation auf einmal, dass sie unter einem falschen User laufen würde. Lighttpd, der nicht nativ unterstützt wird, zeigte sich unschuldig. Ein fehlendes SUID-Bit für /usr/share/backuppc/cgi-bin/index.cgi war die Ursache. Hier hatte wohl ein Update zugeschlagen.

Leider funktionierte danach noch weniger als zuvor: Beim Aufruf der Seite kam jetzt zwar nicht mehr die oben genannte Meldung, dafür aber interne Server-Fehler (500) ohne weitere Auskunft – auch nicht in den Log-Dateien. Ein ausführen der betroffenen index.cgi direkt in der Konsole klappte zwar mit root problemlos, mit dem www- oder backuppc-User jedoch kam eine neue Fehlermeldung:

perl: error while loading shared libraries: libperl.so.5.10: cannot open shared object file: Permission denied

Kein Wunder, existierte die Datei doch garnicht (mehr). Irgend ein Update hatte sie wohl gelöscht. Das erklärt zwar nicht, warum mit root-Rechten der Aufruf immernoch funktionierte, lieferte jedoch einen Lösungs-Ansatz:

apt-get install libperl5-10

Und siehe da: Alles funktioniert wieder wie gehabt. Vielleicht sollte man doch die stable-Versionen von Debian nutzen. Aber die hängen der Funktionalität mitunter ja leider um Jahre hinterher.

20. October 2009: Junior-Pinguin

Habe heute die LPIC-102 Prüfung erfolgreich absolviert und darf man daher ab sofort Junior Level Linux Professional nennen!

Wie schon in der vorherigen Prüfung hab es auch diesmal wieder Themengebiete, die nicht im Buch genannt wurden (Aufbau der ntpd.conf, X-Konfiguration, CIDR). Für die kommende Zertifizierung sollte ich mir aneignen vorher nochmal den Anforderungskatalog abzugleichen.