2539 Tage zuvor: PXE und BOOTP

Live-CDs sind eine geniale Erfindung. Auf jedwedem Computer kann man so eine gewohnte Umgebung nutzen ohne zuvor eine langwierige Installations-Prozedur durchlaufen zu müssen. Und das ganz ohne die Daten auf dem Rechner an-zufassen. Leider muss man, um sie zu nutzen, entweder eine CD brennen, oder einen USB-Stick entsprechend herrichten. Das kann sich mitunter mindestens ebenso langwierig gestalten.

Grund genug das Heim-Netzwerk um einen Boot-Server zu erweitern. Damit sollten sich die CD-Flut im Zaum halten und der USB-Stick weniger häufig formatieren lassen. Und die Installation ist dabei auch noch herrlich einfach:

apt-get install tftpd-hpa

Natürlich muss der Dienst auch noch konfiguriert werden, aber das komplizierteste dabei ist noch das Spezifizieren des Installations-Verzeichnisses. Mit diesem Dienst kann man nun fertige PXE-Images via Netzwerk starten. Zum Beispiel eine Debian-Installation, oder Tools wie ConeZilla. Praktisch!

Doch es geht auch noch besser. Wenn man auf seinem Debian-System einen NFS-Server betreibt, ist es auch möglich zum Beispiel Ubuntu via Netzwerk zu starten. Der Trick besteht darin, dass File-System komplett via NFS einzuhängen – und somit einen USB-Stick oder eine CD überflüssig zu machen. Eine feine Sache, und durchaus performant! Kleiner Tipp dazu: Den Inhalt des ISO-Images nicht auf das Filesystem kopieren, sondern direkt auf den freigegeben NFS-Pfad mounten.

2697 Tage zuvor: Spezialist

Eigentlich sollte es ja Certified Linux Administrator heißen, aber Data Center Technical Specialist klingt auch gut:

2736 Tage zuvor: Munin und Tomato

Munin ist eine System-Überwachung für Linux und, nachdem ich meinen Homeserver “neu aufsetzen” durfte, auch meine neue Lösung zur Überwachung des Heim-Netzwerks. Da Munin schön modular aufgebaut ist und den Status mehrerer Systeme zentral zusammenfasst, lag es nur nah auch den Router, der unter Tomato läuft, mit in die Überwachung zu integrieren.

Da es keine Möglichkeit gibt eine Munin-Node nativ unter Tomato laufen zu lassen, muss man auf SNMP zurückgreifen. Denn einen SNMPd gibt es mit integrierten Bibliotheken in kompakter Form bereits fertig zum Download. Nachdem er einmal entpackt ist, kopiert man ihn (über eine CIFS-Freigabe) auf den Router – oder lässt ihn direkt von der Freigabe aus laufen, je nach belieben. In meinem Fall wollte ich ihn auf dem verbleibenden JFFS-Speicherbereich laufen lassen. Dazu muss unter dem JFFS-Punkt Execute when Mounted folgender Aufruf hinterlegt werden:

/jffs/snmpd -c /jffs/snmpd.conf &

Der SNMP-Dienst sollte jetzt laufen. Ein beliebiger SNMP-Client sollte jetzt Daten auslesen können. Eben auch Munin, für das jedoch zunächst die SNMP-Plugins auf dem überwachenden Rechner entsprechend eingerichtet werden müssen. Zunächst legt man eine virtuelle Node in /etc/munin/munin.conf an:

[abeir.selune]
address 127.0.0.1
use_node_name yes
[shar.selune]
address 127.0.0.1
use_node_name no

Anschließend kann man sich mit munin-node-configure --snmp shar.selune --snmpversion 2c --snmpcommunity public die notwendigen Links generieren lassen – einfach die Ausgabe kopieren und entsprechend ausführen. Startet man noch den Munin-Dienst neu (/etc/init.d/munin-node restart) braucht man nur noch ein wenig zu warten und die ersten Daten fließen in die Auswertung mit ein:

2743 Tage zuvor: Tages-Planung

Vor nicht allzu langer Zeit erwähnte ich, dass der HP DreamScreen eine tolle Sache sei. Denn er bietet die Möglichkeit Bilder (und Musik) über die integrierte WiFi-Schnittstelle nachzuladen. Soweit, so gut.

Nachdem ich mir Ende November günstig einen zugelegt habe, konnte ich die letzten Tage auch endlich ein wenig intensiver Zeit investieren um ihn für das zu nutzen, für das er gedacht war. Nämlich morgendlich eine Übersicht über all jenes anzuzeigen, was den Tag über so los ist. Ist heute etwas geplant? Was macht Mami? Wer kommt zu Besuch? Wie wird das Wetter? Was ist über Nacht in der Welt passiert?

Das Programm um ein entsprechendes Bild aus diversen Feeds zu erstellen war auch recht zügig geschrieben. Allerdings sind die Grenzen des DreamScreen ein wenig zu eng gesteckt, um das Ziel zu erreichen. Denn es gibt zwar die Möglichkeit Daten drahtlos abzugleichen und Musik direkt aus dem Netzwerk abzuspielen (auch wenn man dazu den Windows Media Player installiert haben muss). Man ist dabei jedoch leider auf Pull-Dienste angewiesen, sprich man muss manuell am DreamScreen die Daten abfragen – eine Push-Möglichkeit, bei der ein Programm ein Bild zur Anzeige an den Bilderrahmen schickt, gibt es nicht.

Damit ist das Projekt also frühzeitig gescheitert. An einer unzureichenden Software-Implementation seitens HP. Auch ein SDK um gegebenenfalls eine eigene Lösung dafür zu entwickeln, gibt es nicht. Dabei läuft der DreamScreen auf einer Embedded Linux Plattform und bietet daher theoretisch alle Funktionalitäten um das gewünschte Verhalten problemlos zu bieten. Zwar offenbarte ein Netzwerk-Sniffer das die Daten mittels SOAP abgeglichen werden, man auf diese Weise vermutlich auch automatisch Bilder hochladen könnte, allerdings fehlen damit immer noch Steuerungsfunktionen wie zum Beispiel ein bestimmtes Bild anzeigen zu lassen.

Bleibt nur zu hoffen, dass HP seine angeblichen Pläne umsetzt und in der Tat grosses aus der ansonsten guten Hardware macht – oder zumindest jemand es schafft Zugang zu dem Linux-System zu erhalten.

2788 Tage zuvor: Zurück

Vor ein paar Tagen habe ich mich doch dazu überwinden können und das Backup meiner Windows-Installation zurück gespielt. Es ist mir wirklich nicht leicht gefallen – schließlich ist mir Tux auch ein Stück weit ans Herz gewachsen. Aber die anhaltenden Abstürze durch die mangelhafte Treiber-Implementation seitens nVidia wurden mir zum Schluss schlichtweg zu häufig. Mag sein, dass die Hardware nicht optimal für eine Linux-Konfiguration ist, aber ich bin nicht gewillt neue Hardware für bessere Treiberunterstützung zu kaufen (mit Windows 7 käme ich günstiger weg). Allerdings werde ich beim nächsten Kauf durchaus darauf achten.

Apropos Windows 7: Den Schritt werde ich mir (vorerst) sparen. Beim ersten Service Pack werde ich es mir allerdings nochmals genauer anschauen.

2801 Tage zuvor: Linux-Bilanz

Vor drei Wochen bin ich auf Linux umgestiegen. Seinerzeit hatte ich mir vorgenommen mindestens für eben diese Zeit die Entscheidung nicht rückgängig zu machen. Grund genug für eine kleine Bilanz:

Nachteile

  • ACPI funktioniert nicht zuverlässig, StandBy und Hibernate können nicht genutzt werden. Hibernate funktioniert überhaupt nicht, StandBy hat Probleme den Computer wieder korrekt aufzuwecken. Skurriler Weise führt dies dazu, dass ich den Linux-Rechner wesentlich häufiger herunterfahre als sein Windows-Pendant.
  • Die nVidia-Treiber sind unausgereift. Es kommt laufend zu spontanen Abstürzen in 3D-Applikationen. Weder die Ubuntu-Treiber, noch die Original nVidia-Treiber leisten Abhilfe.
  • Tastatur-Eingaben hängen manchmal hinterher, allerdings scheint dies auf FireFox beschränkt zu sein.
  • Magnetische Fenster sind nicht toll, das Feature lässt sich leider auch nicht abschalten.
  • Dauerhaft verzerrter Sound in VirtualBox-Instanzen (kommt unter Windows nur nahezu gar nicht vor) – gelegentlich auch unter Wine.
  • Man bekommt den Desktop nicht grundsätzlich Icon-frei.

Vorteile

  • Die TV-Karte funktioniert auch in der 64-Bit Ausführung des Betriebssystems (welche aufgrund von 8GB RAM Pflicht ist).
  • Widgets sind unter gnome wesentlich toller!

Rein optisch betrachtet spricht diese Liste durchaus für sich selbst. Der Weg zurück zu Bill ist Dank eines Disk-Images auch sehr kurz und schmerzfrei. Allerdings habe ich mich mittlerweile durchaus an einige Funktionen (Multi-Desktop) und Methoden (File-System) gewöhnt, die ich unter Windows schmerzlich vermissen würde. Und am Ende würde ich vermutlich auch noch zu Windows 7 neigen. Vielleicht nutze ich doch erst noch ein wenig die Zeit an den Knackpunkten zu arbeiten. Auch wenn bei den Grafiktreibern vermutlich nicht viel zu machen sein wird…

2803 Tage zuvor: Mobiles WLAN

Ich habe heute mein Telefon via USB mit dem Computer verbunden um ein paar Dateien zu übertragen. Nichts aufregender als das einstecken eines USB-Sticks. Eigentlich. Doch was musste ich sehen, als ich nach dem Mount-Point des Gerätes geschaut habe?

maztica:~# dmesg | tail -20
[28035.631359] usb 1-2.1: new high speed USB device using ehci_hcd and address 8
[28035.750943] usb 1-2.1: configuration #1 chosen from 1 choice
[28035.832013] rndis_host 1-2.1:1.0: RNDIS_MSG_QUERY(0x00010202) failed, -47
[28035.851942] eth1: register 'rndis_host' at usb-0000:00:1a.7-2.1, RNDIS device, 80:00:60:0f:e8:00
[28035.851967] usbcore: registered new interface driver rndis_host
[28036.021362] cfg80211: Calling CRDA to update world regulatory domain
[28036.025282] usbcore: registered new interface driver rndis_wlan
[28036.030602] cfg80211: World regulatory domain updated:
[28036.030606] (start_freq - end_freq (a) bandwidth), (max_antenna_gain, max_eirp)
[28036.030609] (2402000 KHz - 2472000 KHz (a) 40000 KHz), (300 mBi, 2000 mBm)
[28036.030612] (2457000 KHz - 2482000 KHz (a) 20000 KHz), (300 mBi, 2000 mBm)
[28036.030614] (2474000 KHz - 2494000 KHz (a) 20000 KHz), (300 mBi, 2000 mBm)
[28036.030617] (5170000 KHz - 5250000 KHz (a) 40000 KHz), (300 mBi, 2000 mBm)
[28036.030620] (5735000 KHz - 5835000 KHz (a) 40000 KHz), (300 mBi, 2000 mBm)
[28046.381255] eth1: no IPv6 routers present

Sollte sich das Telefon einfach als Ethernet-Adapter am System angemeldet haben?

maztica:~# ifconfig eth1
eth1 Link encap:Ethernet HWaddr 80:00:60:0f:e8:00
inet addr:169.254.2.2 Bcast:169.254.2.255 Mask:255.255.255.0
inet6 addr: fe80::8200:60ff:fe0f:e800/64 Scope:Link
UP BROADCAST RUNNING MULTICAST MTU:1500 Metric:1
RX packets:32 errors:26 dropped:0 overruns:0 frame:0
TX packets:32 errors:0 dropped:0 overruns:0 carrier:0
collisions:0 txqueuelen:1000
RX bytes:2653 (2.6 KB) TX bytes:6347 (6.3 KB)

Ja, hat es. Tolle Sache! Falls ich irgendwann mal Bedarf an einer WLAN-Karte haben sollte.

2813 Tage zuvor: LPIC vs MCTS

Nach meiner erfolgreichen LPIC habe ich mich dem MCTS zugewandt. Ziel ist zwar eine MCP-Zertifizierung, aber auf dem Weg dahin hat Bill zwei Vor-Zertifizierungen gestellt. Angefangen habe ich mit dem 70-642, da es einige Teile dessen enthält, die ich erst kürzlich für die LPIC gelernt habe. Interessant sind dabei die Unterschiede zwischen beiden Ansätzen. Hier ein paar Exemplare.

  • Bei Microsoft ist der Ansatz für TCP/IP ein wenig anders. IP-Adressen werden hier in Netzwerk- und Host-IDs aufgeteilt. Derlei Terminologie fehlte bei Linux komplett – zumindest was den Host-Teil betrifft, die Netzwerk-Adresse wurde in einem etwas anderen Kontext benutzt. Allerdings ist es eine gute Grundlage für die CIDR-Notation (die übrigens die klassische Aufteilung in A-, B- und C-Netzwerke abgelöst hat, wie ich nun weiß), wenn die Definition denn auch beim Subnetting noch um die Subnet-ID erweitert werden muss.
  • IPv6 war beim LPIC kein Thema. Der MCTS wird hier konkret. Im Allgemeinem kann man sagen, dass der MCTS in Sachen Netzwerk wesentlich detaillierter ist (was allerdings auch in der Natur der Sache liegt).
  • Für das LPIC reicht es den Befehl zu kennen – Hilfe-Funktionen und manpages helfen einem bei den Parametern schließlich weiter. Das MCTS legt allerdings wert darauf, dass Kandidaten wissen das start /w ocsetup DNS-Server-Core-Role den DNS-Serverdienst installiert.
  • Dafür gibt es für die Microsoft-Prüfungen offene Prüf-Testprogramme. Ähnlich wie für den theoretischen Teil der Führerscheinprüfung (die ich hauptsächlich dich das auswendig-lernen der Fragen gemeistert habe).
  • Der gravierenste Unterschied jedoch: Sind beim LPIC Gewichtung der Themengebiete und Mindestmaß für eine erfolgreiche Zertifizierung offen gelegt, hüllt sich Microsoft hier in schweigen. In dem mitgelieferten Test-Fragen hatte ich öfters 76% – und bin damit durchgefallen.

Am besten gefällt mir jedoch die mitgelieferte Test-Umgebung. Einfach ein paar virtuelle Maschinen mit Windows Server 2008 bestücken (die 8GB RAM lohnen sich auch hierbei) und die Praxis-Aufgaben im Buch mitmachen. Das klappt nicht nur super um das soeben gelernte zu verfestigen, sondern macht auch noch Spaß!

MCTS-Vorbereitung

Unschön am Buch hingegen: Es gibt Kapitel in denen erst Gemacht und anschließend Erklärt wird. Man richtet also zum Beispiel erst eine Health Requirement Policy ein und bekommt dann anschließend erklärt was das eigentlich ist, woraus sie besteht und was sie macht – bekommt also das, was man zuvor getan hat erklärt. Umgekehrt ist es wesentlich verständlicher. In den Auflösungen zu (mindestens einer) Testfrage ist im übrigen auch eine falsche Antwort genannt (DHCP-Option 015 ist nunmal nicht der Router).

Im Allgemeinen ist es schon sehr schockierend / amüsant (je nachdem, auf welcher Seite man steht), wie oft man in den Übungen die Server der Test-Umgebung neu starten soll. IPv6 deaktiviert? Server neu starten. NetBIOS aktiviert? Server neu starten. Nicht, dass man das wirklich müsste – abgesehen von etwaigem merkwürdigen Verhalten bei der Namensauflösung – aber was soll man davon halten wenn dieses Vorgehen konsequent in den offiziellen Microsoft-Büchern beschrieben ist? Die Ausführungen über die Notwendigkeit einer Network Access Protection seien besser erst garnicht erwähnt.

2818 Tage zuvor: Mein erstes Zertifikat

Ich erwähnte ja schon, dass ich die Linux-Zertifizierung erfolgreich gemeistert habe. Heute kam dann auch die dazugehörige Urkunde bei mir an:

Ging um einiges schneller, als mir vorher gesagt wurde (vier bis sechs Wochen). Schade nur, dass der Postbote sie fies geknickt hat um sie in den Briefkasten zu quetschen.

2821 Tage zuvor: Adios, Bill!

Ich hab es getan. Donnerstag, so ganz nebenbei. Es hat ein wenig gezwickt, aber alles in allem ging es doch problemlos. Zugegeben, ein wenig gezögert habe ich schon. Aber wer kann einem die Aufregung schon verdenken? Immerhin ist es das erste Mal. Und nach wie vor mutiger Schritt. Den ich bislang auch noch nicht bereut habe – wenn ein Resümeé allerings auch verfrüht wäre.

Was genau ich denn getan habe? Meine Sachen gepackt, wie so viele es derzeit tun, und den Umstieg gewagt:

Nein, nicht auf einen Mac. Überteuerte Hardware mit einem bevormundenden Betriebssystem wäre ja auch eher ein Schritt zurück. Nein, ich bin auf Linux umgestiegen. Ubuntu, um genau zu sein. Canonical hat nämlich Karmic Koala (Version 9.10) gerade verabschiedet. Getestet habe ich die Version ja ohnehin schon einige Wochen. Und auf das einzig fehlende Featurebin ich mittlerweile auch nicht mehr angewiesen.

Mal schauen wie es sich entwickelt. So sorgenfrei wie Windows ist eine Linux-Installation jedenfalls nicht – wenn sich die Sorgen auch eher auf technische Aspekte beschränken und nicht auf Sicherheit.

2822 Tage zuvor: Getunnelt

Wie konnte man doch gleich Webseiten aufrufen, die die Herkunft der Anfrage anhand der IP-Adresse feststellen, von die die Anfrage ausgeht? Richtig, mit einem SSH-Tunnel! Und wie genau geht das doch gleich? Unter Linux ist es recht einfach:

ssh -D 8080 <host>

Unter Windows geht es dank PuTTY allerdings auch:

PuTTY-Tunnel

Anschließend im lokalen Browser localhost:8080 als SOCKS-Proxy hinterlegen und lossurfen! Für Webseiten funktioniert das wunderbar. Ob Videos auch über den Proxy angefragt werden oder, wie zum Beispiel DNS-Anfragen, weiterhin direkt angefordert werden, müsste noch getestet werden.

2824 Tage zuvor: Tücken mit Linux

Man sollte es eigentlich besser wissen, wenn man die Test-Version von Debian auf seinen Systemen installiert: Manchmal funktioniert irgend etwas nicht mehr. Urplötzlich. Und einfach so. War es vor einigen Wochen noch der VLC-Player (der auf einmal einen Filter nicht mehr enthielt, den ich für meinen Streaming-Server genutzt habe), war es dann vor einigen Tagen BackupPC, die Backup-Lösung für meine Linux-Systeme (und den Windows-Server). Besonders ärglich war dies, weil ich gerade auf einen Restore-Point zurückgreifen musste.

Im Falle des BackupPC-Problems war die Fehlermeldung leider nicht wirklich offensichtlich. Beim Aufruf der entsprechenden Webseite beschwerte sich die Installation auf einmal, dass sie unter einem falschen User laufen würde. Lighttpd, der nicht nativ unterstützt wird, zeigte sich unschuldig. Ein fehlendes SUID-Bit für /usr/share/backuppc/cgi-bin/index.cgi war die Ursache. Hier hatte wohl ein Update zugeschlagen.

Leider funktionierte danach noch weniger als zuvor: Beim Aufruf der Seite kam jetzt zwar nicht mehr die oben genannte Meldung, dafür aber interne Server-Fehler (500) ohne weitere Auskunft – auch nicht in den Log-Dateien. Ein ausführen der betroffenen index.cgi direkt in der Konsole klappte zwar mit root problemlos, mit dem www- oder backuppc-User jedoch kam eine neue Fehlermeldung:

perl: error while loading shared libraries: libperl.so.5.10: cannot open shared object file: Permission denied

Kein Wunder, existierte die Datei doch garnicht (mehr). Irgend ein Update hatte sie wohl gelöscht. Das erklärt zwar nicht, warum mit root-Rechten der Aufruf immernoch funktionierte, lieferte jedoch einen Lösungs-Ansatz:

apt-get install libperl5-10

Und siehe da: Alles funktioniert wieder wie gehabt. Vielleicht sollte man doch die stable-Versionen von Debian nutzen. Aber die hängen der Funktionalität mitunter ja leider um Jahre hinterher.

2832 Tage zuvor: Junior-Pinguin

Habe heute die LPIC-102 Prüfung erfolgreich absolviert und darf man daher ab sofort Junior Level Linux Professional nennen!

Wie schon in der vorherigen Prüfung hab es auch diesmal wieder Themengebiete, die nicht im Buch genannt wurden (Aufbau der ntpd.conf, X-Konfiguration, CIDR). Für die kommende Zertifizierung sollte ich mir aneignen vorher nochmal den Anforderungskatalog abzugleichen.

2836 Tage zuvor: 11110111010

Ich befinde mich gerade im Endspurt für die anstehende LPI-102 Prüfung, mit der ich dann meine LPI Level 1-Zertifizierung bekommen würde. Ein Teil davon ist das umrechnen von dezimalen “Subnet-Masken”: in die binäre Form. Warum man das braucht weiß ich ehrlich gesagt auch nicht wirklich, aber zumindest die Prüfung erfordert es.

Nun habe ich nicht das Umrechnen nicht nur in das binäre, sondern auch in das oktale und hexadezimale Format bereits vor einigen Jährchen in der Berufsschule lernen dürfen. Sogar inklusive Rechenoperationen in selbigen Formaten. Es Bedarf bei mir also nur ein wenig Übung um wieder rein zukommen. Und genau dafür habe ich heute fix ein kleines JavaScript geschrieben:



Für das Auswendig-lernen diverser Standard-Ports habe ich allerdings weniger Aufwand betrieben: Lernkärtchen eigenen sich hier wesentlich besser. Und können zudem auch problemloser mitgenommen werden.

2850 Tage zuvor: Schon wieder?

Das die Welt schlecht ist, hatte ich ja bereits zuvor erwähnt (wobei das seinerzeit eher ein Speicherproblem gewesen zu sein scheint). Aber das ich so wahnsinnig beliebt bin, habe ich dann doch nicht gedacht. Nachdem ich einen Beitrag von Gunnar Wolf gelesen habe, musste ich doch mal auf meinem öffentlich zugängigen Linux-Rechner nachschauen. Und siehe da:

Oct 2 05:24:25 lantan sshd[28580]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=221.234.43.137 user=root
Oct 2 05:24:30 lantan sshd[28584]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=221.234.43.137 user=root
Oct 2 13:00:08 lantan sshd[11050]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=ds150.reliablehosting.com user=root
Oct 2 13:00:11 lantan sshd[11062]: pam_unix(sshd:auth): authentication failure; logname= uid=0 euid=0 tty=ssh ruser= rhost=ds150.reliablehosting.com user=root

Dergleichen erscheint 11185 Mal in meinem Log. Es scheint sich dabei wohl um ein globaleres Problem zu handeln. Fragt sich nur, was damit bezweckt wird. Der Login mittels root ist selbstredend deaktiviert, daher gibt es eigentlich keinen Grund zur Sorge. Dennoch habe ich das entsprechende Port-Forwarding jedoch vorerst deaktiviert (Sorry, Flo).

2853 Tage zuvor: Den Überblick behalten

Wenn man als IT’ler viel Zeit an der Hand hat, gedeiht das Heim-Netzwerk meistens prächtig. Schließlich gibt es Unmengen an Sachen, die man schon immer mal ausprobieren wollt; jedoch nie Zeit genug dafür gefunden hat. Wenn Zeit also nicht mehr das limitierende Element ist, nimmt vieles seinen Gang. So auch bei uns zu Hause. Mit neun ganz realen Netzwerk-Clients sowie diversen virtuellen (doch dazu vielleicht später mehr) ist es schon nicht mehr wirklich ein Selbstläufer. Aber man ist ja Geek genug um auch diese Aufgaben zu automatisieren.

Nun gibt es in der weiten Welt der IT lauter schöne Tools zur Systemüberwachung. Spezial-Tools für Server, welche für Anwendungen und auch fürs Netzwerk selbst. Gemeinsam haben sie alle, dass sie meistens viel Geld kosten. Jedoch gibt es ein Tool, dass diese Aufgaben kombiniert anbietet, flexibel zu konfigurieren ist und zu alledem nichts kostet (für den Privat-Gebrauch zumindest): Manage Engine’s Application Manager.

Seit einigen Monaten habe ich es nun schon bei mir im Einsatz und bin nach wie vor davon begeistert. Ich kann alle meine Clients einbinden und individuell Schwellwerte und Benachrichtigungen konfigurieren, je nach Anforderung. Gleichzeitig kann ich die Historie verfolgen und frühzeitig erkennen wenn irgendwo ein (Speicher-)Engpass droht oder irgendwelche File-Systeme voll-laufen. Auch zur Planung der nächtlichen Jobs lässt sich die CPU- und Netzwerk-Auslastung hervorragend ablesen. Selbstredend läuft der Applications Manager wartungsfrei und ist angemessen komfortabel zu bedienen. Was will der Heim-Netzwerk-Administrator mehr?

Einzig die Möglichkeiten zur Überwachung von SAP- oder Datenbank-Systemen habe ich noch nicht getestet. Allerdings sind diese auch nicht mehr kostenlos zu haben.

2878 Tage zuvor: Zuwenig Speicher für SMB-Mounts?

Ich spiele ja nach wie vor mit einer Ubuntu-Installation herum um zu sehen an welchen Ecken mir noch Funktionalität zu meiner Vista-Installation fehlt. Und, zugegeben, auch um ein wenig für die zweite Prüfung herumzuspielen. Dabei bin ich vorhin auf einen eher ungewöhnlichen Fehler gestossen:

root:maztica:~/# mount -a
mount error(12): Cannot allocate memory
Refer to the mount.cifs(8) manual page (e.g. man mount.cifs)

Gemountet werden sollten in diesem Fall diverse SMB-Shares meines Windows Home-Servers. Vermutet man zunächst einen Speicherengpass auf dem Linux-Client (was eher ungewöhnlich wäre mit circa 7GB freiem RAM) bescheinigen einem die einschlägigen Suchergebnisse einen Fehler auf der Server-Seite. Nur das ich keinen dazugehörigen Eintrag im Event-Protokoll hatte.

Mit ein wenig Nachdenken (was man prinzipiell vor dem Befragen einer Suchmaschine machen sollte) lag die Antwort denn auch auf der Hand: Der in der /etc/fstab verlinkte User hat schlicht und ergreifend keine Berechtigungen auf den Shares. Kaum macht man es richtig, funktioniert es denn auch:

root:maztica:~/# mount -t cifs //toril/music /media/music/ -o user=kaibo
Password:
root:maztica:~/# df
Filesystem 1K-blocks Used Available Use% Mounted on
/dev/sdc1 75529312 12704404 58988188 18% /
tmpfs 4097176 0 4097176 0% /lib/init/rw
varrun 4097176 212 4096964 1% /var/run
varlock 4097176 0 4097176 0% /var/lock
udev 4097176 412 4096764 1% /dev
tmpfs 4097176 1484 4095692 1% /dev/shm
/dev/sdb1 244195324 165611640 78583684 68% /media/dataDisk
//toril/public 467403140 -349886360 817289500 - /media/public
//toril/music 467403140 -349886360 817289500 - /media/music

2879 Tage zuvor: Testfahrt mit dem Pinguin

Mentale Notiz an mich:

Wenn du mal wieder nach der Seite zur Erneuerung deiner N4S-Demo Lizenz suchst, klicke einfach hier.

2881 Tage zuvor: 101 abgehakt

Den ersten Teil zur LPIC habe ich heute morgen bestanden. Nicht wirklich überragend gut (580/800 Punkten), aber doch erfolgreich.

Geholfen hat mir vor allem das Buch LPI Linux Certification in a Nutshell – es liest sich recht gut von der Hand und erklärt auch die allermeisten Dinge recht verständlich (Ausnahmen sind in der Regel Unregelmäßigkeiten in Linux selbst). Allerdings ist der Test wohl ein wenig weiter entwickelt worden im Vergleich zum Buch, denn gemeiner Weise gab es einige Themengebiet im Test, die im Buch nichtmal erwähnt wurden. Zum Beispiel wie man ein Disk-Image unter Bash auf eine Diskette schreibt. Hab ich zwar schonmal gemacht, den Befehl dazu hatte ich aber leider nicht mehr parat.

Sei’s drum, weiter geht’s in ein paar Wochen mit dem 102-Test – und dem dafür zu verleihenden Zertifikat als Junior-Administrator.

2885 Tage zuvor: In vino veritas

Alle Welt schaut auf Windows 7, ich habe heute (mal wieder) einen Test für den Umstieg auf Linux gemacht. Ubuntu um genau zu sein. Die Installation habe ich dabei auf einer dritt-Festplatte durchgeführt. Schließlich soll es ja nur ein Test sein, kein Umstieg.

Es ist ja nicht die erste Linux-Installation die ich habe oder nutze. Um genau zu sein ist eine Debian-Installation in einer VirtualBox vermutlich meine meistgenutze virtuelle Instanz. Aber einige Dinge kann man halt doch nur auf einer nativen Installation testen. Im heutigen Fall war es das leidige Thema World of Warcraft. Diversen “Foreneinträgen”: nach soll es ja recht gut laufen – allerdings nicht in einer virtuellen Instanz. In einer Standard-Ubuntu-Installation muss man denn auch nicht viel machen. Die Grafikkarten-Treiber müssen installiert werden. Ebenso wie Wine. Und schon (das heißt: nach diversen Neustarts) kann es auch losgehen:

wine "~/.wine/dosdevices/d\:/Games/World of Warcraft/wow.exe" -opengl

WoW unter Wine

Nachdem einige Fehlermeldungen aus dem Weg geräumt waren (GLXBadDrawable: Xinerama deaktiveren und opengl in WoW einstellen, DivxDecoder.dll: die Laufwerke in Wine korrekt benennen) lief es denn auch. Ein wenig langsamer (18fps statt 25fps in einem frühabendlich gefüllten Dalaran), aber zugegeben noch annehmbar. Wenn auch ohne Soundausgabe. Bis dann auf einmal der Speicher ausging jedenfalls.

Nun hat das Deaktivieren von Xinerama leider den unschönen Nachteil, dass mein zweiter Bildschirm nicht mehr wirklich praktikabel genutzt werden kann. Um genau zu sein könnte ich ihn auch abschalten, den Fenster werden dort nicht mehr platziert und hinschieben kann man sie auch nicht mehr. Manko Eins.

Manko Zwei (und damit auch das momentane KO-Kriterium) ist die Seitens Evolution fehlende Exchange-2007 Unterstützung. Mein primärer (privater) Mail-Account liegt auf einem ebensolchen Server – und ist unverzichtbar. Nun könnte ich selbstredend Outlook unter Wine installieren und nutzen – aber warum sollte ich umsteigen wenn ich doch alles unter Wine laufen lasse (-n muss)?

Update
Wenn man TwinView in den nVidia-Treibern aktiviert, funktioniert WoW auch mit einer angenehmen Multi-Bildschirm-Lösung.

2916 Tage zuvor: X ohne X

Manchmal fragt man sich ja, warum man eigentlich bei einfachen Sachen so lange herumbasteln muss, bis sie funktionieren. Zum Beispiel bei einer Remote X-Session. Dabei ist es doch so einfach:

ssh -Y [host]

Allein der Hinweis darauf, dass auf dem Client ein X-Server laufen muss, stand nirgends dabei. Ist aber eigentlich, wenn man mal ein klein wenig drüber nachdenkt, auch selbstverständlich. Ein weiterer Beweis dafür, dass Google einem zunehmenden das Denken abnimmt. Und dafür, dass die Bing-Werbung wirklich gelungen ist:

3023 Tage zuvor: Schlechte Menschen

Diese Welt ist voller schlechter Menschen. Eigentlich wollte ich die Tage ja voller Lob von dem Sheeva Plug reden. Allein ein fieser Hacker meinte sich einen Spaß erlauben zu müssen und das arme, kleine System zu infiltrieren. Gut, ich hätte den Port am Router nicht auflassen dürfen – auch nicht für nur einen Tag.

Werde ich in Zukunft auch nicht mehr tun. Denn das Wiederherstellen des Systems hat mich circa zwei Tage beschäftigt. Konstruktionsbedingt sind Plug Computer nicht wirklich mal eben neu aufgesetzt. Daher bin ich jetzt schlauer was das Einrichten eines USB-Seriell-Adapters unter Debian betrifft (geht nicht), wie sich U-Boot konfigurieren lässt (Unmengen Hex-Codes), worum es sich bei TFTP und NFS handelt und wie man mit JFFS2-Dateisystemen umzugehen hat.

Ach ja, was mir schlussendlich geholfen hat, was das Booten von der eingebauten SD-Karte samt anschließendem flashen des internen Speichers mit den Original-Images. Für alle Nachahmungstäter:

setenv bootargs='console=ttyS0,115200 mtdparts=nand_mtd:0x4000000×100000(uImage),0×1fb00000@0×500000(rootfs) rw root=/dev/mmcblk0p1 rw ip=10.4.50.4:10.4.50.5:10.4.50.5:255.255.255.0:DB88FXX81:eth0:none’@

3042 Tage zuvor: Debian in klein

Diese kleinen EeePC von Asus machen ihrem Namen ja alle Ehre. Vor allem jene der ersten Generation. Stattliche 2GB bietet die mitgelieferte SSD im Inneren nämlich dem Betriebssystem an Platz. Klingt ja erst einmal nach zwar nicht viel, aber wohl doch genug Platz. Denkste.

Zwar gibt es durchaus einige spezielle Varianten für die trendigen Netbooks, aber es gibt eben doch nur eine, die auch auf dem schmalbrüstigsten aller EeePCs ihren Dienst verrichtet.

Dabei wäre zumindest das Speicherproblem eigentlich ganz einfach gelöst – und wäre für jede Distribution als Standard wünschenswert: Man muss nur die ganzen Applikationen weglassen. Bei Bedarf kann man sie ja immer noch nachinstallieren. Aber in den meisten Fällen benötige (ich) sie nicht.

Nun gut, um das manuelle Einrichten der Hardware-Besonderheiten komme ich wohl jetzt nicht mehr drumherum. Aber das nehme ich für eine Schnörkel-lose OS-Basis dann auch gerne in Kauf.

3045 Tage zuvor: Videos drehen

Damit ich beim nächsten Mal nicht wieder suchen muss:

mencoder -vf rotate=1 -ovc lavc -oac copy &#60;file_in&#62; -o &#60;file_out&#62;

3349 Tage zuvor: Virtuelle 64-Bit

Allen, die versuchen ein 64-Bit Client-Betriebssystem unter Vista-64 zum Laufen zu bekommen sei gesagt:

Virtualbox does not support 64-bit guests.

Mich hat es einige Stunden gekostet, dies herauszufinden.