1653 Tage zuvor: NTP-Sync in Windows

Synchronizing clocks is especially important in Domain-Environments. If clocks get out of sync too much authentication will fail and cause all kinds of desasters. During one of these I discovered w32tm, a shell-program, used to synchronize (and configure) Windows Time Services.

PS C:\Windows\system32> w32tm /query /status
Leap Indicator: 0(no warning)
Stratum: 6 (secondary reference - syncd by (S)NTP)
Precision: -6 (15.625ms per tick)
Root Delay: 0.2159474s
Root Dispersion: 8.0025447s
ReferenceId: 0x0AE21228 (source IP: 10.226.18.40)
Last Successful Sync Time: 1/10/2013 10:45:42 AM
Source: toril.selune.local
Poll Interval: 10 (1024s)

Using Parameter /resync one can easily sync clocks and (hopefully) resolve time-related issues.

1677 Tage zuvor: Zertifizierungen 2012 - eine Zusammenfassung

Als ich Anfang des Jahres zu meinem Buch Configuring Windows Server 2008 – Active Directory gegriffen habe, wusste ich noch nicht wo mich diese Entscheidung bis Jahresende hinführen würde. Vermutlich hätte ich das Buch auch einfach im Regal stehen gelassen, hätte ich es geahnt. So jedoch hat es mich auf eine sehr interessant (und auch durchaus lehrreiche) Reise geschickt, an deren Ende ich seit letzter Woche angelangt bin.

Als Ziel gesetzt hatte ich mir die Zertifizierung zum Enterprise-Administrator eigentlich bereits 2009. Doch erst der Griff zum Buch hat mich wieder auf den Weg gebracht. Ein Weg, der durch ein paar Umwege (Hyper-V, Server 2012, MCSE) noch länger war als zunächst geplant. Aber am Ende dann doch erfolgreich. Und sobald man erst einmal in der Materie drin ist, fallen einem die Prüfungen auch wesentlich leichter. So hat die Vorbereitung auf das erste Examen noch einige Monate gedauert, zuletzt hatte ich jedoch Prüfungen im zwei-Wochen Tag.

Exam Description Date Completed
647 Pro: Windows Server 2008, Enterprise Administrator December 13, 2012
414 Implementing an Advanced Server Infrastructure November 30, 2012
413 Designing and Implementing a Server Infrastructure November 16, 2012
417 Upgrading Your Skills to MCSA Windows Server 2012 November 02, 2012
643 TS: Windows Server 2008 Applications Infrastructure, Configuring October 19, 2012
680 TS: Windows 7, Configuring October 03, 2012
646 Pro: Windows Server 2008, Server Administrator July 11, 2012
659 TS: Windows Server 2008 R2, Server Virtualization May 31, 2012
640 Windows Server 2008 Active Directory, Configuring April 02, 2012
642 Windows Server 2008 Network Infrastructure, Configuring November 09, 2009

Und als nächstes? Sofern die Zeit es zulässt, werde ich mich im kommenden Jahr mehr auf Prozessen konzentrieren. Projektmanagement und ITIL stehen auf meinem Plan. Mal sehen wie ich mich dabei schlage!

1734 Tage zuvor: Anatomy of a Remote Desktop Infrastructure

Virtualization has impacted many areas. Most prominently Server-Virtualization, but there are also other area, Storage in the form of SAN for instance. A Remote Desktop Infrastructure enables Desktop-Virtualization – the Users Desktop runs on a Server, handling all the heavy lifting, while the Users actual Client-Device is only used as a Frontend. In this form Desktop-Virtualization is an integral part of the latest Hype in Corporate IT: BYOD. And as cool as this sounds – on its very base is a very common technology: Terminal Services.

With the Introduction of Windows Server 2008 Microsoft not only renamed Terminal Services to Remote Desktop Services to underline this change, but also further developed the Concept of a Remote Desktop Infrastructure. In this Post, we will take a look what each of this Roles purpose is and how it fits into building a Remote Desktop Infrastructure.

The Image above shows the most basic setup consisting of a Remote Desktop Session Host and a Remote Desktop Licensing Server A Client connects directly to the Session Host which then requests a License from the Licensing Server for this Session. Two Licensing Models are available: Per User and per Device. Names aside this Setup is similiar to those of previous Versions.

Weiterlesen?

1750 Tage zuvor: Remote-Control the easy way

Did I ever mention that I love the power and flexibility of Shell-Commands? Another one to remember is winrs.exe which allows to run Shell-Commands – remotely. Sure, PowerShell can do this too. So does Telnet. But neither one of them is as elegant as winrs:

C:\> winrs -r:643hyv01 shutdown -s -t 0

As you can see it traverses the Clients User-Context to execute commands on the Remote-Host. This makes it so uniquely useful – not only in Lab-Environment!

1755 Tage zuvor: Take control of your Power!

As a Command-Line Fetishist I like hacking commands in my keyboard. It comes quite naturally and, for the most part, is a lot faster than using a Mouse to navigate through dozens of Menus. In part this is why I am so happy about Microsofts Powershell – finally Windows has a really Console to tinker with. But I am drifting…

Quite occasionally I discover a Command-Line tool that was completely unknown to me before. Every now and then it is actually pretty useful. powercfg.exe is definitely one of these tools – even though it was introduced with Windows XP. It allows to monitor and control Windows Power Settings (beyond the common Power-Settings Panel) and comes with a load of Command-Line Options.

What makes it so exciting, apart from the Command-Line aspect? For instance, we can use it to finally setup a Default-Powerscheme that becomes active each time a Computer boots.

In order to implement this Default-Scheme, lets take a look at how powercfg.exe works. First we query a list of all available Powerschemes and determine the currently active Scheme. Using -setactive we can then change the Scheme to the one we prefer. Lastly, we will check if it worked as intended:

PS C:\> powercfg -list
Existing Power Schemes (* Active)
-----------------------------------
Power Scheme GUID: 381b4222-f694-41f0-9685-ff5bb260df2e (Balanced)
Power Scheme GUID: 8c5e7fda-e8bf-4a96-9a85-a6e23a8c635c (High performance)
Power Scheme GUID: a1841308-3541-4fab-bc81-f71556f20b4a (Power saver) *
PS C:\> powercfg -setactive 381b4222-f694-41f0-9685-ff5bb260df2e
PS C:\> powercfg -getactivescheme
Power Scheme GUID: 381b4222-f694-41f0-9685-ff5bb260df2e (Balanced)

Now that we have everything in place we can simply schedule a Task running at each Computer-Start triggering a Batch-File with our powercfg.exe -setactive command. And finally we don’t have to worry about any programs (or Users) messing around with Power-Options – and usually decreasing Performance in doing so.

1815 Tage zuvor: ActiveDirectory via PowerShell

PowerShell ist eine tolle Sache. Und das liegt nicht zwingend an dem sich irgendwie einstellenden Linux-Feeling. Vielmehr an der Flexibilität und dem Gefühl furchtbar effizient eigentlich einfache Aufgaben erledigen zu können, die mit einem GUI oder einer MMC-Konsole schrecklich lange dauern würden. Aber das erwähnte ich ja bereits.

Und auch in Sachen ActiveDirectory hat Microsoft mittlerweile so viele CmdLets zur Verfügung gestellt, das man so ziemlich alles aus der PowerShell heraus steuern kann. Hier und heute meine Top 3:

  1. get-adgroup –f { name –like "*internet*access*" }
  2. get-acl \\server01\share01
  3. add-adgroupmembers somegroup –members user1, user2, laptop3

Natürlich macht das alles erst so richtig Spaß wenn man sie kombiniert. Hier zum Beispiel die von mir am häufigsten genutzte Kombination um einen User in diverse Gruppen einzufügen (ich kann mir zwar kryptische Passwörter merken, aber logisch benannte Gruppennamen wollen sich mir nicht eintrichtern):

get-adgroup –f { name –like “vpn” } | add-adgroupmembers –members User02

Etwas komplexere Aktivitäten schreibt man jedoch besser in ein PowerShell Skript. So lassen sie sich nicht nur einfach an Kollegen weitergeben sondern auch als Job einplanen. Hier ein Skript das ich nutze im deaktivierte Computer-Accounts nach einer gewissen Zeitspanne zu löschen:

import-module activedirectory
$ou = read-host "Which OU is to be searched?"
$computers = get-adcomputer -filter 'enabled -eq $false' -searchbase $ou -properties Name, LastLogonDate | where {$_.LastLogonDate -le ((get-date).addmonths(-6))}
foreach($c in $computers){ remove-adcomputer $c  -whatif }

1835 Tage zuvor: Einmal mehr: Zertifikate

Am Mittwoch war der erfolgreiche Ziel-Einlauf meines diesjährigen ZertifizierungsMarathon. Mit bestandener Prüfung zum Microsoft Certified IT Professional: Server Administrator on Windows Server 2008 bin ich zugleich auch ein Microsoft Certified Solutions Associate geworden.

MCSA Server 2008

Zugegeben, letzteres Zertifikat wird mit Veröffentlichung des neuen Windows Server 2012 hinfällig. Dennoch eine durchaus befriedigende Leistung für ein halbes Jahr Weiterbildung. Und sobald der Kurs für Server 2012 fertig gestellt ist, kann man seine Zertifizierung auch mit einem einzigen Test aktualisieren.

1874 Tage zuvor: Noch ein Zertifikat

Mit freundlicher Unterstützung des Microsoft Partner Network, die mir nicht nur einen Crash-Kurs in der Materie sondern auch einen Gutschein für eine Gratis-Prüfung haben zukommen lassen, durfte ich mich am letzten Donnerstag an einer neuerlichen Zertifizierung versuchen. Diesmal Server Virtualisierung. Sehr interessant, wenn auch – was die Details betrifft – weniger umfangreich als jene für Active Directory.

Um ganz ehrlich zu sein bin ich mehr oder weniger davon ausgangen durch zu fallen – schließlich war die Vorbereitung wenig intensiv. Unterlagen zum lernen quasi nicht existent. Und vor allem habe ich es nicht vollbracht meine Test-Umgebung aufzusetzen. Trotzdem habe ich es irgendwie geschafft die Prüfung erfolgreich zu bestehen:

Ich frage mich jedoch ob das nun gegen die Prüfung oder für das White Paper zur Virtualisierung spricht. Vermutlich beides…

1935 Tage zuvor: Mal wieder ein Zertifikat

Zugegeben, die Zertifizierungswelle ist bei mir eigentlich schon wieder ein wenig länger her. Dennoch konnte ich heute meiner Sammlung ein weiteres Zertifikat hinzufügen:

Certified!

Und das zu bekommen war diesmal richtig anspruchsvoll! Nicht nur da es eine wirklich atemberaubend breites Spektrum abzudecken galt (im Laufe der Vorbereitung mussten bis zu 15 virtuelle Maschinen parallel herhalten) – gegen Ende meiner ohnehin gut drei Monate dauernden Vorbereitung habe ich in der letzten Woche dann auch noch herausgefunden das ich mit komplett (!) veralteten Unterlagen gelernt hatte. Letztes Wochenende war daher Power-Lernen angesagt. Erfolgreich!

Mal sehen wie lange Microsoft es mir gönnt. Denn immerhin steht ja der Nachfolger bereits in den Startlöchern…

Windows 8 Server Beta

2054 Tage zuvor: Zweigleisiger Firefox

Ab und an, vornehmlich wenn man Web-Anwendungen entwickelt, kommt man in die Bredouille verschiedene Versionen eines Browsers nutzen zu müssen. Zumal es mittlerweile allein von Mozillas Firefox für Windows vier verschiedene Versionen gibt – von anderen Herstellen oder Betriebssystemen mal ganz abgesehen. Aber als fürsorglicher Entwickler möchte man dennoch gerne wissen ob sich auch mit anderen Browsern als dem eigenen alles korrekt verhält. Oder aber man möchte gerne eine andere Version nutzen als jene, die einem der Arbeitgeber vor-installiert. Nicht, dass ich das damit sagen oder unterstützen wollen würde…

Wie dem auch sei, zwei Versionen von Firefox lassen sich in der Tat problemlos unter Windows installieren. Zumindest wenn man dabei zwei Dinge beachtet:

  • Das Installationsverzeichnis der beiden Versionen muss unterschiedlich sein.
  • Beide Installationen müssen unterschiedliche Profile verwenden.

Ist der erste Punkt noch offensichtlich und kann schon bei der Installation hinreichend ausgeräumt werden, muss man beim zweiten manuell nachhelfen und optimieren.

Hier klicken für die Schritt-für-Schritt Anleitung.

2560 Tage zuvor: Festplatten-Horror

Wenn jemand den Gang zur Kaffeemaschine dazu ausnutzt die Email-Signatur eben jenes Koffein-Junkies zu ändern, ist das amüsant. Handelt es sich bei dem Opfer jedoch um den lokalen IT-Verantwortlichen, ist es fahrlässig. Und da ich der Geschädigte war, musste ich einfach zurück-sticheln.

Am nächsten Morgen wurde der Täter von einem kleinen Bildschirm begrüßt, der ihn darüber informierte das seine Festplatte gelöscht würde. Sehr zum Gefallen seines Chefs, der auch schon des öfteren das Opfer geben musste.

Er selbst fand es übrigens auch sehr amüsant. Komisch nur, dass sich passend dazu ueber das Wochenende die Festplatte meines Laptops zerlegt hat. Heute früh wurde ich von einem unschönen Error loading Operating System begrüsst. Ein Schelm wer böses dabei denkt!

Für den Fall, dass jemand einen ähnlich gelagerten Scherz vorhat:

@echo off
echo Local Security has been compromised!
echo Performing Emergency System Cleansing, please stand by...

set randID=5623478
set loopcount=0

:loop
call :genrandid
echo Wiping Sector x%randID%
sleep 1
set /a loopcount=%loopcount% + 1
if %loopcount%==30 goto endloop
goto loop

:genrandid
SET /a randID=%randID% + 1
SET /a randID=%randID% * 214013 + 2531011
SET /a randID=%randID% ^>^> 16 ^& 0x7FFF 
goto eof

:endloop
echo ...
echo Waerst du bloss nett zu deinem Admin gewesen,
echo er haette dir helfen koennen...
pause
echo BeNICE!
sleep 5

:eof

2744 Tage zuvor: Wiederherstellungsorgie

Zwei Jahren lief er. Nahezu ununterbrochen. Dennoch kam ich letzte Woche leider nicht mehr drumherum in neu aufzusetzen, meinen kleinen Heim-Server. Die Fehlermeldungen haben sich zuletzt arg gehäuft. Beim Aufrufen der Einstellungen in der WHS Konsole stürzte selbige immer ab. Und neue Rechner konnten auch nicht mehr eingehängt werden. Gut, dass es genau dafür eine ausgeklügelte Wiederherstellungs-Funktion gibt!

Wiederherstellung
Um den Server wieder her zu stellen, muss lediglich ein Programm von einer CD gestartet und ein wenig gewartet werden. Theoretisch jedenfalls, denn leider wurde mir stets auf neue gesagt, dass bei der Harware-Initialisierung ein Fehler aufgetreten sei. Nach einigem Hin und Her stellte sich heraus: Die getauschte CPU sowie die nachträglich hinzugefügte Festplatte waren der Grund. Die schnelle Wiederherstellung zog sich daher über insgesamt gut drei Tage hin.

Homeserver-Grundkonfiguration
Bei der Wiederherstellung wird lediglich das Betriebssystem neu installiert. Vorhandenen Daten bleiben dabei ausdrücklich erhalten. Jedenfalls wenn alles glatt geht. In meinem Fall waren alle nicht-gespiegelten Daten verloren, was jedoch nicht weiter tragisch war. Auch wenn dadurch alle Daten manuell zurück-kopiert werden mussten. Was bei einer Herstellung allerdings definitiv verloren geht sind jedwede Konfigurationen. Also mussten User wieder eingerichtet, Zugriffsrechte neu gesetzt und Computer eingebunden werden (allein die initialen Backups der beiden Windows-Clients zogen sich über fünf Stunden hin). Nicht zu vergessen das auch noch ein paar WHS-Add-Ins erneut installiert werden wollten.

Server-Konfiguration
Nachdem das alles geschafft war, ging es mit den nicht-WHS-Komponenten weiter: RADIUS-, IIS- sowie FTP-Dienste wollten aktiviert und konfiguriert werden. Und die darauf angewiesenen Clients wie zum Beispiel die Überwachungskamera mussten selbstredend auch wieder damit zusammen funktionieren. Außerdem gilt es Skripte einzuplanen und – nicht zu vergessen – die CPU sowie die zusätzliche Festplatte wollen auch wieder eingebaut werden.

Zusatz-Software
Die Ziellinie scheint in Reichweite, doch die eigentlichen Aufgaben kommen erst jetzt: zusätzliche Software muss installiert und eingerichtet werden. mControl, die Software zur Haussteuerung ist da noch das einfachste – auch wenn das Backup der Datenbank sich nicht zurück spielen lässt und somit alles manuell neu konfiguriert werden muss. BeyondTV, die PVR-Lösung hatte schon immer Treiber-Probleme die sich leider nur durch Try & Error beheben lassen (mit dutzendweise Sender-Suchläufen). Und auch hier sind dank mangelhaftem Restore alle Aufnahmekriterien manuell neu anzulegen. Da ist der letzte Schritt schon vergleichsweise simpel: Die VirtualBox-Instanzen müssen wieder als Windows-Service automatisch starten und herunterfahren.

Immerhin, nach nunmehr ziemlich genau einer Woche funktioniert alles wieder wie zuvor. Nebenbei wurde viel scheinbar entrümpelt, denn es wurden nahezu 100GB Plattenplatz frei gemacht – auch wenn sich das mit den neu aufzubauenden Backup-Versionen relativieren dürfte. Allerdings wurde vermutlich auch irgendwo etwas grundlegend aufgeräumt, denn der Server fühlt sich nicht nur schneller an, der Daten-Durchsatz ist auch von zuvor ~30MB/s auf nunmehr ~50MB/s gestiegen. Dennoch hoffe ich, dass derartiges frühstens in zwei Jahren wieder nötig wird.

2781 Tage zuvor: Schreibhilfe

Ich habe mir also letztens diese neue Tastatur gekauft. War, dank des Black Friday auch ein echtes Schnäppchen – statt $80 lediglich $30. Und im zwielichtigen Arbeitszimmer ist es wirklich eine angenehme Sache leuchtende Tasten vor sich zu haben. Sogar der Anschlag – bislang das Kriterium aufgrund dessen ich stets die Anschaffung einer neuen Tastatur gescheut habe – ist sehr eingängig und durchaus angenehm.

Logitech Illuminated Keyboard

Einzig die Umstellung auf ein amerikanisches Tastatur-Layout ist weniger mühelos als ich bislang angenommen hatte. Nachdem mein Desktop-Rechner der einzige mit einer deutschen Tastatur war, dachte ich mich schon mehr an die Eigenheiten der US-Pendant (vor allem die physikalischen wie z.B. die Größe und Position der Tasten) gewöhnt zu haben. Was ich mir allerdings stattdessen offenbar angeeignet habe, ist der ansonsten unnötige Blick weg vom Monitor hin zur Tastatur. So gesehen sind die leuchtenden Tasten zugleich Hilfe und Hindernis – Hilfe beim erlernen der hiesigen Tasten-Geräte und hinderlich beim blind-tippern.

2788 Tage zuvor: Zurück

Vor ein paar Tagen habe ich mich doch dazu überwinden können und das Backup meiner Windows-Installation zurück gespielt. Es ist mir wirklich nicht leicht gefallen – schließlich ist mir Tux auch ein Stück weit ans Herz gewachsen. Aber die anhaltenden Abstürze durch die mangelhafte Treiber-Implementation seitens nVidia wurden mir zum Schluss schlichtweg zu häufig. Mag sein, dass die Hardware nicht optimal für eine Linux-Konfiguration ist, aber ich bin nicht gewillt neue Hardware für bessere Treiberunterstützung zu kaufen (mit Windows 7 käme ich günstiger weg). Allerdings werde ich beim nächsten Kauf durchaus darauf achten.

Apropos Windows 7: Den Schritt werde ich mir (vorerst) sparen. Beim ersten Service Pack werde ich es mir allerdings nochmals genauer anschauen.

2801 Tage zuvor: Linux-Bilanz

Vor drei Wochen bin ich auf Linux umgestiegen. Seinerzeit hatte ich mir vorgenommen mindestens für eben diese Zeit die Entscheidung nicht rückgängig zu machen. Grund genug für eine kleine Bilanz:

Nachteile

  • ACPI funktioniert nicht zuverlässig, StandBy und Hibernate können nicht genutzt werden. Hibernate funktioniert überhaupt nicht, StandBy hat Probleme den Computer wieder korrekt aufzuwecken. Skurriler Weise führt dies dazu, dass ich den Linux-Rechner wesentlich häufiger herunterfahre als sein Windows-Pendant.
  • Die nVidia-Treiber sind unausgereift. Es kommt laufend zu spontanen Abstürzen in 3D-Applikationen. Weder die Ubuntu-Treiber, noch die Original nVidia-Treiber leisten Abhilfe.
  • Tastatur-Eingaben hängen manchmal hinterher, allerdings scheint dies auf FireFox beschränkt zu sein.
  • Magnetische Fenster sind nicht toll, das Feature lässt sich leider auch nicht abschalten.
  • Dauerhaft verzerrter Sound in VirtualBox-Instanzen (kommt unter Windows nur nahezu gar nicht vor) – gelegentlich auch unter Wine.
  • Man bekommt den Desktop nicht grundsätzlich Icon-frei.

Vorteile

  • Die TV-Karte funktioniert auch in der 64-Bit Ausführung des Betriebssystems (welche aufgrund von 8GB RAM Pflicht ist).
  • Widgets sind unter gnome wesentlich toller!

Rein optisch betrachtet spricht diese Liste durchaus für sich selbst. Der Weg zurück zu Bill ist Dank eines Disk-Images auch sehr kurz und schmerzfrei. Allerdings habe ich mich mittlerweile durchaus an einige Funktionen (Multi-Desktop) und Methoden (File-System) gewöhnt, die ich unter Windows schmerzlich vermissen würde. Und am Ende würde ich vermutlich auch noch zu Windows 7 neigen. Vielleicht nutze ich doch erst noch ein wenig die Zeit an den Knackpunkten zu arbeiten. Auch wenn bei den Grafiktreibern vermutlich nicht viel zu machen sein wird…

2809 Tage zuvor: Der Zertifikate zwei

Heute konnte ich mir schon meine Zertifikate für den bestandenen MCTS herunterladen. Richtig, Plural. Denn man bekommt eine als MCTS im allgemeinen und eine als Windows Server 2008 Network Infrastructure, Configuration im besonderen:

Microsoft Certified Technology Specialist

Das ist freilich nur einen digitale Version. Eine ausgedruckte bekommt man gegen ein geringes Endgeld zugeschickt. Jetzt fehlt mir nur noch ein Büro um sie aufzuhängen.

2811 Tage zuvor: Ausgesperrt

Freitag war’s, die MCTS Vorbereitung behandelte gerade das Thema VPN, als ich auf meinem Heimserver die Routing & Remote Access Services installierte. Eben um VPN-Verbindungen in mein Heimnetz aufbauen zu können. Klappte auch wunderbar. Jedenfalls bis ich dann versucht habe das Routing zu optimieren. Geendet ist es dann in einer deaktivierten Netzwerkkarte. Bedenkt man das es sich bei dem HP MediaSmart EX475 um ein Headless-System, also einen Rechner ohne Tastatur oder Monitor-Anschluss, handelt, stellt das doch in gewisser Weise ein Problem dar. Interessanter Weise lief der auf dem System gehostete Linux-Server in seiner virtuellen Umgebung weiter – und war auch im Netz erreichbar.

Doch was tut man um den Server wiederherzustellen? Das Netzwerk funktioniert nicht, lokal anmelden ist auch keine Option. Eine USB-Netzwerkkarte benötigt Treiber und mit einer USB-Tastatur im Dunkel herumzutippen wäre auch nur eine Verzweiflungstat gewesen (obwohl mir hier das MCTS-Wissen in Sachen netsh weitergeholfen hätte). Doch eine Lösung wäre wesentlich eleganter: Die Festplatte im Server aus- und in den Desktop einbauen. Also alle andere Festplatten abgehängt, die SATA-Einstellungen angepasst (also RAID- und AHCI-Modus deaktiviert), die Systemplatte des Heimservers eingehängt, gebootet und… Erfolg!

Jedenfalls beinahe. Denn jetzt bootet das Server-System zwar auf meinem Desktop und ich kann mich auch anmelden, doch bevor man irgendetwas damit anstellen kann wird man von einem Aktivierungsbildschirm begrüsst. Klar, die Hardware unterscheidet sich signifikant und mit einem Anruf (die Netzwerkkarte funktioniert weiterhin nicht – was man zu diesem Zeitpunkt allerdings nur vermuten kann) kam ich leider auch nicht an das erhoffte Ziel: “Your Product is not supported or not genuine.”

Während ich dann so überlegte was ich denn noch tun könnte um wieder Zugriff zu erlangen, beantwortete sich die Frage quasi von selbst: Ein Internet Explorer erschien plötzlich und unerwartet. Mit einer Fehlermeldung zwar, aber es genügte mir um Zugriff auf die Systemsteuerung zu erlangen. Kaum dort angekommen wurden die Routing-Dienste komplett deaktiviert, der Rechner heruntergefahren, die Festplatte zurück gebaut und der Heimserver wieder hochgefahren. Nach einigen Minuten begrüsste er mich dann auch wieder mit einer kühl blau leuchtenden Status LED: Alles bestens.

Glück gehabt!

2812 Tage zuvor: Der Netzwerk-Spezialist

Heute habe ich den ersten Schritt zum Microsoft Certified Professional gemacht: Ich habe die Prüfung zum MS Certified Technology Specialist: Windows Server 2008 Network Infrastructure, Configuring (wer soll sich das merken) bestanden!

Auch wenn es die vermeintlich leichtere der beiden Vor-Prüfungen ist muss ich sagen: Ufz! Bill legt die Latte merklich höher als Tux. Aber das mag auch daran liegen, dass ich primär Linux-Rechner im Heimnetz betreue und der Windows Home Server auf Windows Server 2003 aufsetzt.

Ein paar Bemerkungen zum Test:

  • Die deutschen Begrifflichkeiten sind reichlich merkwürdig. Wer denkt sich sowas aus? Zumal man, im Gegensatz zur LPIC-Prüfung, eine Frage nicht Alternativ auch auf Englisch angezeigt bekommt. Die nächste Prüfung mache ich jedenfalls auf Englisch.
  • IPv6 stand durchaus im Fokus. Komplett im Gegensatz zur Aussage im Buch.
  • Und auch bei dieser Prüfung gab es wieder Inhalte, die im Buch nicht mal am Rande erwähnt wurden. Allerdings hatte ich diesmal ein offizielles Prüfungsvorbereitungsbuch – sehr enttäuschend!
  • Dafür waren inhaltlich alle Fragen korrekt. Von den Vorbereitungsfragen konnte man das ja leider nicht behaupten.

Mal schauen ob ich für den MCTS auch schon ein schickes Zertifikat bekomme. Das MCP Begrüßungspaket gibt es jedenfalls erst als erfolgreich geprüfter MCP.

2813 Tage zuvor: LPIC vs MCTS

Nach meiner erfolgreichen LPIC habe ich mich dem MCTS zugewandt. Ziel ist zwar eine MCP-Zertifizierung, aber auf dem Weg dahin hat Bill zwei Vor-Zertifizierungen gestellt. Angefangen habe ich mit dem 70-642, da es einige Teile dessen enthält, die ich erst kürzlich für die LPIC gelernt habe. Interessant sind dabei die Unterschiede zwischen beiden Ansätzen. Hier ein paar Exemplare.

  • Bei Microsoft ist der Ansatz für TCP/IP ein wenig anders. IP-Adressen werden hier in Netzwerk- und Host-IDs aufgeteilt. Derlei Terminologie fehlte bei Linux komplett – zumindest was den Host-Teil betrifft, die Netzwerk-Adresse wurde in einem etwas anderen Kontext benutzt. Allerdings ist es eine gute Grundlage für die CIDR-Notation (die übrigens die klassische Aufteilung in A-, B- und C-Netzwerke abgelöst hat, wie ich nun weiß), wenn die Definition denn auch beim Subnetting noch um die Subnet-ID erweitert werden muss.
  • IPv6 war beim LPIC kein Thema. Der MCTS wird hier konkret. Im Allgemeinem kann man sagen, dass der MCTS in Sachen Netzwerk wesentlich detaillierter ist (was allerdings auch in der Natur der Sache liegt).
  • Für das LPIC reicht es den Befehl zu kennen – Hilfe-Funktionen und manpages helfen einem bei den Parametern schließlich weiter. Das MCTS legt allerdings wert darauf, dass Kandidaten wissen das start /w ocsetup DNS-Server-Core-Role den DNS-Serverdienst installiert.
  • Dafür gibt es für die Microsoft-Prüfungen offene Prüf-Testprogramme. Ähnlich wie für den theoretischen Teil der Führerscheinprüfung (die ich hauptsächlich dich das auswendig-lernen der Fragen gemeistert habe).
  • Der gravierenste Unterschied jedoch: Sind beim LPIC Gewichtung der Themengebiete und Mindestmaß für eine erfolgreiche Zertifizierung offen gelegt, hüllt sich Microsoft hier in schweigen. In dem mitgelieferten Test-Fragen hatte ich öfters 76% – und bin damit durchgefallen.

Am besten gefällt mir jedoch die mitgelieferte Test-Umgebung. Einfach ein paar virtuelle Maschinen mit Windows Server 2008 bestücken (die 8GB RAM lohnen sich auch hierbei) und die Praxis-Aufgaben im Buch mitmachen. Das klappt nicht nur super um das soeben gelernte zu verfestigen, sondern macht auch noch Spaß!

MCTS-Vorbereitung

Unschön am Buch hingegen: Es gibt Kapitel in denen erst Gemacht und anschließend Erklärt wird. Man richtet also zum Beispiel erst eine Health Requirement Policy ein und bekommt dann anschließend erklärt was das eigentlich ist, woraus sie besteht und was sie macht – bekommt also das, was man zuvor getan hat erklärt. Umgekehrt ist es wesentlich verständlicher. In den Auflösungen zu (mindestens einer) Testfrage ist im übrigen auch eine falsche Antwort genannt (DHCP-Option 015 ist nunmal nicht der Router).

Im Allgemeinen ist es schon sehr schockierend / amüsant (je nachdem, auf welcher Seite man steht), wie oft man in den Übungen die Server der Test-Umgebung neu starten soll. IPv6 deaktiviert? Server neu starten. NetBIOS aktiviert? Server neu starten. Nicht, dass man das wirklich müsste – abgesehen von etwaigem merkwürdigen Verhalten bei der Namensauflösung – aber was soll man davon halten wenn dieses Vorgehen konsequent in den offiziellen Microsoft-Büchern beschrieben ist? Die Ausführungen über die Notwendigkeit einer Network Access Protection seien besser erst garnicht erwähnt.

2821 Tage zuvor: Adios, Bill!

Ich hab es getan. Donnerstag, so ganz nebenbei. Es hat ein wenig gezwickt, aber alles in allem ging es doch problemlos. Zugegeben, ein wenig gezögert habe ich schon. Aber wer kann einem die Aufregung schon verdenken? Immerhin ist es das erste Mal. Und nach wie vor mutiger Schritt. Den ich bislang auch noch nicht bereut habe – wenn ein Resümeé allerings auch verfrüht wäre.

Was genau ich denn getan habe? Meine Sachen gepackt, wie so viele es derzeit tun, und den Umstieg gewagt:

Nein, nicht auf einen Mac. Überteuerte Hardware mit einem bevormundenden Betriebssystem wäre ja auch eher ein Schritt zurück. Nein, ich bin auf Linux umgestiegen. Ubuntu, um genau zu sein. Canonical hat nämlich Karmic Koala (Version 9.10) gerade verabschiedet. Getestet habe ich die Version ja ohnehin schon einige Wochen. Und auf das einzig fehlende Featurebin ich mittlerweile auch nicht mehr angewiesen.

Mal schauen wie es sich entwickelt. So sorgenfrei wie Windows ist eine Linux-Installation jedenfalls nicht – wenn sich die Sorgen auch eher auf technische Aspekte beschränken und nicht auf Sicherheit.

2825 Tage zuvor: 255.255.224.0

Teil der momentan angestrebten Zertifizierung ist die Berechnung von Subnetz-Masken, CIDR-Adressbereichen und der damit einhergehenden Anzahl an verfügbaren Host-Adressen. Vorwärts, rückwärts und auch seitwärts. Daher habe ich mir die Zeit genommen wieder ein kleines JavaScript dazu zu basteln:



Auch davon gibt es im Netz genügend, aber das erstellen eines solchen Scripts hilft beim Lernen eine Menge mehr, als lediglich das austesten.

2853 Tage zuvor: Den Überblick behalten

Wenn man als IT’ler viel Zeit an der Hand hat, gedeiht das Heim-Netzwerk meistens prächtig. Schließlich gibt es Unmengen an Sachen, die man schon immer mal ausprobieren wollt; jedoch nie Zeit genug dafür gefunden hat. Wenn Zeit also nicht mehr das limitierende Element ist, nimmt vieles seinen Gang. So auch bei uns zu Hause. Mit neun ganz realen Netzwerk-Clients sowie diversen virtuellen (doch dazu vielleicht später mehr) ist es schon nicht mehr wirklich ein Selbstläufer. Aber man ist ja Geek genug um auch diese Aufgaben zu automatisieren.

Nun gibt es in der weiten Welt der IT lauter schöne Tools zur Systemüberwachung. Spezial-Tools für Server, welche für Anwendungen und auch fürs Netzwerk selbst. Gemeinsam haben sie alle, dass sie meistens viel Geld kosten. Jedoch gibt es ein Tool, dass diese Aufgaben kombiniert anbietet, flexibel zu konfigurieren ist und zu alledem nichts kostet (für den Privat-Gebrauch zumindest): Manage Engine’s Application Manager.

Seit einigen Monaten habe ich es nun schon bei mir im Einsatz und bin nach wie vor davon begeistert. Ich kann alle meine Clients einbinden und individuell Schwellwerte und Benachrichtigungen konfigurieren, je nach Anforderung. Gleichzeitig kann ich die Historie verfolgen und frühzeitig erkennen wenn irgendwo ein (Speicher-)Engpass droht oder irgendwelche File-Systeme voll-laufen. Auch zur Planung der nächtlichen Jobs lässt sich die CPU- und Netzwerk-Auslastung hervorragend ablesen. Selbstredend läuft der Applications Manager wartungsfrei und ist angemessen komfortabel zu bedienen. Was will der Heim-Netzwerk-Administrator mehr?

Einzig die Möglichkeiten zur Überwachung von SAP- oder Datenbank-Systemen habe ich noch nicht getestet. Allerdings sind diese auch nicht mehr kostenlos zu haben.

2885 Tage zuvor: In vino veritas

Alle Welt schaut auf Windows 7, ich habe heute (mal wieder) einen Test für den Umstieg auf Linux gemacht. Ubuntu um genau zu sein. Die Installation habe ich dabei auf einer dritt-Festplatte durchgeführt. Schließlich soll es ja nur ein Test sein, kein Umstieg.

Es ist ja nicht die erste Linux-Installation die ich habe oder nutze. Um genau zu sein ist eine Debian-Installation in einer VirtualBox vermutlich meine meistgenutze virtuelle Instanz. Aber einige Dinge kann man halt doch nur auf einer nativen Installation testen. Im heutigen Fall war es das leidige Thema World of Warcraft. Diversen “Foreneinträgen”: nach soll es ja recht gut laufen – allerdings nicht in einer virtuellen Instanz. In einer Standard-Ubuntu-Installation muss man denn auch nicht viel machen. Die Grafikkarten-Treiber müssen installiert werden. Ebenso wie Wine. Und schon (das heißt: nach diversen Neustarts) kann es auch losgehen:

wine "~/.wine/dosdevices/d\:/Games/World of Warcraft/wow.exe" -opengl

WoW unter Wine

Nachdem einige Fehlermeldungen aus dem Weg geräumt waren (GLXBadDrawable: Xinerama deaktiveren und opengl in WoW einstellen, DivxDecoder.dll: die Laufwerke in Wine korrekt benennen) lief es denn auch. Ein wenig langsamer (18fps statt 25fps in einem frühabendlich gefüllten Dalaran), aber zugegeben noch annehmbar. Wenn auch ohne Soundausgabe. Bis dann auf einmal der Speicher ausging jedenfalls.

Nun hat das Deaktivieren von Xinerama leider den unschönen Nachteil, dass mein zweiter Bildschirm nicht mehr wirklich praktikabel genutzt werden kann. Um genau zu sein könnte ich ihn auch abschalten, den Fenster werden dort nicht mehr platziert und hinschieben kann man sie auch nicht mehr. Manko Eins.

Manko Zwei (und damit auch das momentane KO-Kriterium) ist die Seitens Evolution fehlende Exchange-2007 Unterstützung. Mein primärer (privater) Mail-Account liegt auf einem ebensolchen Server – und ist unverzichtbar. Nun könnte ich selbstredend Outlook unter Wine installieren und nutzen – aber warum sollte ich umsteigen wenn ich doch alles unter Wine laufen lasse (-n muss)?

Update
Wenn man TwinView in den nVidia-Treibern aktiviert, funktioniert WoW auch mit einer angenehmen Multi-Bildschirm-Lösung.

2921 Tage zuvor: Bake mit Fenstern

Es gibt viele Hinweise darauf, wie man CakePHP unter dem IIS zum laufen bekommen soll. Allerdings haben mir die Weiterleitungsregeln alle nur Ansatzweise geholfen. Dabei hatte ich die Installation extra in ein eigenes Web ausgelagert um die Konfiguration unabhängig von den normalen Web-Diensten konfigurieren zu können.

Nun, diese Weiterleitungsregeln für ISAPI-Rewrite3 funktionieren – jedenfalls bei mir:

RewriteEngine on
RewriteRule ^/(css|files|img|js|stats)/(.*)$ /app/webroot/$1/$2 [L]
RewriteCond %{REQUEST_FILENAME} !-f
RewriteCond %{REQUEST_FILENAME} !-d
RewriteRule ^(.*)$ /index.php?url=$1 [L,QSA]

2972 Tage zuvor: Die Suche nach den Mail-Einstellungen

Falls jemand mal in die Verlegenheit kommen sollte unter einem 64Bit-Vista nach den Outlook-Einstellungen zu suchen: Die verstecken sich unter den Additional Options des Control Panel bei den 32-bit Control Panel Items.

Logisch, eigentlich.

2994 Tage zuvor: Tasks abschießen

Wenn man viel mit Linux arbeitet, vermisst man ab und an schon mal eine Funktion unter Windows. In vielen Fällen gibt es allerdings ein Äquivalent – man kennt es nur nicht. Eines davon ist taskkill. Und, falls ich es mal wieder suchen sollte, so funktioniert es:

taskkill /F /FI "IMAGENAME eq VirtualBox.exe"

Das Ganze geht natürlich auch mit anderen Prozessen. Beim Namen der Prozesse hilft tasklist weiter.

3034 Tage zuvor: Shell für Bill

Wir haben hier so eine Überwachungskamera an der Haustür hängen. Eine durchaus lustige Sache, nicht nur um zu sehen wann die Post ankommen oder das Kommen und Gehen der Besucher im Auge zu behalten (oder gar die Nachbarn zu beobachten). Zumal sie eine beeindruckende Nachtsicht mit einer sehr fein einstellbaren Bewegungserkennung mitbringt (man kann sich sogar via Telnet in das dort laufende Linux einklinken).

Das Problem bei all der schönen Überwachung sind allerdings die anfallenden Datenmengen. Zwar wird alles brav mit Mpeg-4 komprimiert, trotzdem kommen schnell einige GB(Gigabyte) damit zusammen. Und da ich leider des öfteren vergesse dort regelmäßig zu entrümpeln, habe ich mich heute einmal daran gemacht das Löschen der überflüssigen Bits und Bytes zu automatisieren.

Da die Daten der Kamera via FTP auf meinem Heimserver abgelegt werden, musste also eine Windows-konforme Lösung her. Doch wie tut man das, wenn eine Batch-Datei dabei an ihre Grenzen kommt? Ganz recht: Mit der PowerShell. Gehört hatte ich von ihr schon zuvor, allerdings bis heute noch nie benutzt. Und ich muss sagen: Tolle Sache! In nicht mal einer halben Stunde war ich in der Lage die PowerShell zu installieren, ein passendes Script zusammenzustellen, es zu testen und anschließend einzuplanen.

Ich zeige mich beeindruckt und ziehe den Hut, Herr G.!

3253 Tage zuvor: Es ist, wie es ist

So ein Server zu Hause ist ja durchaus praktisch: Er macht automatisch Backups von jedem Computer und bietet die Möglichkeit zur zentralen Ablage von Fotos, Musik und Filmen. Man ist also, sozusagen, auf der sicheren Seite. Allerdings bin ich immer am überlegen, wie man den Nutzen noch weiter steigern kann. Die Sicherung der wichtigsten, persönlichen Daten auf eine Ablage im Internet ist zum Beispiel so eine Sache. Denn was nützen mir die Backups auf dem Server, wenn der Server selbst bei einem Hurrikan weg fliegt? Aber auch die anderen, üblichen Download-Dienste verrichten zuverlässig ihren Dienst. Ja, um Strom zu sparen kann man den schwarzen Wunderkasten sogar automatisch ein- und ausschalten lassen.

Aber das interessanteste, vor allem im Zusammenspiel mit der Xbox ist wohl ein DVR. Und weil es mittlerweile auch genügend Software dafür gibt, habe ich mir vor einigen Wochen auch eine entsprechende Tuner-Karte besorgt. Nach ein wenig herum testen stellte sich dabei ein klarer Favorit heraus: Beyond TV. Die Features entsprechen genau dem, was ich gesucht habe und mein Tuner wird sogar im Bundle mit der Software verkauft. Ein kleiner Haken allerdings blieb: Die hiesigen digitalen Kanäle, die mittels QAM ausgestrahlt werden, will die Software einfach nicht darstellen. Eine kleine Support-Anfrage sowie einige Beta-Versionen später ist das Problem leider nicht behoben. Meine Trial-Version hingegen ist nunmehr ausgelaufen. Aber auch darauf hat der Beta-Support eine passende Antwort parat:

If you have a purchased key, please use that, if you do not own a copy of Beyond TV, I’m afraid it is what it is until you are able to obtain a purchased copy.

Jetzt stelle ich mir nur noch die Frage, ob dort tatsächlich jemand glaubt, dass ich zum testen der versprochenen, aber nicht funktionierenden, Features eine Lizenz kaufe. Blöder Weise habe ich mich doch schon sehr an die Annehmlichkeiten dieses kleinen Zusatznutzens gewöhnt…

3274 Tage zuvor: Entferntes Fernsehen

XBMC für die XBox-Classic ist ja nunmehr schon ein alter, jahrelanger Wegbegleiter. Seinerzeit wurde die die XBox ja nur allein deswegen angeschafft: Filmchen vom Rechner direkt auf dem schönen Wohnzimmer-Fernseher schauen. Die Killer-Applikation schlechthin. Und wie ich jetzt feststellen durfte, ist sie noch viel besser geworden.

XBMC

Konnte man, eine Internetverbindung vorausgesetzt, schon früher auf Wetterberichte und RSS-Feeds zugreifen, wurde der Gedanke von den Entwicklern seitdem durchaus weiterentwickelt. Zuerst wurden Skripts eingeführt, mit denen man zum Beispiel auf die Apple Movie Trailer zugreifen kann. Schon eine wirklich kurzweilige Sache! Als nächstes sind die Internet-Streams hinzugekommen. Auf diese Weise kann man nicht nur Radiosender via Internet hören (endlich wieder EinsLive), sondern auch MMS-Streams (zB n-TV oder auch Giga) abspielen. Doch das wirklich beste sind die PlugIns. Sie spielen den Gedanke eines Skripts noch weiter und ermöglichen so direkten Zugriff auf YouTube oder – und das ist für mich persönlich der Höhepunkt – die ZDF Mediathek.

Ach ja, die schnöden Filmchen auf dem heimischen Server kann man natürlich weiterhin wie gewohnt schauen. Dank WebGuide übrigens auch übers Internet – in die umgekehrte Richtung.

3288 Tage zuvor: Heimserver für Deutschland!

Nachdem der HP Mediasmart Server nun, passend zum heutigen Release des Power Pack 1, auch in Deutschland erhältlich ist, sei jedem potentiellen Käufer das direkte RAM-Upgrade empfohlen. Es lohnt sich!

3349 Tage zuvor: Virtuelle 64-Bit

Allen, die versuchen ein 64-Bit Client-Betriebssystem unter Vista-64 zum Laufen zu bekommen sei gesagt:

Virtualbox does not support 64-bit guests.

Mich hat es einige Stunden gekostet, dies herauszufinden.

3460 Tage zuvor: PHP5 unter IIS6

Falls jemand in die Verlegenheit kommen sollte PHP5 unter einem IIS6 laufen lassen zu wollen und alle Guides einfach nicht weiterhelfen, sollte mal probieren für die PHP-Erweiterung in den Web Extensions denselben Pfad einzutragen wie in der Web Site Configuration. Also im alten MS-DOS Format (mit Tilden). Damit wird zumindest das Problem bei einem 404 2 1260 Fehler behoben (keine Berechtigung zum Ausführen der Erweiterung).

Klar, oder?