Microsoft Hyper-V – Das Handbuch für ...

Rufen Sie im Management-OS den Task-Manager auf, und öffnen Sie dort die .... Zunächst war das Analysewerkzeug als separates, kostenloses Produkt ...... nach dem Passwort für das Administrator-Konto gefragt. ...... Online VHDX Resize .
9MB Größe 67 Downloads 60 Ansichten
Wissen, wie’s geht.

Wissen aus erster Hand.

Leseprobe Umfangreiches Praxiswissen für Admins, direkt von den Hyper-VExperten – das bietet Ihnen dieses umfassende Handbuch. Lesen Sie hier, wie Sie einen Host-Server einrichten, und verschaffen Sie sich einen allgemeinen Überblick über Hyper-V und seine Möglichkeiten.



»Hyper-V im Überblick« »Host-Server einrichten«

Inhaltsverzeichnis Index

Die Autoren Leseprobe weiterempfehlen

Nicholas Dille, Marc Grote, Nils Kaczenski, Jan Kappen

Microsoft Hyper-V – Das Handbuch für Administratoren 948 Seiten, gebunden, 3. Auflage, Mai 2017 69,90 Euro, ISBN 978-3-8362-4327-8

www.rheinwerk-verlag.de/4229

Kapitel 2 Hyper-V im Überblick

2

Sicherheit, Qualitätsstandards und Hochverfügbarkeit sind ein »Musthave« in moderner IT-Infrastruktur. Nur wer Server virtualisiert und Infrastruktur als Code begreift, kann das erreichen. Die Autoren beleuchten anschaulich und fachlich auf den Punkt zunächst das Prinzip der Virtualisierung mit HyperV und zeigen dann, wie sich Virtualisierung mit PowerShell-Code zentral steuern, überwachen und verwalten lässt. Eine Pflichtlektüre für jeden Windows-Administrator. – Dr. Tobias Weltner, Microsoft MVP Cloud & Datacenter

Hyper-V lässt sich zwar Windows-typisch recht leicht bedienen und verwalten, doch unter der Haube ist es natürlich ein sehr komplexes Produkt. Es ist hilfreich, die Grundlagen, einige Hintergründe und die Architektur des Hypervisors zu kennen, um besser verstehen zu können, was im Einzelfall geschieht. Besonders beim Entwurf einer Virtualisierungsinfrastruktur und bei der Problemanalyse sind solche Kenntnisse nützlich. Der Begriff Hypervisor, der vielleicht nicht jedem Leser geläufig ist, bezeichnet die Software-Komponente, die auf einem physischen Server läuft und die virtuellen Maschinen steuert, die auf derselben Server-Hardware in Betrieb sind. Es ist Aufgabe des Hypervisors, die Ressourcen der Hardware bedarfsgerecht an die virtuellen Maschinen (VM) zu verteilen. Zu diesen Ressourcen zählen vor allem die Rechenleistung der CPUs, der Arbeitsspeicher, die Speichersysteme (oft pauschalisierend als »Festplatten« bezeichnet, obwohl das in größeren Umgebungen zu ungenau ist) und der Zugriff auf das Netzwerk. Vereinfacht gesagt, sorgt der Hypervisor über eine Zeitplanung dafür, dass er alle VMs abwechselnd versorgt – das Zeitscheibenprinzip, das in der IT oft zur Anwendung kommt, ist auch hier relevant. Manchmal wird der Hypervisor auch als Virtual Machine Monitor bezeichnet, was dieselbe Kontrollfunktion ausdrückt. Es gibt eine Reihe von Begriffen und Konzepten, mit denen Server-Virtualisierung beschrieben wird. Im Folgenden beschränken wir uns auf einen Ausschnitt, der aus unserer Sicht für das Verständnis von Hyper-V wichtig ist.

57

2

Hyper-V im Überblick

Wichtige Begriffe für Hyper-V An dieser Stelle geben wir Ihnen einen kurzen Überblick über wichtige Begriffe in Hyper-V, die Sie einordnen können sollten. Sie werden feststellen, dass diese Begriffe im Web, in Artikeln oder Vorträgen nicht immer ganz korrekt verwendet werden. Zu vielen der Begriffe finden Sie im Verlauf dieses Kapitels und auch im ganzen Buch weitere Erläuterungen. Die Reihenfolge der Ausdrücke ist nicht alphabetisch, sondern an inhaltlichen Zusammenhängen orientiert. 왘 Host, Host-Server: Als Host oder Host-Server bezeichnet man in der Virtualisierung meist den physischen Server, auf dem die Virtualisierungs-Software und eine oder mehrere virtuelle Maschinen laufen. Manchmal wird als Host auch die Virtualisierungs-Software selbst, also der Hypervisor, bezeichnet, aber das ist eigentlich nicht richtig. 왘 Hypervisor: Der Hypervisor ist die Software-Komponente, die für den Betrieb von virtuellen Maschinen auf einem Host-Server zuständig ist. 왘 Hyper-V-Server: Der Begriff wird uneinheitlich verwendet. Oft ist damit ein HostServer gemeint, der mit Hyper-V läuft. Manche bezeichnen mit diesem Ausdruck eine virtuelle Maschine innerhalb von Hyper-V. Vor allem aber gibt es ein eigenes Produkt namens Hyper-V Server 2016. Das ist die kostenlose Fassung von Microsofts Virtualisierungs-Software. 왘 Parent-Partition: In Hyper-V ist die Parent-Partition die erste Instanz des ServerBetriebssystems, in der die Steuerung der gesamten Virtualisierung stattfindet. Der Begriff gilt als veraltet und sollte nicht mehr genutzt werden. 왘 Root-Partition: Das ist ein weiterer Ausdruck für die Parent-Partition, der aber weniger gebräuchlich ist. 왘 Management-OS: Dies ist der aktuelle Ausdruck für die Parent-Partition. Manche Autoren unterscheiden auch zwischen der Parent-Partition als virtueller Instanz und dem Management-OS als dem Betriebssystem, das in der Parent-Partition läuft. In diesem Buch verwenden wir aber beide Begriffe synonym. 왘 Host-Betriebssystem: Das ist ein anderer Ausdruck für das Management-OS, manchmal auch bezogen auf andere Virtualisierungsprodukte oder als allgemeiner Begriff verwendet. 왘 Child-Partition: Dies ist ein anderer Ausdruck für eine virtuelle Maschine, die als eigene Instanz separat zur Parent-Partition auf Hyper-V läuft. 왘 Virtuelle Maschine oder virtueller Computer: Das ist eine virtuelle Instanz eines Computers, die innerhalb eines Hypervisors läuft. 왘 Gast: Eine virtuelle Maschine wird manchmal als Gast oder Guest bezeichnet (denn der englische Ausdruck Host bedeutet »Gastgeber«). 왘 Integrationsdienste: Dies sind die Treiber, Dienste und Anpassungen, die innerhalb einer virtuellen Maschine in Hyper-V laufen und für eine optimale Zusammenarbeit des VM-Betriebssystems mit dem Hypervisor sorgen. Sie werden

58

2.1

Die Architektur

manchmal auch als Integrationskomponenten bezeichnet, weil Microsoft auf Englisch etwas uneinheitlich mal Integration Components und mal Integration Services verwendet. 왘 Virtueller Server: Dieser Ausdruck wird leider sehr uneinheitlich verwendet. Manche meinen damit den Host-Server, andere meinen eine virtuelle Maschine. Diesen Begriff sollten Sie vermeiden. 왘 VOSE: Das ist ein Ausdruck aus den Microsoft-Lizenzbestimmungen. Inhaltlich bezeichnet VOSE eine virtuelle Maschine (Virtual Operating System Environment). 왘 POSE: Das Gegenstück aus den Microsoft-Lizenzbestimmungen bezeichnet das

Betriebssystem, das direkt auf einem physischen Server installiert ist (Physical Operating System Environment).

2.1 Die Architektur Genau wie die anderen wichtigen Produkte auf dem Markt für Server-Virtualisierung gehört auch Hyper-V zur Kategorie der Typ-1-Hypervisoren. Diese Klassifikation finden Sie in den folgenden Abschnitten erläutert. Ebenso stellen wir Ihnen einige weitere Beschreibungskategorien vor, durch die sich Hyper-V teilweise von seinen Mitbewerberprodukten unterscheidet.

2.1.1 Hypervisor Typ 1 Hypervisoren vom Typ 1 sind eine Software, die direkt auf Basis der Server-Hardware läuft. Sie bauen nicht auf einem allgemeinen Betriebssystem auf, sondern sind als relativ »schmale« Software-Schicht implementiert, die sich auf das Wesentliche konzentriert (siehe auch Abbildung 2.1). Dadurch, dass die gesamte Hardware so der Kontrolle des Hypervisors unterliegt, ist gewissermaßen der gesamte Server für die Virtualisierung reserviert und muss sich um keine anderen Aufgaben kümmern. Auf diese Weise können Typ-1-Hypervisoren sehr effizient die Leistung der Hardware an die virtuellen Maschinen weitergeben. Beispiele für diese Kategorie sind neben Hyper-V die Produkte VMware vSphere Hypervisor (früher als ESX Server bzw. ESXi bekannt), Citrix XenServer und sein OpenSource-Verwandter Xen sowie zahlreiche andere Vertreter. Ein anderer Begriff für diese Kategorie ist Bare-Metal-Hypervisor, weil die Kontrollinstanz direkt auf der Hardware, also dem »nackten Blech«, installiert ist. Manchmal findet man auch den Ausdruck nativer Hypervisor.

59

2

2

Hyper-V im Überblick

VM1

VM2

2.1

VM3

VM4

Hypervisor Hardware Abbildung 2.1 Architektur eines Hypervisors vom Typ 1: Der Hypervisor ersetzt das Betriebssystem auf der Hardware und kontrolliert alle Vorgänge von Grund auf.

2.1.2 Hypervisor Typ 2 Die Typ-2-Hypervisoren sind keine eigenständigen Produkte in dem Sinne, dass man sie direkt auf einem Server installiert. Sie benötigen ein separates Betriebssystem als »Unterlage« und setzen als Applikation oder als Dienst darauf auf (siehe Abbildung 2.2). Aus diesem Grund bezeichnet man sie auch als Hosted Hypervisors.

Die Architektur

In der Server-Virtualisierung spielen Typ-2-Hypervisoren seit einigen Jahren praktisch keine Rolle mehr. Bekannte Vertreter aus diesem Bereich waren VMware Server (vorher als GSX Server vermarktet) und Microsoft Virtual Server. Recht weit verbreitet sind diese Hypervisoren aber immer noch bei der clientseitigen Virtualisierung, beispielsweise in der Software-Entwicklung oder für Demonstrationszwecke. In solchen Fällen läuft die Virtualisierungs-Software auf einem »allgemeinen« PC parallel zu Standardapplikationen wie etwa Microsoft Office, und der Anwender nutzt virtuelle Maschinen auf seinem Computer eher sporadisch, etwa um Vorgänge auszuprobieren. Wichtige Produkte für diesen Einsatzzweck sind VMware Workstation, Oracle VirtualBox und einige andere. Das Produkt Virtual PC von Microsoft gilt hier als technisch überholt. In einem Spezialfall hat diese Form der Virtualisierung aber eine etwas größere Verbreitung, nämlich für den Betrieb älterer Software, die mit einem modernen Betriebssystem inkompatibel ist. Ein Beispiel dafür ist der sogenannte XP Mode von Windows 7 (siehe Abbildung 2.3), in dem im Hintergrund (auf Basis von Virtual PC) eine VM mit Windows XP werkelt. Windows 8 und alle späteren Versionen bieten diese Funktion nicht mehr, bei Bedarf kann man sie über Zusatzprodukte nachbilden. Die integrierte Virtualisierungslösung Hyper-V bietet zwar eine Lösung zur Virtualisierung von weiteren Betriebssystemen, bringt aber keinen »XP Mode« mit.

Da in diesem Fall das unterliegende Betriebssystem auch andere Zwecke erfüllen kann, ist die Gesamtumgebung weniger stark für den Betrieb der Server-Virtualisierung optimiert. In manchen Situationen ist das durchaus erwünscht, aber es hat den Nachteil, dass die Typ-2-Virtualisierung weniger effizient ist und daher die dort betriebenen virtuellen Maschinen weniger performant sind.

VM1 App 1

VM2

App 2 Hypervisor Betriebssystem Hardware

Abbildung 2.2 Architektur eines Hypervisors vom Typ 2: Auf der Hardware läuft ein Allzweck-Betriebssystem, und der Hypervisor ist eine von mehreren Anwendungen.

60

Abbildung 2.3 Der »XP Mode« in Windows 7 beruht auf einem Typ-2-Hypervisor. Er stellt eine VM mit Windows XP bereit, in der ältere Anwendungen als Fenster laufen können. Ab Windows 8 gibt es den »XP Mode« nicht mehr.

61

2

2

Hyper-V im Überblick

2.1

Die Architektur

Innerhalb der Typ-1-Hypervisoren hilft noch ein zweiter Ansatz dabei, die Produkte grundlegend voneinander zu unterscheiden. Hier gibt es vor allem eine technische Trennung zwischen dem langjährigen Marktführer VMware und den beiden anderen wichtigen Produkten Hyper-V und XenServer.

schlechtes Licht auf den Virtualisierungsanbieter, auch wenn er selbst vielleicht gar nicht die Verantwortung für die fehlerhafte Komponente trägt. In der Praxis ist dies der Hauptgrund für das restriktive Hardware-Zertifizierungsprogramm von VMware.

2.1.3 Monolithischer Hypervisor

2.1.4 Microkernel-Hypervisor

VMwares vSphere betrachtet man oft als einen monolithischen Hypervisor, weil er gewissermaßen »aus einem Block« besteht. Das bedeutet vereinfacht, dass alle hardwarespezifischen Treiber direkt innerhalb der Hypervisor-Schicht implementiert sein müssen, damit der Hypervisor mit einer bestimmten Hardware-Ausstattung zusammenarbeitet (siehe Abbildung 2.4).

Im Gegensatz dazu verstehen sich einige andere Produkte als Microkernel-Hypervisor, weil sie die Software-Schicht des eigentlichen Hypervisors bewusst »schmal« halten und die Spezifika der Hardware außerhalb des eigenen Kernels behandeln. Solche Virtualisierer benötigen parallel zum eigentlichen Hypervisor eine separate Instanz, die die Hardware-Treiber enthält und über diese eine Abstraktionsebene in Form einer standardisierten Kommunikationsschnittstelle legt. Der Hypervisor und die virtuellen Maschinen sprechen damit die Treiber (und die Hardware) nicht direkt an, sondern nur über die Schnittstelle (siehe Abbildung 2.5).

VM1

VM2

VM3

VM4

Vertreter dieser Gattung sind Citrix XenServer und Microsoft Hyper-V. In XenServer heißt die steuernde Instanz Dom0, bei Hyper-V bezeichnet man sie als ManagementOS. Beide sind für den Betrieb der Virtualisierungsplattform unverzichtbar.

Hypervisor Treiber

VM Parent

Hardware

Treiber

Abbildung 2.4 Im monolithischen Hypervisor sind alle Treiber und Komponenten in den Hypervisor integriert, er bildet also einen zusammenhängenden Block.

VM2

VM3

VM4

Hypervisor Hardware

Ein Vorteil dieser Konstruktion besteht darin, dass der Hypervisor in seinem Kommunikationsaufbau relativ einfach sein kann, weil er alle Treiber und Komponenten direkt kontrolliert und keine aufwendige Infrastruktur zur Steuerung benötigt. Der wesentliche Nachteil besteht darin, dass alle Treiber ausdrücklich für den Hypervisor entwickelt und mit diesem getestet werden müssen. Das hält die Auswahl an Komponenten gering, die direkt mit dem Hypervisor zusammenarbeiten können, weil der Entwicklungsaufwand diese teuer macht. Bei einer neuen Generation von Hardware kann es vorkommen, dass sie erst nach einem Update des Hypervisors genutzt werden kann. Zudem muss der Hersteller der Virtualisierungs-Software aus eigenem Interesse eine intensive Qualitätsprüfung externer Treiber vornehmen, weil Fehler in dieser Art von Software schnell die ganze Infrastruktur in Mitleidenschaft ziehen. Das wäre nicht nur schlecht für die Betreiber, sondern wirft auch ein

62

Abbildung 2.5 Der Microkernel-Hypervisor setzt den Hypervisor als sehr »schmale« Komponente um, die keine Treiber und Ergänzungen enthält. Alle hardware-spezifischen Elemente sind Teil einer speziellen virtuellen Maschine.

Der Vorteil, den besonders Hyper-V aus dieser getrennten Konstruktion zieht, besteht in einer hohen Kompatibilität mit Treibern und Komponenten. Da das Management-OS ein Windows-Betriebssystem ist, können die Hardware-Hersteller auf eine vertraute Umgebung bei der Entwicklung von Treibern zurückgreifen und benötigen keine separaten Prozesse, um für Hyper-V zu entwickeln. Das sorgt für eine sehr breite Basis an einsetzbarer Hardware in der Server-Virtualisierung.

63

2

2

Hyper-V im Überblick

Zusätzlich bietet diese Trennung eine ergänzende Schutzebene. Die Treiber bei den Microkernel-Hypervisoren müssen eine sehr hohe Qualität aufweisen, um das System stabil zu halten. Da aber Windows (bzw. im Fall von XenServer Linux) bereits über sehr ausgereifte Techniken für Fehlerbehandlung, Prozessisolation etc. verfügt, müssen die Entwickler des Hypervisors nicht selbst für den Schutz vor Fehlern oder Angriffen sorgen. Darüber hinaus sorgt ein Zertifizierungsprogramm dafür, dass die zur Verfügung gestellten Treiber ausgiebig getestet werden.

2.2 Paravirtualisierung und Emulation Eine weitere Unterscheidung von Virtualisierungstechniken bezieht sich auf die Integration von Hardware und Betriebssystemen der virtuellen Maschinen. Die Frage ist dabei, welche Hardware dem Betriebssystem innerhalb der virtuellen Maschine präsentiert wird, wie der Hypervisor damit umgeht und welche Performance dies am Ende der virtuellen Maschine ermöglicht. Hier gibt es eine große Bandbreite an Techniken, die die Virtualisierungshersteller zunehmend parallel einsetzen. Ein großer Nutzen der Virtualisierung besteht in einer Abstraktion der Hardware: Da die virtuelle Maschine unter Kontrolle eines Hypervisors läuft, das heißt mit der tatsächlichen Hardware keinen direkten Kontakt hat, kann man die Details der Gerätschaften vor ihr verbergen. Dadurch benötigt die VM selbst keine speziellen Treiber – das erhöht die Kompatibilität und sorgt dafür, dass man eine VM auch von einem physischen Server auf einen anderen übertragen kann und sie dort trotzdem ohne Anpassung läuft: Sie »sieht« ja weiterhin nicht die echte, sondern die abstrahierte Hardware. Wenn man allerdings in jedem Fall einen bestimmten Satz an »klassischer« Hardware emuliert, um ihn den virtuellen Maschinen zu präsentieren, beschneidet man die Leistungsfähigkeit der VMs. Zum einen ist es sehr aufwendig, Geräte zu emulieren, denn der Hypervisor muss dann zwischen denjenigen Befehlen übersetzen, die die VM absetzt, und denen, die die echte Hardware wirklich versteht. Zum anderen ist es auf diese Weise nicht möglich, neue Funktionen oder Leistungsmerkmale zur Verfügung zu stellen. Aus diesem Grund nutzen heutige Virtualisierer das Prinzip der Emulation nur möglichst selten. Oft greifen sie auf das Prinzip der Paravirtualisierung zurück: Zwischen der realen Hardware des Host-Servers und der virtuellen Hardware der VM gibt es eine weitere Schicht, die zwischen beiden vermittelt. Damit dies möglichst effizient geschieht, muss das Betriebssystem innerhalb der VM von dieser Schicht wissen, man muss es daher anpassen. Bei den meisten kommerziellen Produkten geschieht dies, indem man einen Satz spezieller Treiber innerhalb der VM installiert.

64

2.3

Hardware-Virtualisierung

Tatsächlich vermeiden die meisten Hersteller den Ausdruck Paravirtualisierung, denn eigentlich versteht man darunter eher eine Anpassung der Betriebssysteme auf der Code-Ebene. Da kommerzielle Betriebssystem-Hersteller eine derartige Anpassung aber kaum erlauben würden, soll die genutzte Technik auch gar nicht erst so klingen, als täten sie dies. Während XenServer und Hyper-V von Anfang an primär auf das Prinzip der Paravirtualisierung setzten, hat VMware lange Zeit nur den Emulationsweg beschritten und Paravirtualisierung erst recht spät eingeführt (mit Version ESX 3.5 Update 1). Man erkennt den Ansatz der Paravirtualisierung oft einfach daran, dass für den leistungsfähigen und effizienten Betrieb einer VM spezielle Treiber nötig sind, die keine herkömmliche Hardware ansprechen. Bei aktuellen VMware-Systemen sind das beispielsweise die VMNet-Netzwerkkarten sowie die VMI-Schnittstelle, in Hyper-V die Integration Services und in XenServer die Enlightenments. Keines der genannten Produkte setzt aber ausschließlich auf einen technischen Weg, sondern alle Hersteller setzen Techniken verschiedener Art und Herkunft (Emulation, Paravirtualisierung, Hardware-Virtualisierung) nebeneinander ein, um für verschiedene Situationen passende Lösungen bieten zu können.

2.3 Hardware-Virtualisierung In ernst zu nehmender Größenordnung hielt die Server-Virtualisierung Einzug in die Welt der Client-Server-Umgebungen, als VMware sein Produkt ESX Server am Markt etablierte. Dessen Version 2, eingeführt im Sommer 2003, verfügte bereits über einige Merkmale, die heutige virtuelle Infrastrukturen auszeichnen: Mechanismen für Clustering und Hochverfügbarkeit, SAN-Integration und vor allem eine Live-Migration-Technik namens vMotion, mit der man laufende virtuelle Maschinen von einem physischen Host-Server auf einen anderen verschieben konnte, ohne sie anzuhalten oder die Benutzerverbindungen zu unterbrechen. In der gesamten Frühzeit der Server-Virtualisierung (bezogen auf die Client-ServerWelt mit Intel-basierten Rechnern) beruhte die Technik nur auf Software. Zwar gab es in anderen Rechnerarchitekturen, beispielsweise in der IBM-Großrechner-Welt, teils schon jahrzehntelang Hardware, die sich unterhalb der Software-Ebene in mehrere logische Systeme (dort meist Partitionen genannt) aufteilen ließ. Doch es dauerte bis zum Jahreswechsel 2005/2006, bis Intel und sein Mitbewerber AMD die ersten Prozessoren auf den Markt brachten, die auf der Hardware-Ebene Unterstützung für Virtualisierung enthielten. Durch diese erweiterten Prozessorfunktionen, die auf dem Markt als Intel-VT und AMD-V bekannt sind, lassen sich Hypervisoren wesentlich effizienter und sicherer betreiben als auf Basis der vorherigen CPUs. Durch einen neuartigen Aufbau sind die

65

2

2

Hyper-V im Überblick

Prozessoren in der Lage, Befehle aus den virtuellen Maschinen auch dann direkt umzusetzen, wenn sie den Protected Mode der CPU voraussetzen. Dadurch ist es für den Hypervisor unnötig, diese Befehle abzufangen und zur Ausführung zu übersetzen (was manchmal als Maskieren bezeichnet wird). Dies entlastet die CPU, weil sie für denselben Vorgang weniger Arbeit aufwenden muss. Hyper-V setzt diese Prozessorfunktionen zwingend voraus, denn die Software ist von vornherein für diese CPU-Integration entwickelt worden. Andere Virtualisierungsprodukte profitieren ebenfalls von den Funktionen, können in anderen Betriebsmodi aber auch mit einfachen Prozessoren arbeiten. Zwar mag dies wie ein konzeptioneller Nachteil von Hyper-V erscheinen, doch sind alle Server, die in der Praxis für eine Virtualisierung infrage kommen, ohnehin seit vielen Jahren mit den nötigen Funktionen ausgestattet. Sowohl AMD-V als auch Intel-VT bedienen sich eines speziellen architektonischen Kniffs, um die Kontrolle der CPU über die Virtualisierung zu ermöglichen. Schon im Grundprinzip der x86-Prozessorarchitektur gibt es in der CPU mehrere sogenannte Ringe, über die ein Betriebssystem Berechtigungen umsetzen kann. Jeder Ring stellt eine Berechtigungsstufe dar, in der bestimmte CPU-Befehle möglich sind. Ein Betriebssystem kann diese Ringe nutzen, um Prozesse voneinander zu trennen und vorzugeben, welche Aktivitäten ein Prozess ausführen kann und welche nicht. Die x86-Architektur kennt die Ringe 0, 1, 2 und 3, doch alle relevanten Betriebssysteme nutzen nur den Ring 0 (den sogenannten Kernel Mode) und den Ring 3 (den sogenannten User Mode). Prozesse des User Mode dürfen keine Funktionen des Rings 0 nutzen. Die Virtualisierungsprozessoren haben nun einen neuen Ring –1 eingeführt, der sozusagen »unterhalb« des Rings 0 liegt. Auf diesem Ring –1 arbeitet der Hypervisor. Er behält so die Kontrolle über alle höheren Ringe. Durch diesen Trick können die virtuellen Betriebssysteme ohne weitere Anpassung den Ring 0 für Kernel-Operationen nutzen. Der Hypervisor ist in der Lage, von seinem hoch privilegierten Ring –1 aus mehrere Betriebssystem-Kernel im Ring 0 zu verwalten. Mehr zu dem Konzept der CPU-Ringe lesen Sie in einem knappen, aber guten Wikipedia-Artikel unter http://de.wikipedia.org/wiki/Ring_(CPU) (Kurzlink: http://qccq.de/ s/h201). Hyper-V unterstützt optional weitere Techniken der Hardware-Virtualisierung, unter anderem Single-Root I/O Virtualization (SR-IOV; seit Windows Server 2012) oder Discrete Device Assignment (DDA; seit Windows Server 2016). Mithilfe dieser Techniken lassen sich Hardware-Komponenten direkt in eine virtuelle Maschine durchreichen, sodass die Hardware am Hypervisor vorbei angesteuert werden kann. Dies führt zwar zu einem Verlust des Managements auf Hypervisor-Ebene, sorgt aber

66

2.4

Der VMBus und die Integration Services

für einen sehr effizienten Zugriff auf Netzwerkkarten, Speicherkarten oder andere Geräte. Eine genaue Beschreibung der Techniken finden Sie im weiteren Verlauf.

2.4 Der VMBus und die Integration Services Wie in Abschnitt 2.2, »Paravirtualisierung und Emulation«, dargestellt, ist für die Technik der Paravirtualisierung eine Kommunikationsschicht nötig, über die das Betriebssystem einer virtuellen Maschine auf die Hardware zugreifen kann. Im Fall von Hyper-V nennt man diese Komponente VMBus (siehe Abbildung 2.6).

VM Parent

Ring 3 User

Ring 0 Kernel

Ring -1

VM Child 1

VM Child 2

VM Child 3

Virt. Stack VSP

VSC

VSC

Treiber

IC

IC

Treiber

VMBus

VMBus

VMBus

Emulierte Geräte

Hypervisor Hardware

Abbildung 2.6 Das Hyper-V-Architekturschema. Für Hyper-V optimierte VM-Betriebssysteme nutzen den VMBus und die Integrationsdienste (Integration Components, IC) zur Kommunikation.

Vereinfacht können Sie sich diese Komponente wie einen virtualisierten HardwareBus vorstellen, wie ihn etwa der PCI-Bus darstellt. Das virtuelle Betriebssystem kann über seinen Treiber-Stack seine Zugriffe auf die Hardware auf diesen Bus legen und erhält von dort die jeweiligen Daten bzw. Funktionen zurück. Den tatsächlichen Aufbau des VMBus kontrolliert das Management-OS, denn nur dort sind die hardwarespezifischen Treiber für die tatsächlich vorhandenen Geräte installiert. Abbildung 2.6 stellt diesen Aufbau dar.

67

2

2

Hyper-V im Überblick

Um auf den VMBus zugreifen zu können, bedarf es aber einiger Anpassungen im Gast-Betriebssystem. Dazu dienen die Integrationsdienste (Integration Services, manchmal auch Integration Components, IC genannt), die Sie sich wie einen Satz von Treibern und Werkzeugen vorstellen können, die im Betriebssystem der virtuellen Maschine laufen. In XenServer sind diese Dienste als Enlightenments bekannt, bei VMware als VMware Tools. In Abbildung 2.6 verfügen die VM Child 1 und VM Child 2 über diese Dienste.

2.5

Das Management-OS

sekunden (in einem Fall haben wir mehr als 30 Sekunden beobachten können). Installiert man die Integrationsdienste und stattet die VM mit einer synthetischen Netzwerkkarte aus, ändert sich die Netzwerkperformance üblicherweise schlagartig auf die erwarteten Werte.

Neben dem reinen Hardware-Zugriff steuern diese Dienste auch noch einige weitere Funktionen der Virtualisierung. Dazu zählen einfachere Vorgänge wie der Zeitabgleich der virtuellen Maschine mit dem Host-Server oder auch komplexere wie der Heartbeat zur Überwachung der Hyper-V-Dienste innerhalb der VM oder die Kommunikation mit dem Host-Server über die Verwendung des Arbeitsspeichers im Fall von Dynamic Memory. Details zu den Integrationsdiensten lesen Sie in Abschnitt 6.2.10, »Integrationsdienste«. Sofern die virtuellen Maschinen auf Ihrem Host-Server dasselbe Windows-Betriebssystem ausführen wie der Host selbst, enthalten sie bereits die passenden Integrationsdienste. Ältere Windows-Versionen innerhalb einer VM sollten Sie auf den jeweils neuesten Stand der Integrationsdienste bringen, um Stabilität, Leistung und Funktionsumfang zu gewährleisten. Seit dem Windows Server 2016 hat sich die Art des Updates verändert. In den vorherigen Versionen von Hyper-V war es so, dass die Integrationskomponenten auf dem Hyper-V Host unter C:\Windows\System32 in einer .iso-Datei mit dem Namen vmguest.iso gespeichert waren. Diese Datei konnte im Hyper-V-Manager über die Remote-Verbindungskonsole mit dem Menüpunkt Aktion • Installationsdatenträger für Integrationsdienste einlegen angehängt werden (siehe auch Abbildung 2.7). Seit dem aktuellen Release von Hyper-V werden die Treiber nun per Windows Update verteilt und aktualisiert. Dies verbessert das Management und die Art der Verteilung ungemein. Die Integrationsdienste gibt es auch für andere Betriebssysteme, vor allem für Linux. Einige Distributionen haben eine Version der Komponenten bereits in ihrem Lieferumfang, für andere können Sie diese selbst einbinden. Da die Entwicklung schnell voranschreitet, sollten Sie bei der Installation und später regelmäßig prüfen, welche Version für welche Distribution verfügbar ist und unterstützt wird. Sofern in einer VM unter Hyper-V ein Betriebssystem läuft, in dem die Integrationsdienste nicht vorhanden sind, stellt Hyper-V emulierte Geräte zur Verfügung. Das Prinzip finden Sie in Abbildung 2.6 in der VM Child 3 dargestellt. Diese emulierten Geräte sind weit weniger leistungsfähig als ihre »paravirtuellen« Pendants. Besonders beim Netzwerkverkehr lässt sich dies oft beobachten: Ein virtueller Server, der unter Hyper-V mit einer »älteren Netzwerkkarte« (Legacy Network Adapter) ausgestattet ist – so lautet hier die Bezeichnung für eine emulierte, nicht paravirtualisierte Karte –, zeigt oft Ping-Rundlaufzeiten im Bereich von Sekunden statt der üblichen Milli-

68

Abbildung 2.7 Die Integrationsdienste ließen sich über die Verbindungskonsole im Hyper-V-Manager installieren oder aktualisieren.

2.5 Das Management-OS Das Management-OS spielt in der Virtualisierung mit Hyper-V eine besondere Rolle. Manchmal bezeichnet man diese Instanz auch vereinfachend als »den Host«, wobei das nicht ganz richtig ist – der Host wäre eher der ganze Hardware-Server mitsamt dem Hypervisor und der Parent-Partition. Auch der Ausdruck Parent-Partition ist weiterhin verbreitet, gilt aber als veraltet. Wie wir in Abschnitt 2.1.4, »Microkernel-Hypervisor«, erwähnt haben, dient diese spezielle Instanz dazu, den Hardware-Zugriff aller virtuellen Maschinen zu steuern und die Gerätetreiber für die tatsächliche Hardware bereitzuhalten. Technisch gesehen ist das Management-OS die erste virtuelle Maschine auf dem Hyper-V-Host. Dieses spezielle System kommt dabei auf eine spezielle Weise zustande, von der Sie sich nicht auf eine falsche Fährte führen lassen sollten. Um die Vorgänge zu erläutern, schauen wir uns den Installationsprozess eines Hyper-V-Hosts genauer an. Zunächst installieren Sie Windows Server 2016 »ganz normal« auf dem Server. Während der Installation stellen Sie die nötigen Treiber zur Verfügung, spielen die aktuellen Updates ein und führen die Grundkonfiguration durch. Erst wenn Sie dies abge-

69

2

2

Hyper-V im Überblick

schlossen haben, richten Sie die Server-Rolle Hyper-V über den Server-Manager oder die Windows PowerShell ein. Das erfordert wenige Angaben und zwei Neustarts, und danach sieht Ihr Server aus wie vorher – ein ganz normaler Windows Server. Tatsächlich ist nun aber Gravierendes geschehen: Der Hypervisor ist gewissermaßen nachträglich unter das bereits laufende Windows geschoben worden und hat die Kontrolle über das gesamte System übernommen. Dadurch ist der eben erst auf der Hardware installierte Windows Server zur ersten virtuellen Maschine geworden, die »nur noch« der Steuerung des Hypervisors dient und ihm einige wichtige Funktionen bereitstellt.

2.6

Der Virtualisierungs-Stack

Ein Umstand führt allerdings immer wieder zu Missverständnissen: Die meisten Betriebssystem-Einstellungen des Management-OS beziehen sich nur auf diese eine »virtuelle Maschine« und haben mit den anderen VMs, die der Server hostet, nichts zu tun. Legen Sie etwa in diesem speziellen Betriebssystem eine IP-Adresse für eine Netzwerkverbindung fest, gilt diese ausschließlich für die Netzwerkkommunikation des Management-OS – die IP-Konfigurationen der VMs auf demselben Host sind davon völlig getrennt, auch wenn sie durch die Virtualisierung vielleicht über dieselbe physische Karte laufen.

Lasst die Eltern in Ruhe!

2.6 Der Virtualisierungs-Stack

Die Sonderfunktionen des Management-OS sind der Grund, warum Sie innerhalb dieses Systems auf keinen Fall weitere Dienste einrichten sollten. In der Projektpraxis diskutieren wir immer wieder mit Kunden, die »den Host« noch besser ausnutzen möchten und daher direkt in dem Management-OS zusätzlich Dienste wie Active Directory, Dateidienste oder gar Applikationen wie SQL Server installieren möchten. Das ist aber überhaupt keine gute Idee.

Innerhalb des Management-OS läuft der sogenannte Virtualization Stack. Das ist ein Satz von Komponenten, Diensten und Treibern, die die virtuelle Infrastruktur auf dem Host-Server bereitstellen und steuern. Erst durch diesen Aufbau wird das Management-OS zur Management-Instanz, denn hier finden sich die nötigen Schnittstellen und Funktionen, um virtuelle Maschinen zu erzeugen, zu konfigurieren und zu betreiben.

Halten Sie sich Folgendes vor Augen: Das Management-OS ist an jedem Ein- und Ausgabevorgang beteiligt, zu dem irgendeine virtuelle Maschine auf die Hardware zugreifen muss. Denn nur in dem Management-OS laufen die dazu nötigen Treiber. Das bedeutet aber, dass dieses System auch die nötigen Ressourcen braucht, um seine wichtige Aufgabe zu erfüllen. Jeder Dienst, den das Management-OS daneben noch ausführt, belegt dieselben Ressourcen und schränkt damit alle laufenden VMs ein. Würden Sie einen Dateiserver, einen SQL Server oder eine andere Applikation direkt innerhalb dieser Instanz laufen lassen, kann dieser durchaus unter Last stehen, und dann hat das Management-OS einfach keine Ressourcen mehr für ihre eigentliche Funktion frei, nämlich die Unterstützung der virtuellen Maschinen. Die Empfehlung lautet daher: Installieren Sie alle produktiven Funktionen nur innerhalb von virtuellen Maschinen, denn dafür sind diese da. Richten Sie keine produktiven Dienste in dem Management-OS ein, sondern beschränken Sie diese auf das, was für die Virtualisierung wirklich nötig ist. Dies kommt Ihnen auch bei der Sicherung und Wiederherstellung des Hosts zugute.

In dem Management-OS legen Sie einige zentrale Konfigurationsparameter für Hyper-V fest, die wir in Kapitel 3, »Host-Server«, genauer vorstellen. Ebenso finden Sie hier die Einstellungen für »den Host« selbst, also etwa das Teaming für die physischen Netzwerkkarten oder die Anbindung des Festplattenspeichers, der die virtuellen Festplatten für die VMs bereitstellt.

VM Parent Virt. Stack Ring 3 User

VMMS VMWP VID

VSP Ring 0 Kernel

Treiber

VMBus

Abbildung 2.8 Der Virtualization Stack stellt innerhalb des Management-OS einige wichtige Funktionen für den Betrieb virtueller Maschinen bereit.

70

71

2

2

Hyper-V im Überblick

Sie haben bereits gelesen, dass das Management-OS grundsätzlich alle HardwareZugriffe der virtuellen Maschinen kontrolliert. Das gilt mit zwei Ausnahmen: Die Zuweisung von CPU-Ressourcen – also »Rechenzeit« – und Arbeitsspeicher ist Kernaufgabe des Hypervisors. Das bedeutet, dass auch das Management-OS seine CPULeistung und seinen Arbeitsspeicher vom Hypervisor zugewiesen bekommt und nicht selbst darüber bestimmt. Dies ist ein wichtiger Faktor, den Sie beim Sizing der Umgebung beachten sollten – mehr darüber lesen Sie in Abschnitt 3.1.5, »Die HostReserven«.

2.6.1 Virtual Machine Management Service Der Virtual Machine Management Service (VMMS) ist verantwortlich für den Zustand jeder einzelnen virtuellen Maschine auf dem betreffenden Host-Server. Dabei gibt er einige Aufgaben an den Virtual Machine Worker Process (VMWP) ab, den Sie im folgenden Abschnitt kennenlernen. Folgende Zustände einer VM kontrolliert der VMMS: 왘 Starten 왘 Wird ausgeführt (aktiv) 왘 Aus (nicht aktiv) 왘 Snapshot wird erstellt 왘 Snapshot wird angewendet 왘 Snapshot löschen 왘 Zusammenführung wird ausgeführt (Snapshot zusammenführen)

Die Aktionen Anhalten, Pausieren und Abschalten steuert hingegen der jeweilige VMWP. Der VMMS bietet Automatisierungsschnittstellen für WMI, die PowerShell oder COMProgramme wie VBScript. Außerdem lässt er sich natürlich über die grafische Oberfläche des Management-OS ansprechen. Ebenso bietet er die Grundlage für die Verwaltung mit übergeordneter Software wie etwa dem System Center Virtual Machine Manager.

2.6

Der Virtualisierungs-Stack

Neben den Basisoperationen für den Betrieb der virtuellen Maschine stellt der VMWP auch das virtuelle Motherboard bereit, in dem Funktionen wie das BIOS, der Zugriff auf den Arbeitsspeicher und einige andere systemnahe Elemente implementiert sind, die nicht über den Virtual Machine Bus laufen.

Eine VM gewaltsam beenden Sehr selten kann es vorkommen, dass eine virtuelle Maschine unter Hyper-V nicht mehr auf Steuerungsanforderungen reagiert. Als Administrator haben Sie in einer solchen Situation keine Möglichkeit mehr, auf das Gast-Betriebssystem zuzugreifen. Ebenso gelingt es Ihnen dann nicht, die VM über die Steuerungsfunktionen des Management-OS zu beeinflussen, um sie etwa zu beenden. In solchen Situationen ist manchmal das »gewaltsame« Beenden der letzte Ausweg. Dazu erzwingen Sie das Abschalten des zugehörigen VM-Worker-Prozesses. Vorsicht aber: Das Verfahren ist nicht offiziell unterstützt. So können Sie vorgehen: 왘 Identifizieren Sie den GUID (Globally Unique Identifier) der virtuellen Maschine, indem Sie im Dateisystem der Parent-Partition den Ordner öffnen, in dem die Konfiguration der VM gespeichert ist. Notieren Sie sich den (etwas kryptischen) Namen des Unterordners – die ersten fünf bis zehn Zeichen reichen normalerweise aus. 왘 Rufen Sie im Management-OS den Task-Manager auf, und öffnen Sie dort die Registerkarte Details. 왘 Sortieren Sie die Ansicht nach Name, und scrollen Sie zu den Einträgen namens vmwp.exe. 왘 Identifizieren Sie den zugehörigen vmwp-Prozess über den GUID, der in der Zeile Benutzername steht – er muss dem Ordnernamen entsprechen, den Sie im ersten Schritt notiert haben. 왘 Diesen Prozess können Sie per Rechtsklick beenden. Vorsicht: Die virtuelle Maschine wird hart abgeschaltet, als wäre bei einem echten Server der Strom ausgefallen! 왘 Sollte Ihr Host-Server Teil eines Failover-Clusters sein, wird dieser die virtuelle

Maschine sofort neu starten. Meist sollte sie dann aber auch wieder ordnungsgemäß arbeiten.

2.6.2 Virtual Machine Worker Process Sobald der Virtual Machine Management Service eine konkrete virtuelle Maschine startet, erzeugt er für diese einen separaten Prozess, den man als Virtual Machine Worker Process (VMWP) bezeichnet. Dieser Prozess läuft im Kontext des eingebauten Systemkontos Netzwerkdienst, das heißt mit reduzierten Berechtigungen. Dadurch, dass jede VM einen separaten VMWP hat, ist eine hohe Isolation der virtuellen Maschinen gewährleistet.

72

2.6.3 Virtual Devices Die virtuellen Geräte oder Virtual Devices (VDev) stellen den virtuellen Gast-Systemen den Zugriff auf »Hardware« bereit, die aber in Form von Software-Modulen implementiert ist. Die VDevs befinden sich je nach ihrem Typ an verschiedenen Stellen im Virtualisierungs-Stack.

73

2

2

Hyper-V im Überblick

Hyper-V unterscheidet folgende Gerätetypen: 왘 Core VDevs stehen allen virtuellen Maschinen zur Verfügung, weil die System-

architekturen, die sich mit Hyper-V virtualisieren lassen, diese voraussetzen. Hierbei gibt es zwei Untertypen: – Emulierte Geräte: Dieser Typ bildet das Verhalten eines konkreten Gerätemodells nach, sodass vorhandene Treiber in einem Gast-Betriebssystem ordnungsgemäß arbeiten. Es ist dabei nicht nötig, dass das zugehörige Gerät auch tatsächlich im Host-Server vorhanden ist. Die meisten Core VDevs gehören diesem Typ an. Dazu zählen unter anderem das BIOS, der ISA- und der PCI-Bus, die Tastaturschnittstelle und viele andere. Auch die ältere Netzwerkkarte (Legacy Network Adapter), die Sie optional in eine virtuelle Maschine einbinden können, gehört dazu. – Synthetische Geräte: Dieser Typ stellt kein konkretes Gerät bereit, sondern eher eine Geräteklasse. Tatsächlich handelt es sich hier um paravirtualisierte Geräte (siehe dazu Abschnitt 2.2, »Paravirtualisierung und Emulation«), das heißt, es handelt sich um einen Durchgriff auf die echte Hardware im Host-Server. Da diese Technik den Virtual Machine Bus (VMBus) nutzt, steht sie nur GastBetriebssystemen zur Verfügung, in denen die Integrationsdienste installiert sind (siehe dazu Abschnitt 2.4, »Der VMBus und die Integration Services«). Typischerweise ist die Performance synthetischer Geräte höher als die von emulierten Geräten. 왘 Plug-in VDevs: Diese VDevs bilden ebenfalls keine konkreten Geräte nach und

sind größtenteils nicht einmal »Geräte« im vertrauten Sinn. Sie bilden eine Schnittstelle für verschiedene Virtualisierungsdienste und ermöglichen die Kommunikation über den VMBus.

2.6.4 Virtualization Service Providers und Virtualization Service Clients Die Virtualization Service Providers (VSP) und die Virtualization Service Clients (VSC) gehören zusammen und bilden gewissermaßen die Endpunkte im Virtual Machine Bus (VMBus). Ein VSP ist eine Server-Schnittstelle in der Parent-Partition, die bestimmte Gerätefunktionen zur Verfügung stellt. Ein VSC läuft in dem Gast-Betriebssystem einer VM und kann über den VMBus auf einen VSP zugreifen. Hinter VSPs und VSCs verbergen sich die paravirtualisierten Geräte, die Sie auch schon als synthetische Geräte kennengelernt haben. Da der Zugriff auf solche virtuellen Hardware-Komponenten meist wesentlich schneller vonstattengeht als die Nutzung eines emulierten Geräts, stellt der Aufbau aus VSP, VMBus und VSC das zentrale Leistungselement eines Hyper-V-Systems dar.

74

2.7

Child-Partitionen

2.7 Child-Partitionen Als Child-Partionen bzw. Child-Partitions bezeichnet man in Hyper-V die virtuellen Maschinen (VMs). Sie stehen im Gegensatz zum Management-OS, das eine privilegierte Stellung im System innehat und als einzige Instanz die Konfiguration des Host-Servers sowie den Zugriff auf die Hardware steuert (siehe Abschnitt 2.5, »Das Management-OS«). Da die VMs keine Verwaltungsaufgabe für das Virtualisierungssystem übernehmen, sind sie für die produktiven Zwecke eines Unternehmens gedacht. Die virtuellen Maschinen lassen sich in zwei Klassen unterscheiden, je nachdem, ob sie für Hyper-V angepasst sind oder nicht.

2.7.1 An Hyper-V angepasste Gast-Systeme Wenn in einem Betriebssystem, das in einer virtuellen Maschine unter Hyper-V läuft, die Integrationsdienste (Integration Services) installiert sind (siehe Abschnitt 2.4, »Der VMBus und die Integration Services«), ist es an die Besonderheiten von HyperV angepasst. Man spricht hier auch von Hyper-V-Aware, denn das VM-Betriebssystem »weiß« gewissermaßen, dass es innerhalb von Hyper-V läuft. Die Integration Services stellen die nötigen Funktionen, Anpassungen und Treiber bereit, damit die virtuelle Maschine optimal mit Hyper-V zusammenarbeitet. Vor allem sind dies die Komponenten, die Sie in Abschnitt 2.6, »Der Virtualisierungs-Stack«, kennengelernt haben. Seit Windows Server 2008 und Windows Vista ist die jeweils aktuelle Fassung der Integrationsdienste (zum Release-Zeitpunkt) bereits im Betriebssystem enthalten. Für Windows-Betriebssysteme ab Windows Server 2008 SP2 bzw. ab Windows Vista SP2 stehen für den Betrieb unter Windows Server 2016 aktualisierte Treiber zur Verfügung. Sie können diese über Windows Update in einer VM installieren (siehe dazu Abschnitt 6.2.10, »Integrationsdienste«). Wenn Sie in einer VM dasselbe Betriebssystem ausführen wie auf dem Host-Server (etwa Windows Server 2016), sind die Integrationsdienste meist auf dem aktuellen Stand und müssen nicht nachträglich installiert werden. Führt der Host-Server hingegen eine neuere Windows-Version aus als die VM, sollten Sie deren Integrationsdienste aktualisieren. Wie das funktioniert, beschreiben wir ebenfalls in Kapitel 6, »Virtuelle Maschinen«. Integrationsdienste für einige Nicht-Windows-Systeme finden Sie nur im Einzelfall. Microsoft selbst entwickelt aktiv die betreffenden Komponenten für Linux, sodass die Integration Services in vielen Linux-Distributionen bereits enthalten sind. Die jeweils aktuelle Fassung finden Sie über den Download-Bereich der Microsoft-Webseite.

75

2

2

Hyper-V im Überblick

2.7.2 Nicht an Hyper-V angepasste Gast-Systeme Die Anpassung des Gast-Betriebssystems an Hyper-V ist keine zwingende Voraussetzung. Technisch können Sie problemlos etwa Windows 2000 oder sogar Windows NT 4.0 in einer virtuellen Maschine unter Hyper-V betreiben. Für diese und andere Betriebssysteme gibt es keine Integrationsdienste, sodass dort nur emulierte Geräte bereitstehen (siehe dazu Abschnitt 2.6.3, »Virtual Devices«). Diese Geräte sind teilweise weit weniger leistungsfähig als die synthetischen Geräte, wie sie die Integrationsdienste zur Verfügung stellen. Dadurch müssen Sie beim Betrieb derartiger virtueller Maschinen oft deutliche Einschränkungen in der Leistungsfähigkeit hinnehmen.

2.7.3 VMs der Generation 2 Seit Hyper-V unter Windows Server 2012 R2 gibt es zwei Generationen von VMs. Die unter Hyper-V bei Windows Server 2008, 2008 R2 und 2012 einfach als »virtueller Computer« bekannte VM ist nun eine VM der Generation 1; hinzugekommen ist die VM der Generation 2. Diese Art von virtuellem Computer kommt komplett ohne Emulation aus und ist ausschließlich unter Windows Server 2012 R2 und Windows Server 2016 nutzbar. Statt eines BIOS wird eine UEFI-Firmware genutzt. Dies ermöglicht unter anderem die Nutzung von Secure Boot, dem Booten von Festplatte und DVD-Laufwerk über den SCSI-Controller und die Nutzung eines PXE-Boots über die Netzwerkkarte. Die Anzahl der »Hardware«-Komponenten einer VM der Generation 2 ist deutlich geringer als die der Hardware einer VM der Generation 1. Es fehlen z. B. der IDE-Controller sowie die ältere Netzwerkkarte. Durch den neuen Unterbau bei dieser Art der VM haben Sie hier den Vorteil, dass eine Installation des Betriebssystems sowie ein Start der VM sehr schnell durchgeführt werden können. Teilweise brauchen die VMs keine vier Sekunden, bis sie anmeldefertig am Lockscreen stehen. Ein weiterer Vorteil dieser Art von VM ist, dass Sie hier die Maximalwerte in Bezug auf RAM und vCPUs nutzen können. Eine VM der Generation 1 ist hier beschränkt.

2.8

Best Practices Analyzer

durchaus als Regeln formulieren und automatisiert auf eine real vorhandene Infrastruktur anwenden. Genau dies tun die Best Practices Analyzers: Sie sammeln Informationen über die Konfiguration einer bestimmten Server-Applikation und ihrer Umgebung und überprüfen diese anhand vorab festgelegter Regeln. Den ersten BPA gab es bereits vor etwa zehn Jahren für Microsofts Exchange Server. Zunächst war das Analysewerkzeug als separates, kostenloses Produkt erhältlich. Die Entwicklung war in enger Zusammenarbeit zwischen Microsofts technischem Support, der Entwickler-Produktgruppe und der Microsoft-nahen Community vollzogen worden. Da der Exchange-BPA schnell sehr erfolgreich war und dazu beitrug, die technische Qualität von Kundenumgebungen zu verbessern – was natürlich auch den Support-Aufwand für Microsoft verringerte –, entwickelte man in Redmond weitere BPA-Fassungen für andere Produkte. Seit Windows Server 2008 R2 ist die gesamte Struktur nun auf einheitlicher Basis zum Teil des Betriebssystems geworden. In unregelmäßigen Abständen aktualisiert Microsoft das Regelwerk für bestimmte BPA-Funktionen. Es lohnt sich also, auch nach den optionalen Windows-Updates Ausschau zu halten. Natürlich enthält Windows Server 2016 auch wieder einen Best Practices Analyzer für Hyper-V (ebenso wie für zahlreiche weitere Dienste wie DNS, Active Directory etc.). Sie finden den BPA im Server-Manager auf der Rollen-Seite für Hyper-V (siehe Abbildung 2.9). Sofern Ihnen dort unter der Überschrift Best Practices Analyzer keine Ergebnisdaten angezeigt werden, ist die Funktion noch nie gelaufen. In diesem Fall klicken Sie auf die Schaltfläche Aufgaben und führen über BPA-Überprüfung starten den Analyzer aus. Nach einiger Zeit wird Ihnen das Ergebnis direkt im Server-Manager angezeigt.

2.8 Best Practices Analyzer Seit Windows Server 2008 R2 enthalten die Windows-Server-Betriebssysteme eine Funktion namens Best Practices Analyzer oder kurz BPA. Dabei handelt es sich um eine ganze Infrastruktur, die Administratoren dabei unterstützen soll, die Konfiguration ihres Servers nach Empfehlungen von Microsoft einzurichten. Den Kern des BPA-Systems bildet das Produktwissen aus dem technischen Support des Herstellers. Dort haben sich in teilweise jahrelanger Support-Praxis Empfehlungen angesammelt, die insbesondere für größere und anspruchsvolle sowie eigene Implementierungen der Microsoft-Produkte gelten. Viele dieser Hinweise lassen sich

76

Abbildung 2.9 Der Best Practices Analyzer für Hyper-V findet sich im Server-Manager.

77

2

2

Hyper-V im Überblick

Der BPA teilt seine Ergebnisse in verschiedene Kategorien ein und bietet Filteroptionen für die Anzeige. Auf diese Weise können Sie sich etwa auf »Fehler« und »Warnungen« konzentrieren. Halten Sie sich dabei vor Augen, dass ein »Fehler« im BPA nicht unbedingt auf einen echten technischen Fehler im Sinne etwa des Ereignisprotokolls hinweist. Gemeint ist hier eher, dass eine bestimmte Konfiguration nicht den Regeln entspricht, die Microsoft für eine Hyper-V-Umgebung vorschlägt. Es besteht kein Zwang, jede dieser Regeln genau umzusetzen. Microsoft wird Sie bei technischen Problemen grundsätzlich auch unterstützen, wenn es BPA-Fehler gibt. Es kann allerdings sein, dass man Sie im Rahmen eines technischen Support-Calls im Einzelfall zur Korrektur auffordert. Auf jeden Fall aber bilden die BPA-Regeln eine sehr gute Orientierung für den Aufbau und die Detailkonfiguration eines Hyper-V-Systems, zumal die Ergebnisse meist gut erläutert sind. Es empfiehlt sich durchaus, die BPA-Analyse regelmäßig auszuführen, besonders nach Änderungen der Konfiguration oder Updates des Regelwerks durch Microsoft. Regelmäßige Überprüfungen können Sie beispielsweise mit der PowerShell automatisieren. Dazu dienen Ihnen die Commandlets des Moduls BestPractices (siehe Abbildung 2.10).

Abbildung 2.10 Die PowerShell-Cmdlets für den BPA gehören dem Modul »BestPractices« an.

2.9

Vergleich mit Hyper-V unter Windows Server 2012 R2

2.9 Vergleich mit Hyper-V unter Windows Server 2012 R2 Mit dem Windows Server 2016 hat Microsoft erneut einiges an den Zahlen und Maximalwerten gegenüber dem Windows Server 2012 (R2) angepasst. Neben den reinen Zahlen und Fakten gibt es auch einige Funktionen, die verbessert oder erweitert wurden, ohne dass sich diese Verbesserungen in Zahlen ausdrücken lassen. Dieser Abschnitt zeigt die Unterschiede zwischen den beiden Versionen auf und beschreibt die Änderungen sowie Erweiterungen der einzelnen Features.

2.9.1 Zahlen, Daten, Fakten Da unterschiedliche Lösungen gern über die maximalen Werte verglichen werden, finden Sie in Tabelle 2.1 eine Auflistung der Betriebsgrenzen von Hyper-V unter Windows Server 2012 R2 sowie Windows Server 2016. Wie Sie in Tabelle 2.1 erkennen können, ist keiner der Werte gleich geblieben. Die Menge an logischen CPUs, die verwaltet werden kann, ist von 320 auf 512 gestiegen, mit dem Faktor 1,6 der kleinste Wert in dieser Auflistung. Ein Host kann in der aktuellen Version die sechsfache Menge an Arbeitsspeicher verwalten als Windows Server 2012 (R2), eine VM kann sogar das Sechszehnfache an RAM nutzen (16 TB statt 1 TB in der Vorgänger-Version) sowie 240 vCPUs (statt bisher 64; dies ist eine Steigerung um das nahezu Vierfache). Funktion

Windows Server 2012 (R2)

Windows Server 2016

Anzahl logischer Prozessoren im Host

320

512

Physikalischer Arbeitsspeicher

4 TB

24 TB

Virtuelle Prozessoren

2.048

2.048

CPUs pro virtuelle Maschine

64

240

RAM pro virtuelle Maschine

1 TB

12 TB

Aktive virtuelle Systeme

1.024

1.024

Mit folgendem Kommando führen Sie auf dem lokalen Server einen BPA-Scan der Hyper-V-Rolle aus:

Maximale Cluster-Knoten

64

64

Invoke-BpaModel Microsoft/Windows/Hyper-V

Virtuelle Systeme pro Cluster

8.000

8.000

Windows speichert dieses Ergebnis, und im Server-Manager können Sie es im Bereich Best Practices Analyzer über den Befehl Aufgaben • Aktualisieren anzeigen. Direkt in der PowerShell geben Sie die Ergebnisse mit diesem Kommando aus:

Tabelle 2.1 Maximalwerte der jeweiligen Funktionen unter Windows Server 2012 (R2) und Windows Server 2016

Get-BpaResult Microsoft/Windows/Hyper-V

78

79

2

2

Hyper-V im Überblick

2.9.2 Die großen und kleinen Erweiterungen Im Bereich des Netzwerks gab es mit der Veröffentlichung des Windows Server 2012 die größten Neuerungen. Vor dieser Version gab es lediglich eine Möglichkeit der Isolierung mit der Funktion Virtual Local Area Networks (VLAN). Ab Windows Server 2012 steht Ihnen eine vollständig isolierte Netzwerkschicht zur Verfügung, die für einen sicheren und komplett voneinander getrennten Netzwerkverkehr genutzt werden kann. Ermöglicht wird dies durch den Hyper-V Extensible Switch, einen virtuellen Layer-2-Switch. Diese Schicht kann durch Erweiterungen angepasst und erweitert werden. Hierbei gibt es keine Herstellerbegrenzungen. Das heißt, die Erweiterungen müssen nicht von Microsoft veröffentlicht oder geprüft werden. Jeder Hersteller kann eine entsprechende Erweiterung entwickeln und anbieten. Ein Beispiel für solch eine Erweiterung ist ein Virenscanner, der sämtlichen Netzwerkverkehr aus und in die VM scannt und Schadcodes automatisch erkennt und blockiert. Dies erspart unter Umständen den Einsatz von Virenscannern in jeder VM, was sich in Bezug auf die Performance positiv auswirkt. Jeder Hyper-V-Switch kann seine eigene Konfiguration haben. Das heißt, Erweiterungen sind pro Switch aktiv, nicht pro Host. Dies ermöglicht den Einsatz mehrerer Hyper-V-Switches mit unterschiedlichen Erweiterungen und Konfigurationen. Pro Hyper-V-Switch können mehrere Erweiterungen aktiviert werden. Erweiterungen sind zum Beispiel in der Lage, das Verhalten der VMs (in Bezug auf den Netzwerkverkehr) zu lernen, um so das virtuelle Netzwerk optimal anpassen zu können. Sie wären in der Lage, verdächtiges Verhalten zu erkennen und entsprechend ihrer Konfiguration zu reagieren. Zum Beispiel werden bei dauerhaft stark erhöhtem Traffic innerhalb einer VM automatisch eine Bandbreiten-Regulierung und ein Virenscanner aktiv, die den Traffic untersuchen. Die Virtualisierung des Netzwerks ermöglicht den Betrieb mehrerer VMs in einem Subnetz über Hosts hinweg, selbst mit einem privaten Netzwerk. Die Nutzung von VLANs ist nicht mehr zwingend notwendig. Dies erleichtert das Management und erhöht die Anzahl der möglichen Gast-Netzwerke auf über 4.096. (Pro Netzwerk können maximal 4.096 VLANs vergeben werden, dies ist technisch die Grenze.) Mithilfe von Private Virtual Local Area Network (PVLAN) können Sie kontrollieren, welche VMs miteinander kommunizieren dürfen. Diese Funktion ermöglicht einen Betrieb von VMs mit denselben privaten IP-Bereichen. Dies macht eine Nutzung für Hoster sehr interessant, da die Systeme des Kunden den gewünschten privaten IPBereich haben können, unabhängig davon, ob dieser auf benachbarten Systemen ebenfalls genutzt wird. Unter Windows Server 2012 gab es zwei Techniken, mit denen eine Virtualisierung des Netzwerks erreicht wird: IP Address Rewrite und Generic Routing Encapsulation (NVGRE). Unter Windows Server 2012 R2 wurde die Anzahl der nutzbaren Techniken

80

2.10

Virtuelle Gäste

auf NVGRE reduziert, IP Address Rewrite ist nicht mehr enthalten. Mit dem Windows Server 2016 kommt ein weiteres Protokoll hinzu: Virtual eXtensible Local Area Network (VXLAN) . Ebenfalls neu in dem aktuellen Release ist die Möglichkeit, die Namen der Netzwerkkarten in der Hyper-V-Konfiguration in die VM hineinzureichen. Dies sorgt z. B. bei einer automatisierten Installation dafür, dass selbst bei mehreren Netzwerkkarten immer die korrekte Netzwerkkarte angesprochen und konfiguriert werden kann. Auf einige dieser Funktionen gehen wir in den folgenden Kapiteln noch näher ein. Daher verzichten wir an dieser Stelle auf eine ausführliche Erklärung.

2.10 Virtuelle Gäste Damit Sie Ihre virtuellen Betriebssysteme zuverlässig betreiben können, müssen Sie gewisse Regeln einhalten. Wir zeigen Ihnen, wie Sie mit unterstützten Betriebssystemen und Konfigurationen einen stabilen Betrieb erreichen.

2.10.1 Funktionierende und unterstützte VM-Betriebssysteme Unter Hyper-V können sehr viele Betriebssysteme betrieben werden, aber nur einige von ihnen werden von Microsoft unterstützt. Dies liegt unter anderem daran, dass die Systeme ab einem gewissen Alter nicht mehr unterstützt werden und keinen Support mehr erfahren. Ab dem Windows Server 2016 werden die Betriebssysteme Windows Server 2003 und Windows XP offiziell nicht mehr unterstützt, da mittlerweile der offizielle Support für diese alten Systeme eingestellt wurde. Eine aktuell gepflegte und zuverlässige Quelle zu diesem Thema sind die Seiten von Microsoft: https://technet.microsoft.com/en-us/windows-server-docs/compute/hyper-v/ supported-windows-guest-operating-systems-for-hyper-v-on-windows (Kurzlink: http://qccq.de/s/v601) Zu den offiziell unterstützten Systemen gehören:

Unterstützte Gast-Betriebssysteme (Server) 왘 Windows Server 2016 왘 Windows Server 2012 R2 왘 Windows Server 2012 왘 Windows Server 2008 R2 mit Service Pack 1 왘 Windows Server 2008 R2 왘 Windows Server 2008 mit Service Pack 2 왘 Windows Small Business Server 2011 (Essentials)

81

2

2

Hyper-V im Überblick

왘 Windows Small Business Server 2011 (Standard) 왘 CentOS/Red Hat Enterprise Linux 왘 Open SUSE/SUSE Linux Enterprise Server 왘 Ubuntu/Debian 왘 Oracle Linux 왘 FreeBSD

Die Versionen der Linux- und FreeBSD-Distributionen aufzuzählen, würde an dieser Stelle den Rahmen sprengen, schauen Sie am besten einfach unter dem weiter vorne aufgeführten Link nach. Microsoft entscheidet übrigens nicht allein, welche Version unterstützt wird; der Linux-Distributor ist hier aktiv beteiligt und gibt an, was unterstützt wird und was nicht.

Unterstützte Gast-Betriebssysteme (Client) 왘 Windows 10 왘 Windows 8

2.10

Virtuelle Gäste

mittlerweile bei allen Microsoft-Betriebssystemen ab Windows Server 2003 und älter der Fall, wobei sich ein Windows 2003 auch mit den Integrationskomponenten von Windows Server 2012 oder Windows Server 2008 R2 betreiben lässt. (Hier gibt es aber noch weitere Einschränkungen, zum Beispiel den Betrieb mit maximal zwei vCPUs.) Wenn Sie ein Unix-Betriebssystem einsetzen, können Sie auf die Integrationsdienste für Linux zurückgreifen oder sich alternativ einen Kernel kompilieren, der die entsprechenden Treiber beinhaltet. Ob die Treiber vorhanden sind oder die Möglichkeit einer Kernel-Kompilierung in Ihrem speziellen Fall gegeben ist, müssen Sie selbst herausfinden, da die Anzahl an Distributionen und Versionen nahezu unüberschaubar ist.

2.10.2 Technische Limits Bei dem Betrieb von virtuellen Betriebssystemen gibt es einige Einschränkungen, auf die wir in diesem Abschnitt eingehen. Die meisten dieser Einschränkungen sind für die meisten Szenarien nicht relevant, in der einen oder anderen Situation kann es allerdings trotzdem vorkommen, dass Sie an diese Grenzen stoßen.

왘 Windows 7 mit Service Pack 1 왘 Windows 7

Die CPU

왘 Windows Vista mit Service Pack 2

Sie können in einer VM maximal 240 vCPUs verwenden, sofern das Betriebssystem dies unterstützt und Sie eine VM der Generation 2 einsetzen. Diese Begrenzung wird in den meisten Anwendungsfällen niemals erreicht, allerdings gibt es noch eine weitere Begrenzung bzw. Abhängigkeit: Die Anzahl der vCPUs kann die Anzahl der logischen Prozessoren nicht übersteigen. Dies bedeutet, dass Sie bei einem Server mit zwei CPUs und jeweils acht Kernen ohne Hyper-Threading nur maximal 16 vCPUs pro VM zuweisen können; eine höhere Anzahl lässt der Wizard nicht zu. Bedenken Sie dies, wenn Sie eine bestimmte Anzahl an vCPUs innerhalb Ihrer VM benötigen. Ebenfalls zu bedenken ist, dass die reine Anzahl nicht vollständig ausschlaggebend ist, sondern dass teilweise auch die Geschwindigkeit von einem Kern viel wichtiger ist als die reine Menge.

왘 CentOS/Red Hat Enterprise Linux 왘 Open SUSE/SUSE Linux Enterprise Server 왘 Ubuntu/Debian 왘 Oracle Linux 왘 FreeBSD

Neben diesen offiziell unterstützten Systemen gibt es noch einige andere Betriebssysteme, die als VM problemlos betrieben werden können, auch wenn Sie im Problemfall nicht auf den Support von Microsoft zurückgreifen können. Hierzu zählen unter anderem die zuvor genannten Betriebssysteme ohne den entsprechenden Service-Pack-Level, Betriebssysteme von Microsoft, die keinen offiziellen Support mehr erfahren (Windows Server 2003, Windows 2000 Server, Windows 98 etc.), sowie ältere Linux-Distributionen. Je nach Betriebssystem gibt es hinsichtlich der Konfiguration und des Betriebs des virtuellen Computers gewisse Bedingungen. Zur Unterstützung und Nutzung von synthetischer Hardware werden Treiber benötigt, die entweder im Betriebssystem direkt enthalten sind oder alternativ nachträglich installiert werden können. Sind diese Treiber nicht verfügbar oder lassen sie sich nicht installieren, muss die VM mit emulierter Hardware arbeiten (zum Beispiel mit der älteren Netzwerkkarte). Dies ist

82

Der Arbeitsspeicher Sie können einer VM maximal 12 TB an Arbeitsspeicher zuweisen. Diese Zahl ist aktuell nahezu unerreichbar hoch; allein die Kosten für diese Anzahl an RAM sind enorm. Ein weiterer Punkt, der neben der maximalen Größe bedacht werden muss, ist die Zuweisung von dynamischem Arbeitsspeicher. Behalten Sie hier immer im Hinterkopf, dass Sie keine (!) Überprovisionierung technisch nutzen können. Natürlich können Sie für jede VM (bei der Nutzung von Dynamic Memory) einen Maximalwert von 12 TB eintragen, technisch nutzt Ihre VM allerdings immer nur das,

83

2

2

Hyper-V im Überblick

was auch zur Verfügung steht. Dies ist zwar eine Einschränkung, wir sehen diese allerdings sehr positiv. Sollte es bei einer Überprovisionierung einmal dazu kommen, dass RAM-Inhalte auf die Festplatte ausgelagert werden müssten, wäre das in etwa so, als wenn Sie in einem Formel-1-Wagen bei 300 km/h schlagartig auf die Bremse treten und maximal 2 km/h fahren. Hyper-V hat solch eine Technik nicht implementiert – in unseren Augen eine kluge Entscheidung.

Die Netzwerkkarten Sie haben bei der Anzahl der physischen Netzwerkkarten in Ihrem Host keine direkte Begrenzung, allerdings werden Sie ab einer gewissen Anzahl an Karten keinen Platz mehr in Ihrem Server haben, um weitere Karten einbauen zu können. In der Realität sieht es allerdings eher so aus, dass Sie die Bandbreite der Karten steigern, nicht die Menge an Ports generell. Aufseiten der VM sieht das Ganze schon »ein wenig« begrenzter aus: Sie können eine VM mit maximal zwölf Karten ausstatten. Die Anzahl von synthetischen und emulierten Karten ist hierbei nicht gleichgültig – Sie können maximal acht synthetische und vier emulierte Karten pro VM zuweisen. Beachten Sie bei einer VM der Generation 2, dass hier nur synthetische Netzwerkkarten zum Einsatz kommen können, da keine emulierte Hardware eingesetzt werden kann. Aufseiten des Hosts können Sie eine unendliche Anzahl an virtuellen Switches erstellen, die Anzahl externer Switches ist hierbei auf die Anzahl an Karten bzw. Ports begrenzt. (Eine Karte kann natürlich mehrere Ports besitzen.) Interne oder private Netzwerke können in einer unendlichen Anzahl erstellt werden.

Fibre Channel Sie können mit Hyper-V ab dem Windows Server 2012 erstmals innerhalb einer VM einen Fibre Channel Host Bus Adapter (FC-HBA) verwenden. Bedingung für die Nutzung ist hierbei die Funktion N_Port ID Virtualization (NPIV), die es erlaubt, dass jede VM eigene Worldwide Names (WWN) erhält, da nur so eine Kommunikation mehrerer VMs über einen Adapter möglich ist. Diese Funktion muss nicht nur vom FC-HBA unterstützt werden, sondern von allen Geräten, die in die Fibre-Channel-Kommunikation involviert sind. Microsoft selbst unterstützt nicht alle möglichen Szenarien; prüfen Sie dies am besten vor der Umsetzung.

2.10

Virtuelle Gäste

te oder Geräte am COM- sowie Parallel-Port zu nutzen. Wir hören oft Beschwerden über diese »Einschränkung«. Die Begründung von Microsoft erscheint allerdings schlüssig und sinnvoll: Lokale Geräte stören oder verhindern den Umzug einer VM auf einen anderen Host, somit wird keine Technik implementiert, die die Nutzung von lokalen Komponenten wie USB-Sticks oder -Festplatten ermöglicht, die wiederum einen Transfer der VM verhindert. Ein wenig aufgeweicht wird diese Aussage, wenn man sich die Funktion Discrete Device Assignment (DDA) anschaut, die unter Windows Server 2016 Einzug gehalten hat. Mithilfe dieser Funktion ist es möglich, lokale Geräte 1:1 in eine virtuelle Maschine hineinzureichen. Einer der Gründe für diese Funktion ist die Nutzung von NVMe-Datenträgern (Flashspeicher, der unter anderem per PCIe angesprochen werden kann) innerhalb einer VM. Durch die fehlende Hypervisor-Schicht kann so auch in der VM eine sehr hohe Performance erreicht werden. Im Gegenzug muss man aber auf die Möglichkeit einer Live-Migration verzichten.

2.10.3 Alte Betriebssysteme betreiben Möchten Sie ein oder mehrere Betriebssysteme virtualisieren, die bereits eine geraume Zeit auf dem Markt sind und schon vor der Virtualisierungstechnik erschienen sind, dann kann es zu Problemen mit der emulierten Hardware kommen. Dies liegt daran, dass die Betriebssysteme zu einer Zeit entwickelt wurden, in der ein Prozessor auch wirklich nur ein Prozessor war und sich die Größen von Arbeitsspeicher in MB oder sogar KB beschreiben ließen. Solche Systeme kommen nicht mit den aktuellen Mehrkern-CPUs zurecht und verweigern auch als VM den Betrieb. Hier konnten Sie sich unter Windows Server 2008 oder Windows Server 2008 R2 eventuell behelfen, indem Sie in den Eigenschaften einer VM unter Prozessor die Option Prozessorfunktionen einschränken aktiviert haben. Diese Option gibt es ab Windows Server 2012 nicht mehr, zumindest nicht im GUI. Falls Sie die vCPU für den Betrieb einer VM einschränken müssen, können Sie dies nur noch über die PowerShell tun (siehe Abbildung 2.11). Der Befehl dazu lautet: Get-VM VM_Name | Get-VMProcessor | Set-VMProcessor ¿ -CompatibilityForOlderOperatingSystemsEnabled $true

Lokale Schnittstellen Bei der Nutzung der lokalen Schnittstellen hat sich gegenüber den vorherigen Versionen nichts geändert. Es ist weiterhin nicht möglich, lokal angeschlossene USB-Gerä-

84

Abbildung 2.11 Nutzung der PowerShell zur Aktivierung der eingeschränkten Prozessorfunktionen

85

2

2

Hyper-V im Überblick

2.11

Allgemeine Administration

Um diese Änderung wieder rückgängig zu machen, führen Sie folgenden Befehl aus: Get-VM VM_Name | Set-VMProcessor ¿ -CompatibilityForOlderOperatingSystemsEnabled $false

2

2.11 Allgemeine Administration Zur Administration der Hyper-V-Umgebung stellt Windows eine Reihe von Werkzeugen zur Verfügung. Leider gibt es im Lieferumfang kein einzelnes integriertes Verwaltungsprogramm, sondern Sie müssen je nach Aufgabe mit verschiedenen Konsolen parallel arbeiten. Details zu den jeweiligen administrativen Arbeiten finden Sie im gesamten Buch an der Stelle, die das Thema behandelt. In diesem Kapitel stellen wir Ihnen zunächst die Verwaltungsprogramme grundsätzlich vor. Die meisten dieser Werkzeuge können Sie auch remote von einem AdministrationsPC oder -Server aus nutzen, indem Sie dort die Remote Server Administration Tools (RSAT) installieren. Das ist meist sinnvoller, als sich direkt auf dem Server anzumelden. Achten Sie darauf, stets die neueste RSAT-Version einzusetzen; einen Windows Server 2016 sollten Sie nur von Windows 10 oder einem anderen Windows Server 2016 aus verwalten. Die aktuellen RSAT für Windows 10 finden Sie unter: https://www.microsoft.com/de-de/download/details.aspx?id=45520 (Kurzlink: http://qccq.de/s/v201)

Abbildung 2.12 Das Menü »Tools« im Server-Manager gewährt Zugriff auf die installierten Verwaltungsprogramme.

2.11.1 Grafische Oberfläche Die alltägliche Arbeit lässt sich mit den grafischen Werkzeugen gut erledigen. Die folgenden Abschnitte geben einen Überblick.

Server-Manager Wie schon in Windows Server 2012 und 2012 R2 dient der Server-Manager in erster Linie als Überblicksportal über den Server (siehe Abbildung 2.12). Administrative Aufgaben können Sie von hier aus nur in Einzelfällen erledigen. Über das Menü Tools am rechten oberen Rand können Sie die anderen Verwaltungsprogramme aber aufrufen. Von Interesse ist aber der Bildschirm Lokaler Server (siehe Abbildung 2.13), weil er einen schnellen Überblick über die Grundkonfiguration des Systems gibt. Wenn Sie in diesem Bildschirm etwas nach unten scrollen, gelangen Sie zum Bereich Best Practices Analyzer, wo Sie eine automatisierte Kurzanalyse des Systems ausführen können, die Ihnen einige Hinweise zu möglichen Optimierungen gibt. Der Abschnitt Hyper-V enthält hingegen kaum nützliche Punkte.

86

Abbildung 2.13 Die Ansicht Lokaler Server im Server-Manager gibt Ihnen einen schnellen Überblick über die Grundkonfiguration.

87

2

Hyper-V im Überblick

Hyper-V-Manager Der Hyper-V-Manager ist das wichtigste Verwaltungsprogramm, mit dem Sie die meisten laufenden Arbeiten gut erledigen können. Behalten Sie aber im Blick, dass einige komplexere Aufgaben sich dort nicht erledigen lassen – hier müssen Sie in der Regel auf die PowerShell ausweichen.

2.11

Allgemeine Administration

Im Aktionsbereich des Hyper-V-Managers am rechten Fensterrand finden Sie meist eine zweiteilige Ansicht. Dabei bezieht sich der obere Teil auf den Host-Server und der untere auf die VM, die Sie im Inhaltsbereich markiert haben. Die Befehle, die der Aktionsbereich anbietet, finden Sie auch im Kontextmenü des betreffenden Objekts.

Failovercluster-Manager PowerShell-Konfigurationen nicht grafisch nachbearbeiten Sobald Sie eine komplexere Änderung über die PowerShell erledigt haben, die Sie im Hyper-V-Manager nicht ausführen können, sollten Sie die betreffende Einstellung hinterher nicht mehr im Hyper-V-Manager bearbeiten. Da der Hyper-V-Manager nur für einfache Arbeiten vorgesehen ist, würden Sie sonst Ihre detaillierten Einstellungen zunichtemachen. In Einzelfällen kann es sogar dazu führen, dass das betreffende Objekt beschädigt wird – so etwa bei virtuellen Switches, für die Sie per PowerShell erweiterte Anpassungen vorgenommen haben.

Sobald Sie einen Failovercluster eingerichtet haben, finden Sie auf den Cluster-Servern den Failovercluster-Manager (siehe Abbildung 2.15). Auch diesen können Sie remote von einem Admin-PC aus verwenden.

Der Hyper-V-Manager in Windows Server 2016 kann auch ältere Hyper-V-Versionen verwalten, namentlich Windows Server 2012 und 2012 R2 sowie die entsprechenden Client-Hyper-V-Versionen von Windows 8 bis Windows 10. Wenn Sie über den Hyper-V-Manager eine Verbindung zu einem anderen Computer herstellen, können Sie jetzt ein alternatives Anmeldekonto dafür angeben (siehe Abbildung 2.14).

Abbildung 2.15 Der Failovercluster-Manager dient zur Konfiguration und Verwaltung des Clusters. Er lässt aber auch Detailarbeiten an VMs zu.

Der Failovercluster-Manager dient zur Administration des gesamten Clusters, bietet aber im Fall von Hyper-V auch umfangreiche Funktionen, um die Hyper-V-Objekte zu verwalten. So können Sie von dieser Konsole aus auch die Details von virtuellen Maschinen bearbeiten, sobald diese dem Cluster hinzugefügt wurden. In früheren Abbildung 2.14 Wenn Sie sich über den Hyper-V-Manager mit einem anderen Host-Server verbinden, können Sie jetzt ein anderes Konto für den Zugriff angeben.

88

89

2

2

Hyper-V im Überblick

2.11

Allgemeine Administration

Versionen von Windows Server war es zwingend erforderlich, dass Sie geclusterte VMs nur noch über den Failovercluster-Manager bearbeiteten. Nahmen Sie stattdessen den Hyper-V-Manager, so konnte es vorkommen, dass die Änderungen nicht auf Clusterebene aktiv wurden. Dies hat Microsoft mittlerweile korrigiert. Trotzdem sollten Sie sich angewöhnen, Arbeiten, die sowohl der Hyper-V-Manager als auch der Failovercluster-Manager zulassen, stets vom »höherwertigen« Werkzeug aus durchzuführen, also vom Failovercluster-Manager aus.

2

Auch im Aktionsbereich des Failovercluster-Managers finden Sie eine Zweiteilung vor. Diese ist jedoch nicht so eindeutig wie beim Hyper-V-Manager. Grundsätzlich ist der obere Teil dem »übergeordneten« Objekt zugeordnet (in Abbildung 2.15 etwa den Rollen) und der untere dem »untergeordneten« Objekt (im Beispiel einer konkreten VM). Je nach Arbeitsbereich kann sich dies jedoch unterscheiden, sodass Sie stets die Überschrift des jeweiligen Teils prüfen sollten. Leider neigt der Failovercluster-Manager zu enormer Unübersichtlichkeit. An welcher Stelle Sie eine bestimmte Einstellung finden, erschließt sich nicht immer von selbst. Manche Dinge erreichen Sie nur über das Kontextmenü, weitere sind auf mehrere Registerkarten verteilt. Auch die Bezeichnungen der Befehle sind nicht immer hilfreich. Wenn Sie also nach längerer Suche die Stelle gefunden haben, die eine bestimmte Konfiguration steuern sollte, dann bleiben Sie wachsam und prüfen Sie (spätestens) hinterher, ob es wirklich das Gemeinte war.

Abbildung 2.16 Die Netzwerkübersicht des Host-Servers öffnen Sie über das Kontextmenü des Start-Knopfes.

Netzwerkübersicht Eine Netzwerkkonfiguration benötigen Sie hauptsächlich bei der Ersteinrichtung des Systems. Die Übersicht kann aber auch später für eine Diagnose oder eine Fehlersuche nützlich sein. Gemeint ist die Übersicht der Netzwerkverbindungen des HostServers. Am einfachsten rufen Sie diese über einen Rechtsklick auf den Start-Knopf auf. Im Kontextmenü (das Sie übrigens auch mit (é) + (X) öffnen können) klicken Sie dann auf Netzwerkverbindungen (siehe Abbildung 2.16). Dann öffnet sich ein Fenster mit Symbolen für jede Netzwerkverbindung. Was Sie dort genau vor sich sehen, erläutern wir in Kapitel 5, »Netzwerk«, näher. Zur Verwaltung von Hyper-V sollten Sie sich jedoch angewöhnen, dieses Fenster in der Detailansicht zu verwenden. Dazu finden Sie am unteren rechten Rand zwei unscheinbare Icons (siehe Abbildung 2.17). Eines schaltet in die Symbolansicht um, das andere in die Listenansicht. Wir empfehlen die Liste, denn sie gibt einen recht guten Überblick über die Objekte mit wichtigen Detailinformationen.

Abbildung 2.17 Die Übersicht der Netzwerkverbindungen ist sehr nützlich, wenn Sie die Listenansicht einschalten (Schalter am unteren rechten Rand).

2.11.2 PowerShell Die grafischen Werkzeuge für Hyper-V hat Microsoft leider seit Windows Server 2008 kaum weiterentwickelt. Wie so oft bieten die mitgelieferten Programme nur grundlegende Funktionen an – sobald Sie Komplexeres vorhaben, kommen Sie damit nicht recht weiter.

90

91

2

Hyper-V im Überblick

Den vollen Funktionsumfang von Hyper-V (einschließlich Clustering, Storage, Netzwerk und allen weiteren Einstellungen) können Sie aber über die PowerShell nutzen. Nun ist die kommando- und skriptorientierte Arbeit nicht jedes Administrators Lieblingsverfahren, aber solche Vorlieben zählen hier bedauerlicherweise nicht. Im folgenden Abschnitt 2.12 finden Sie eine kurze Einführung in die Arbeit mit der PowerShell, daher soll an dieser Stelle ein knapper Überblick über die beiden möglichen Programmfenster reichen. Eine simple PowerShell-Konsole öffnen Sie über das Icon PowerShell, das standardmäßig im Windows-Startmenü vorhanden ist. Alternativ drücken Sie (é) + (R) und tippen powershell ein. Diese Standardkonsole ist jedoch nicht besonders komfortabel. Wesentlich mehr Unterstützung bei der Arbeit erhalten Sie mit der PowerShell ISE (Integrated Scripting Environment), die in Windows Server 2016 und Windows 10 standardmäßig installiert ist (siehe Abbildung 2.18). Auch hierzu findet sich ein Icon im Startmenü des Servers. Alternativ drücken Sie (é) + (R) und tippen powershell ein. Falls Sie bereits eine »normale« PowerShell-Konsole offen haben, tippen Sie dort einfach ise – auch dies öffnet die leistungsfähigere Variante.

Abbildung 2.18 Für die PowerShell enthält Windows Server 2016 gleich zwei Konsolen: die einfache (hier im Hintergrund) und die komfortable ISE-Umgebung (im Vordergrund mit einem geöffneten Skript).

92

Kapitel 3 Host-Server

3

Hyper-V ist mittlerweile bei vielen Kunden »State of the Art«, was das Thema Virtualisierung angeht. Ein wichtiger Punkt einer funktionieren Hyper-V-Infrastruktur ist das Sizing der Hyper-V-Cluster, um einen optimalen Betrieb sicherzustellen. Windows Server 2016 bringt hier einen weiteren Quantensprung von Hyper-V-Cluster-Umgebungen. – Markus Klein, MVP Cloud & Datacenter Management

Der Aufbau einer Hypervisor-Infrastruktur wird oft unterschätzt. Die Aspekte der Installation und Einrichtung sind mittlerweile so umfangreich, dass die ausführliche Einarbeitung in die Konzepte unerlässlich ist. Daher widmet sich dieses Kapitel diesen Themen besonders ausführlich. Neben den Anforderungen an die Hardware behandeln wir die Einrichtung und Wartung der Systeme, ihrer Komponenten und verschiedene Aspekte der Sicherheit. Schon vor der Installation ist eine detaillierte Planung sinnvoll, um die richtige Hardware-Konfiguration zusammenzustellen. Hyper-V soll nicht nur optimal funktionieren, sondern auch das Zusammenspiel mehrerer Hosts soll reibungslos vonstattengehen. In diesem Kapitel erhalten Sie auch wichtige Informationen über die Dimensionierung einer Umgebung aus Hyper-V-Hosts.

3.1 Die Grundinstallation Schon vor der Installation eines Servers ist einiges zu beachten. Die erste Entscheidung ist die Sprache des Betriebssystems. Gern wird die vereinfachte Fehlersuche als Grund dafür genannt, die englische Fassung zu wählen. Allerdings gibt es mittlerweile mehrere deutsche Communitys, die sehr gute Unterstützung für das deutsche Windows leisten. In mehrsprachigen Umgebungen wird oft zum englischen Betriebssystem gegriffen, um mithilfe von Sprachpaketen die geforderte Lokalisierung bereitzustellen. Der vorrangige Grund für den Einsatz des deutschsprachigen Windows ist aber die geringe Einstiegshürde für den hiesigen Kunden. Insbesondere im Umfeld der öf-

111

3

Host-Server

fentlichen Auftraggeber ist eine deutsche Fassung explizit erwünscht. Daher nutzen wir die deutschsprachige Variante des Betriebssystems.

3.1.1 Festplatten richtig aufteilen Eine wichtige Entscheidung ist die Wahl des Betriebssystem-Volumes. Dieses sollte nicht als eine Partition auf einem Verbund aller Festplatten in dem Server angelegt werden, sondern aus dedizierten Festplatten bestehen, die zu einem eigenen Verbund zusammengeschlossen werden. Eine gute Wahl ist hier die Nutzung eines RAID-1-Volumes, das exklusiv für das Betriebssystem zur Verfügung steht und auf dem keine weiteren Daten oder VMs gespeichert oder ausgeführt werden. Aktuelle Festplatten überschreiten die Installationsgröße von Windows Server 2016 bei Weitem. Daher bestimmen primär Verfügbarkeit und Preis der Festplatten die Größe dieses Volumes.

3.1

Die Grundinstallation

Quad-Core-CPU mit aktiviertem Hyper-Threading zeigt zum Beispiel im Task-Manager acht logische Prozessoren an. Trotz der Verdopplung der logischen Prozessoren dürfen Sie aber nicht davon ausgehen, dass sich automatisch die Leistung verdoppelt. Bei der Hyper-Threading-Technik wird nur die Anzahl der Threads verdoppelt, die zur Verfügung stehen. Die CPU ist so in der Lage, mehr Prozesse parallel auszuführen. Dies führt oft zu einer Verbesserung der Performance, allerdings nicht zu einer Verdopplung.

SATA-Festplatten sind als Betriebssystem-Festplatten für Server nicht geeignet und als Speicher für die VMs noch viel weniger. Grundlage sollten grundsätzlich SAS-Festplatten oder Solid State Drives (SSD) mit Freigabe für die Nutzung in Server-Systemen sein. Weitere Informationen zu diesem Thema finden Sie in Kapitel 4, »Storage«.

In früheren Versionen von Hyper-V gab es eine Support-Aussage von Microsoft, die eine maximale »Überbuchung« der CPU beschrieb. Hier war ein Verhältnis von höchstens 8:1 zugelassen. Das bedeutete, dass alle laufenden VMs zusammen höchstens achtmal so viele virtuelle CPUs haben durften wie das Hostsystem CPU-Kerne hatte. Seit Windows Server 2012 hat Microsoft diese Begrenzung komplett aufgehoben, sodass das Verhältnis beliebig groß werden kann. Ab einer gewissen Überbuchung sinkt die Performance der VMs allerdings so stark, dass eine Art natürliche Grenze existiert. Irgendwann kann selbst die stärkste CPU mit der Last nicht mehr performant umgehen. Zudem kann es sein, dass Applikationshersteller Maximalvorgaben machen, wenn ihre Software virtualisiert läuft. Für einige wichtige Applikationen finden Sie in Kapitel 6, »Virtuelle Maschinen«, weitere Hinweise dazu.

3.1.2 Die CPU auswählen

Wie Sie eine sinnvolle Reserve für Ihr Management-OS einplanen, erfahren Sie in Abschnitt 3.1.5, »Die Host-Reserven«.

Bei der Wahl des Prozessors müssen Sie unbedingt darauf achten, dass dieser für die Virtualisierung geeignet ist. Bei Intel-Prozessoren heißt die erforderliche Technik Intel Virtualization Technology (Intel VT). Bei Prozessoren aus dem Hause AMD heißt diese Technik AMD Virtualization (AMD-V). Falls die eingesetzte CPU das Virtualisierungs-Feature nicht unterstützt, funktioniert die Installation bzw. der Betrieb von Hyper-V nicht. Mit Windows Server 2016 ist eine weitere Anforderung an die Host-CPU hinzugekommen, die es vorher nur für Client Hyper-V gab. So muss die CPU nun Second-Level Address Translation (SLAT) unterstützen. Hierbei wird die CPU-Last im Host durch eine intelligente Zuordnung des VM-Arbeitsspeichers innerhalb des Host-Arbeitsspeichers reduziert. Dies macht sich besonders auf Hosts mit vielen VMs oder bei VMs mit einer hohen RAM-Änderungsrate bemerkbar. Bei aktuellen Server-CPUs können Sie davon ausgehen, dass dies gegeben ist, ebenso bei leistungsfähigeren Client-CPUs. Wollen Sie die Eignung des Prozessors auf einem System überprüfen, so können Sie dies in einem laufenden Windows tun. Starten Sie dazu ein CMD-Fenster, und geben Sie systeminfo ein. Nach wenigen Momenten sehen Sie einen Report, der unten einen Abschnitt zu Hyper-V enthält. Viele CPUs unterstützen die Funktion Hyper-Threading. Durch diese Funktion erscheint ein Kern einer CPU im Betriebssystem als zwei logische Prozessoren. Eine

112

3.1.3 GUI vs. Server Core vs. Nano Server Schon vor der Installation des Betriebssystems müssen Sie sich entscheiden, ob Sie die schlanke Variante ohne Desktop (also Windows Server Core) oder das System mit Desktopdarstellung und den grafischen Administrationswerkzeugen verwenden wollen. Anders als bei Windows Server 2012 ist es nun nicht mehr möglich, nach der Installation zwischen den Installationsvarianten zu wechseln. Die Windows-Features für die minimale Server-Benutzeroberfläche und die Desktopdarstellung wurden entfernt. Dadurch gibt es keinen Kompromiss mehr zwischen den Installationsvarianten. Das heißt, ein Windows Server Core kann nicht zur Ausführung grafischer Verwaltungswerkzeuge und auch nicht zur Desktopdarstellung aufgerüstet werden. Bei der Nutzung der Desktopdarstellung müssen Sie einen größeren Bedarf an Festplattenspeicher sowie eine erhöhte Frequenz verfügbarer Windows-Updates einkalkulieren. Die Nutzung der Variante Windows Server Core ist sinnvoll, wenn Sie möglichst wenige Updates einspielen möchten und das System so selten wie möglich neu starten soll. Tabelle 3.1 zeigt eine Gegenüberstellung des Funktionsumfangs.

113

3

3

Host-Server

3.1

Windows Server Core

Server mit Desktopdarstellung

Eingabeaufforderung





Windows PowerShell/Windows .NET





Server-Manager





Microsoft Management Console





Systemsteuerung





Systemsteuerungs-Applets





Windows Explorer





Task-Leiste





Infobereich





Internet Explorer





Integriertes Hilfesystem





Desktop-Darstellung (Designs, MetroApps, Windows Media Player)





Die Grundinstallation

Sie können bei der Installation eines Nano Servers nicht wie gewohnt die DVD oder die .iso-Datei einlegen und bei der Art der Installation die Nano-Edition auswählen. Dies liegt daran, dass Sie das Betriebssystem selbst kompilieren und zusammensetzen müssen. Diese Art der »Installation« sorgt dafür, dass Sie das Image für den genauen Anwendungszweck bauen können – mit ausschließlich dem Treibersatz, den Ihre Hardware benötigt. Sämtliche weitere Ressourcen sind nicht enthalten. Dies macht den Betrieb sehr effizient und stabil. Während wir ihnen diese neue Art der Betriebsmöglichkeit vorstellten, haben sich einige unserer Kunden überlegt, ob sie in ihrem Unternehmen Dienste über einen oder mehrere Nano-Server anbieten sollten. Die meisten haben sich dagegen entschieden, nachdem mehr und mehr klar wurde, wie der Betrieb aussieht und welche Voraussetzungen gelten. Der Nano Server wurde von Microsoft primär für einen Kunden entwickelt: Microsoft selbst. Der Nano Server ist einer der strategischen Eckpfeiler in der Microsoft Azure Cloud, wo eine so hohe Automatisierung stattfindet, dass der Austausch von einem kompletten OS auf einer Server-Hardware kein Problem darstellt, da dieser Vorgang eingeplant und kalkuliert ist. Installiere nur, was du auch brauchst Bei der Erstellung eines Nano-Server-Images müssen Sie konfigurieren, welchen Zweck dieses Betriebssystem erfüllt. Dies kann durch unterschiedliche Pakete festgelegt werden, die bei der Erstellung hinzugefügt werden. Zum aktuellen Zeitpunkt gibt es bereits einige Pakete, wie Sie in Abbildung 3.1 erkennen können.

Tabelle 3.1 Features der Installationsoptionen (Legende:  = verfügbar;  = nicht verfügbar)

Nano Server Mit Windows Server 2016 hat Microsoft eine weitere Möglichkeit geschaffen, wie ein Windows Server betrieben werden kann. Microsoft führt damit den Weg der Minimalisierung weiter fort, der mit Windows Server Core begonnen wurde. Das Ziel ist die Nutzung eines Betriebssystems, das möglichst klein ist, möglichst selten mit Updates versorgt werden muss und dabei möglichst stabil läuft. Um dieses Ziel zu erreichen, ist der Ansatz bei einem Nano Server ein etwas anderer als bei der CoreVariante. Voraussetzungen für den Betrieb Um einen Windows Server 2016 in der Nano-Variante betreiben zu dürfen, benötigen Sie neben einer Windows-Server-2016-Lizenz in der Standard- oder Datacenter-Edition zusätzlich noch eine Wartung für die Software, die von Microsoft als Software Assurance (SA) bezeichnet wird. Dies hat den Hintergrund, dass die Funktionalitäten dieser Variante erweitert werden und die Entwicklung zum aktuellen Zeitpunkt noch nicht abgeschlossen ist.

114

Abbildung 3.1 Aktuell verfügbare Pakete zum Erstellen eines Nano-Server-Images

Die Namen der Pakete sind teilweise recht selbsterklärend: Das Compute-Package wird z. B. bei der Nutzung der Hyper-V-Rolle benötigt. FailoverCluster wird ebenfalls

115

3

3

Host-Server

häufig verwendet, ebenso Storage zur Erstellung von einem Scale-Out File Server. DCB kommt bei der Nutzung von RDMA-fähigen Netzwerkkarten zum Einsatz, das GuestPaket wird bei dem Betrieb des Servers innerhalb einer VM benötigt. Einschränkungen bei der Nutzung eines Nano Servers Bevor Sie mit der Planung für Ihre neuen Server beginnen und für diesen Fall den Nano Server in Betracht ziehen, sollten Sie sich über die Einschränkungen im Klaren sein. Sie können einen Nano Server nicht mit Windows-Updates versorgen, wie Sie es bisher kennen. Die Installation von Windows-Updates im Betrieb ist nicht vorgesehen. Sie müssen bei einem Update den gesamten Nano Server neu kompilieren und das bzw. die Updates während der Kompilierung mit aufnehmen. Da voraussichtlich alle paar Monate ein neues Update erscheint, das sicherheitskritische Lücken stopft oder betriebsrelevante Funktionen aktualisiert, müssen Sie alle paar Monate Ihr komplettes Betriebssystem neu erstellen und austauschen. Eine weitere Einschränkung ist, dass auf einem Nano Server keine Gruppenrichtlinien angewandt werden. Setzen Sie Einstellungen per GPO, so müssen Sie diese Konfiguration bei einem Nano Server über einen anderen Weg realisieren, z. B. über die Windows PowerShell. Haben Sie ein Image kompiliert, können Sie keine weiteren Rollen oder Funktionen nachträglich aktivieren. Haben Sie ein Paket vergessen, müssen Sie erneut eine Kompilierung starten. Einen Nano Server erstellen Auf dem Installationsdatenträger von Windows Server 2016 gibt es einen Ordner mit dem Namen NanoServer, in dem sowohl die benötigten Daten als auch ein eigenes PowerShell-Modul enthalten sind, das Sie bei der Erstellung eines Nano Servers unterstützt. Kopieren Sie den Ordner NanoServer auf Ihre Festplatte, und öffnen Sie eine Windows-PowerShell-Konsole. Die Einrichtung beginnt mit dem Import des NanoServer-Moduls:

3.1

Die Grundinstallation

Nano.vhdx gibt an, wo die finale Datei erstellt werden soll. Handelt es sich um eine

VHDX-Datei, müssen Sie eine VM der Generation 2 erstellen. Eine VHD-Datei kann nur bei einer Generation-1-VM genutzt werden. Die maximale Größe der VHDXDatei kann mit -MaxSize 20GB definiert werden. Die Größe nach der Erstellung liegt meist zwischen 600 und 700 MB. -ComputerName JansErsterNano gibt den Namen innerhalb der VM an, -DomainName powerkurs.local definiert die Windows-Domäne. Während der Erstellung des Images wird das neue System direkt in der AD bekannt gemacht, es ist kein manueller Beitritt notwendig. Nun können Sie direkt die Einstellungen im Netzwerk konfigurieren: Dies geschieht mit den Optionen -InterfaceNameOrIndex Ethernet -Ipv4Address 192.168.209.120 -Ipv4SubnetMask 255.255.254.0 -Ipv4Dns 192.168.209.2. Die Optionen -Compute und -Clustering aktivieren die Hyper-V- und Failover-Clustering-Möglichkeiten. Abbildung 3.2 zeigt den vollständigen Befehl.

Abbildung 3.2 Ein neues Nano-Server-Image mit der PowerShell erstellen

Sind die Einstellungen korrekt, wird der Befehl ausgeführt. Anschließend werden Sie nach dem Passwort für das Administrator-Konto gefragt. Nach einigen Minuten der Kompilierung bekommen Sie eine VHDX-Datei, die Sie mit einer VM der Generation 2 starten können. Nach dem Start und einer Anmeldung erscheint die Wiederherstellungskonsole (Recovery Console) mit einer Übersicht über die grundsätzlichen Einstellungen und Informationen (siehe Abbildung 3.3).

Import-Module E:\temp\NanoServer\NanoServerImageGenerator

Nun haben Sie die Möglichkeit, mit einem einzigen Befehl ein vollständiges Image zu erzeugen. Wir gehen die Befehle einzeln durch, danach sehen Sie den kompletten Befehl. Die Erstellung beginnt mit dem Befehl New-NanoServerImage. Nun definieren Sie mit -DeploymentType Guest, dass Sie ein Image für den Betrieb in einer VM erstellen möchten. Mit -Edition geben Sie an, ob Sie die Standard- oder die Datacenter-Edition installieren möchten. Dies hat Einfluss auf die Funktionen, die nutzbar sind, z. B. Storage Replica oder Storage Spaces Direct. Der Parameter -MediaPath F:\ zeigt auf das Windows Server 2016 Installationsmedium. -TargetPath E:\Temp\JansErster-

116

Abbildung 3.3 Ein Nano Server innerhalb einer Hyper-V-VM

117

3

3

Host-Server

3.1

Die Grundinstallation

Die Erstellung mithilfe des Nano Server Image Builders Microsoft hat ein weiteres Hilfsmittel zum Erstellen eines Nano Servers veröffentlicht, den Nano Server Image Builder. Sie bekommen dieses Tool kostenfrei direkt auf den Seiten von Microsoft:

3

https://www.microsoft.com/en-us/download/details.aspx?id=54065 (Kurzlink: http://qccq.de/s/v301) Nach einem Download und der Installation (beachten Sie, dass Sie zusätzlich das ADK installieren müssen. Ist dies aktuell nicht installiert, werden Sie automatisch zu einem Download und einer Installation geleitet) können Sie wählen, ob Sie ein neues Image erstellen möchten oder ob Sie einen bootbaren USB-Stick erstellen möchten, der Sie bei der Erstellung eines Images für einen Hardware-Server unterstützen soll (siehe Abbildung 3.4).

Abbildung 3.5 Die Erstellung eines Nano-Server-Images beginnt.

3.1.4 Die Speicherpfade Bereits während der Installation der Hyper-V-Rolle fragt der Installations-Wizard nach den Speicherpfaden für die Daten der virtuellen Systeme (siehe Abbildung 3.6).

Abbildung 3.4 Screenshot des Nano Server Image Builders. Sie haben die Wahl zwischen einem neuen Image oder einem USB-Stick, der booten kann.

Sie können sich mit diesem Programm ein Image Ihrer Wahl zusammenstellen. Zunächst geben Sie dazu die Windows-Server-Ressourcen an und konfigurieren die Edition und die Rollen bzw. Funktionen. Danach können Sie grafisch Treiber, Updates und weitere Dinge wie Skripte usw. hinzufügen. Final bekommen Sie die Einstellungen und Optionen als PowerShell-Befehl angezeigt (siehe Abbildung 3.5).

118

Dieser Pfad sollte so konfiguriert werden, dass er nicht auf dem System-Volume liegt. Somit ist sichergestellt, dass die Daten der virtuellen Systeme standardmäßig direkt auf dem gewünschten Volume abgelegt werden. Diese Vorgabe können Sie bei jeder VM-Erstellung auch manuell anpassen, falls die Daten der VM an einer anderen Stelle abgelegt werden sollen. Neben den lokalen Speicherpfaden ist es seit Windows Server 2012 möglich, die Daten der virtuellen Systeme auf ein Netzlaufwerk zu legen. Eine Bedingung hierfür ist, dass das Protokoll Server Message Block wenigstens in der Version 3.0 (SMB 3.0) vorhanden ist. Es ist seit Windows Server 2012 enthalten. Um diese Funktion nutzen zu können, benötigen Sie also einen File Server als Basis, auf dem wenigstens Windows Server 2012 läuft (oder eine alternative Implementierung von SMB 3.0 eines namhaften Storage-Herstellers); ältere Betriebssysteme funktionieren nicht. Mehr zu diesem Thema finden Sie in Kapitel 4, »Storage«.

119

3

Host-Server

3.1

Die Grundinstallation

Wenn Sie die Option Virtuellen Computer an einem anderen Speicherort speichern nicht aktivieren, speichert Hyper-V die Daten des virtuellen Computers ohne eine Unterstruktur in dem angezeigten ausgegrauten Pfad. Bei mehr als einer VM wird dies schnell sehr unübersichtlich, da die Konfigurationsdateien der VMs keinen sprechenden Namen haben, sondern nach ihrer Objekt-ID benannt werden, wie Abbildung 3.8 zeigt.

Abbildung 3.8 Konfigurationsdateien eines virtuellen Computers

Es empfiehlt sich daher, bei der Erstellung von VMs diese Option grundsätzlich auszuwählen, damit pro VM ein eigener Ordner angelegt wird. Abbildung 3.6 Standardspeicherorte bei der Installation der Hyper-V-Rolle

3.1.5 Die Host-Reserven Den Speicherort bei der Erstellung einer VM wählen Während der Erstellung eines virtuellen Computers fragt der Assistent nach dem Speicherpfad. Standardmäßig ist diese Option nicht aktiviert und zeigt grau hinterlegt den bei der Installation definierten Standardpfad an (siehe Abbildung 3.7).

Der größte Anteil der zur Verfügung stehenden Ressourcen wird von den virtuellen Gästen genutzt. Trotzdem benötigt das Management-OS seinen eigenen Anteil, um die Verwaltung und den Betrieb performant ermöglichen zu können.

CPU Da das Management-OS an jedem I/O-Vorgang der VMs beteiligt ist, benötigt es einen Anteil an den Ressourcen der CPU-Kapazitäten. Diesen Wert können Sie nicht direkt konfigurieren. Sie müssen ihn bereits in der Planung der Hardware berücksichtigen und auch im späteren Betrieb mit einkalkulieren, wenn Sie Ihren Host mit VMs bestücken. In der Praxis hat sich die folgende Rechnung bewährt: Pro physikalisch vorhandenem Kern können Sie etwa acht vCPUs annehmen (siehe hierzu auch Abschnitt 3.1.2, »Die CPU auswählen«). Zwei der so ermittelten vCPUs reservieren Sie gedanklich für das Management-OS, die restlichen können Sie auf die VMs verteilen. Bei Systemen mit einem Sockel reicht es oft aus, wenn rechnerisch ein logischer Prozessor für das Management-OS reserviert wird. Dieser liegt leistungstechnisch oft noch über dem Wert, den zwei vCPUs ergeben. Seit Windows Server 2012 wird Hyper-Threading nicht mehr in die Kalkulation einbezogen, da es sich nicht um vollwertige CPU-Kerne handelt. Das folgende Rechenbeispiel zeigt den Zielkorridor auf: Abbildung 3.7 Auswahl des VM-Namens und des Speicherorts

120

Nehmen wir an, Ihre Hardware besitzt eine Vier-Kern-CPU. Gehen Sie daher von wenigstens vier und maximal acht logischen Prozessoren aus. Diese Grenzen multi-

121

3

3

Host-Server

3.2

Hyper-V-Server

plizieren Sie mit dem Faktor acht und erhalten 32 bis 64 vCPUs. Zwei dieser vCPUs reservieren Sie für das Management-OS, die restlichen können Sie den VMs zuordnen.

nötigt. In solchen oder ähnlichen Situationen können Sie die Auslagerungsdatei also manuell anpassen.

Wichtig: Die Anzahl von vCPUs, die einer VM zugeordnet werden, ist abhängig von der Last, die das System erzeugt. Es gibt keine pauschalen Aussagen, welche Art von Dienst wie viele Ressourcen verbraucht. Dies hängt stark von Ihrer persönlichen Umgebung ab. Deswegen ist ein durchdachtes und entsprechend geplantes Sizing notwendig.

Bei Systemen mit grafischer Oberfläche kann die Größe der Auslagerungsdatei wie gewohnt in der Systemsteuerung unter System und Sicherheit • System • erweiterte Systemeinstellungen • Leistung • Einstellungen • erweitert • Ändern angepasst werden. Bei Core-Systemen ohne grafische Oberfläche funktioniert die Umstellung mit den folgenden beiden Befehlen:

Arbeitsspeicher Das Management-OS benötigt für den Betrieb der virtuellen Systeme eine gewisse Anzahl an verfügbarem Arbeitsspeicher, um ohne Performanceprobleme arbeiten zu können. Dieser Wert liegt zwischen 2 und 8 GB für den reinen Grundbetrieb, abhängig von der I/O-Last des Systems.

wmic computersystem where name="%computername%" set ¿ AutomaticManagedPagefile=False wmic pagefileset where name="C:\\pagefile.sys" set ¿ InitialSize=4096,MaximumSize=4096

Der erste Befehl setzt die Größenbestimmung der Auslagerungsdatei auf manuell, mit dem zweiten Befehl wird die Größe auf 4.096 MB festgelegt.

3.1.6 Die Auslagerungsdatei im Management-OS Im Management-OS wird, wie bei allen anderen Systemen auch, eine Auslagerungsdatei erstellt. Standardmäßig wird die Größe dieser Datei, abhängig von der Größe des physikalisch vorhandenen Arbeitsspeichers, automatisch berechnet. Generell gilt die Aussage, dass Sie die Größe der Auslagerungsdatei nicht manuell festlegen sollten, weil die voreingestellte Automatik in den meisten Situationen zu einer optimierten Leistung führt. Eine manuelle Anpassung würde erfordern, dass Sie das Verhalten der Applikationen auf dem System genau einschätzen und daraus den optimalen Wert ableiten können. In der Regel erfordert dies Detailkenntnisse der Anwendungsarchitektur und aufwendige Messreihen. Diese Aussage hat auch Gültigkeit für einen Host-Server mit Hyper-V. Bei vielen Systemen ist es die beste Wahl, die Standardeinstellung Auslagerungsdatei für alle Laufwerke automatisch anpassen beizubehalten. Dies gilt umso mehr, als Hyper-V die Auslagerungsdatei nur für den Speicherbedarf des Management-OS verwendet und niemals für die virtuellen Maschinen – effektiv nutzt das ManagementOS selten mehr als 4 GB Arbeitsspeicher. Allerdings erzeugt Windows bei der Installation des Betriebssystems standardmäßig eine Auslagerungsdatei, die etwas größer ist als der Arbeitsspeicher des Systems, damit bei Bedarf genügend Platz für einen Crash Dump bleibt (siehe dazu https:// support.microsoft.com/en-us/kb/2860880, Kurzlink: http://qccq.de/s/v302). Bei einem Host-Server mit sehr viel Arbeitsspeicher kann es also sein, dass die Auslagerungsdatei einen Großteil der Systemplatte belegt. Dies ist nicht notwendig, weil Hyper-V die Datei ja normalerweise nur für den RAM-Anteil des Management-OS be-

122

3.2 Hyper-V-Server Der Hyper-V Server 2016 ist eine Fassung des Hypervisors, die Microsoft kostenfrei zur Verfügung stellt. Das System ist eine im Umfang reduzierte Version von Windows Server 2016, bei der nach der Installation direkt die Hyper-V-Rolle aktiv ist. Auf einem Hyper-V Server 2016 können – bis auf den Failover-Cluster – keine weiteren Rollen oder Features installiert werden; alle benötigten Features sind bereits aktiviert. Von der Bedienung her verhält sich Hyper-V Server 2016 wie ein in der CoreVariante installierter Windows Server 2016. Er ist also nur bedingt lokal administrierbar. In den Möglichkeiten der Virtualisierung steht der Hyper-V Server 2016 seinem »großen Bruder« unter Windows Server 2016 aber in nichts nach. Alle Funktionen und Möglichkeiten, die Sie mit Hyper-V als Rolle in den kostenpflichtigen Versionen haben, haben Sie auch im Hyper-V Server 2016. Was Sie beachten müssen: Sie erwerben mit diesem Produkt keine Lizenzen oder Lizenzrechte. Alle Betriebssysteme, die nicht kostenfrei erworben werden können und die auf einem Hyper-V-Server betrieben werden, müssen laut ihren Bedingungen lizenziert werden. Zudem ist der Support durch Microsoft für diese Version eingeschränkt.

3.2.1 Installieren und einrichten Die Installation von Hyper-V Server 2016 gestaltet sich recht einfach. Die Software kann nach einer kurzen Registrierung kostenlos von Microsoft heruntergeladen werden und ist ca. 2,5 GB groß. Nachdem die .iso-Datei auf einen Datenträger gebrannt und in das System eingelegt wurde, beginnt das bekannte Windows-Setup. Bei der

123

3

3

Host-Server

Einrichtung und dem Betrieb eines Hyper-V-Servers gelten die gleichen Bedingungen und Empfehlungen wie bei der Nutzung von Windows Server 2016 Standard oder Datacenter.

3.2

Hyper-V-Server

Danach erwartet Sie das von den vorherigen Versionen bekannte Bild (siehe dazu Abbildung 3.11). Die Serverkonfiguration leitet Sie durch die Ersteinrichtung.

3 Die Installation auf USB-Stick wird nicht unterstützt In den beiden vorangegangenen Auflagen dieses Buchs haben wir beschrieben, wie Sie den Hyper-V Server 2012 bzw. 2012 R2 auf einem USB-Stick installieren können. Diese Art der Installation wird bisweilen von Administratoren nachgefragt, die aus der VMware-Welt kommen. Hyper-V Server 2016 unterstützt diese Art der Installation nicht. Daher verzichten wir auf diese Anleitung.

Die weitere Konfiguration des Hyper-V-Servers geschieht mit Kommandozeilentools wie bei einer Core-Installation. Der Grundgedanke dieser Administrationsform besteht darin, dass Sie den Server auf diese Weise nur grundlegend einrichten, bis Sie ihn aus dem Netzwerk erreichen. Von da an können und sollten Sie die weitere Einrichtung und Verwaltung über Remote-Programme vornehmen. Nur in speziellen Fällen empfiehlt es sich, den Hyper-V-Server lokal zu verwalten, etwa wenn es sich um einen Einzel-Host für die DMZ handelt, den Sie nicht in Ihre produktive Domäne aufnehmen. Nach der erfolgreichen Installation erwartet Sie ein etwas ungewohntes Bild bei der Anmeldung: Sie sehen nur ein CMD-Fenster mit der Aufforderung Benutzer auswählen (siehe Abbildung 3.9). Abbildung 3.11 Der Hyper-V-Server nach dem ersten Start

Das System wird primär über die Serverkonfiguration verwaltet. Die Aufgaben, die Sie mit diesem Tool erledigen können, sind: Abbildung 3.9 Nach der Installation wählen Sie den anzumeldenden Benutzer aus. Drücken Sie hierzu »Strg« + »Alt« + »Entf«.

왘 Wechsel zwischen Domäne und Arbeitsgruppe

Hier drücken Sie (Strg) + (Alt) + (Entf) und sehen dann die Aufforderung, das Kennwort zu ändern. Auch dies erledigen Sie in dem CMD-Fenster (siehe Abbildung 3.10).

왘 Management der lokalen Administratoren

왘 Ändern des Computernamens 왘 Konfiguration des Remote-Managements 왘 Konfiguration des Windows-Update-Verhaltens 왘 Konfiguration von Remote Desktop 왘 Konfiguration des Netzwerks 왘 Konfiguration von Datum und Uhrzeit

Abbildung 3.10 Auch die weitere Einrichtung des Administrator-Benutzers geschieht über ein Konsolenfenster.

124

왘 Teilnahme am Programm zur Verbesserung der Software 왘 Abmelden des aktuellen Benutzers

125

3

Host-Server

3.2

Hyper-V-Server

왘 Neustart des Servers

3.2.2 Dritthersteller-Tools zur Verwaltung nutzen

왘 Herunterfahren des Servers

Neben der Administration über ein anderes System gibt es auch die Möglichkeit, auf dem Hyper-V-Server selbst ein Programm zur Administration zu installieren. Der wohl bekannteste Vertreter dieser Art ist das Programm 5nine Manager, das von der Firma 5Nine vertrieben wird. Es gibt sowohl eine kostenfreie als auch eine kostenpflichtige Variante. In der kostenfreien Variante können Sie Ihre VMs anpassen und »von außen« administrieren, eine Verbindung mit der Konsole und eine lokale Administration des Systems ist nur in der kostenpflichtigen Variante möglich.

왘 Schließen des Fensters und Wechsel zur Befehlszeile

Ping einschalten Nachdem Sie die grundlegenden Netzwerkeinstellungen vorgenommen haben, antwortet der Server zunächst nicht auf Ping-Anforderungen. Die Windows-Firewall verhindert dies standardmäßig. Sie sollten sie aber nicht abschalten, sondern besser die Konfiguration anpassen. Meist reicht es völlig aus, Ping freizugeben, weil die Regeln für den Hyper-V-Betrieb schon vorkonfiguriert sind. Hierzu rufen Sie vom Hauptfenster der Serverkonfiguration den Punkt 4 (Remoteverwaltung konfigurieren) auf. Im folgenden Menü finden Sie den Eintrag 3 (Serverantwort für Ping konfigurieren). Wählen Sie diesen aus, so fragt Windows noch einmal nach und konfiguriert nach der Bestätigung die Firewall, sodass sie Ping zulässt. Diese Anpassung kann ebenfalls per Skript oder per Gruppenrichtlinie angewendet werden.

Nachdem Sie das Paket heruntergeladen und entpackt haben, kopieren Sie es auf den Host-Server. Führen Sie danach über die Kommandozeile die Datei 59Manager.exe aus, um die Installation zu starten. Nach dem erfolgreichen Setup können Sie das Programm starten, indem Sie im Hauptverzeichnis (standardmäßig wird das Programm nach C:\Program Files\5nine\59Manager for Hyper-V\ installiert) die Datei 5nine.Manager.exe starten. In dem Programm, das sich daraufhin öffnet, können Sie Ihre VMs einsehen und grundlegende Aufgaben erledigen. Abbildung 3.12 zeigt einen Screenshot des Programms direkt nach dem Aufruf.

Kleiner Tipp: Falls Sie die Serverkonfiguration versehentlich schließen, können Sie sie durch den folgenden Aufruf wieder öffnen: C:\Windows\System32\sconfig.cmd

Neben der Möglichkeit, das System lokal über die Konsole zu verwalten, steht Ihnen auch eine Verwaltung per PowerShell oder per MMC zur Verfügung. Hierzu muss die Remote-Verwaltung aktiviert sein, was standardmäßig der Fall ist. Falls sie ausgeschaltet werden soll, können Sie dies über den Punkt Remoteverwaltung konfigurieren vornehmen. Sobald mehrere Hosts gemeinsam verwaltet werden sollen, kommen in der Regel Management-Lösungen zum Einsatz, die solch einen Betrieb deutlich vereinfachen. Ein Beispiel wäre der System Center Virtual Machine Manager oder der 5Nine Manager. Die Hyper-V-Rolle muss bei einem Hyper-V Server 2016 nicht manuell aktiviert werden, da das System nach der Installation direkt im Management-OS-Betrieb läuft. Das bedeutet, die Virtualisierung ist bereits aktiv und kann genutzt werden. Und da es sich beim Hyper-V Server um einen Windows Server Core handelt, ist die Verwaltung der VMs und eine Konfiguration des Systems per GUI nicht möglich. Hierzu muss entweder ein Windows Server 2016 mit den Hyper-V-Verwaltungstools oder ein Client-Betriebssystem mit den Remoteserver-Verwaltungstools, kurz RSAT, genutzt werden. Dazu sollten Sie den Host-Server in Ihre Domäne aufnehmen, denn sonst wird die Anbindung sehr umständlich. Näheres zu den Domänen-Überlegungen finden Sie in Abschnitt 3.7.9, »Sollen die Hyper-V-Hosts in die Domäne?«.

126

Abbildung 3.12 »5nine Manager« auf einem Hyper-V Server 2016

Das Programm kann nicht nur auf einem Hyper-V-Server oder der Core-Variante eines Windows Servers ausgeführt werden. Wenn Sie Gefallen an dem Programm finden, können Sie die Administration auch komplett auf dieses Programm verlagern.

127

3

3

Host-Server

3.3 Client Hyper-V Seit Microsoft in Windows 8 erstmals Hyper-V im Clientbetriebssystem bereitstellte, hat es weite Verbreitung für Evaluierungen und Weiterbildung gefunden. Damit ist es möglich, auf dem eigenen PC oder Notebook virtuelle Systeme mithilfe der HyperV-Technologie zu betreiben. Auch in Windows 10 ist Hyper-V als optionale Funktion enthalten, die Sie ab der Pro-Edition aktivieren können.

3.3 Client Hyper-V

zu erzeugen und dabei nicht mehr als den VM-Namen sowie die Installationsquelle anzugeben. Hyper-V nutzt dann Standardeinstellungen, damit der Anwender schnell zu einem arbeitsfähigen Ergebnis kommt.

3

3.3.1 Anforderungen und Einschränkungen Die Funktion der Virtualisierung mit Hyper-V ist unter Windows 10 nur in den Versionen Pro, Enterprise und Education möglich. Die Hardware-Voraussetzungen sind identisch mit der Serverversion. Im Rechner muss also eine CPU mit Hardware-Virtualisierung und mit Second Level Address Translation (SLAT) vorhanden sein. Im Funktionsumfang wurde Hyper-V ebenfalls leicht beschränkt. Mit einem Hypervisor auf Client-Basis ist keine komplette Live-Migration einer VM möglich, lediglich eine Verschiebung der Dateien einer VM (Storage-Migration) ist erlaubt. In einen Failover-Custer können Sie Windows 10 ebenfalls nicht einbinden. Dies sind die einzigen beiden Einschränkungen. Alle anderen Funktionen, die man mit Windows Server 2016 nutzen kann, sind auch im Client vorhanden.

3.3.2 Besonderheiten in Client Hyper-V Umgekehrt gibt es aber Eigenschaften der Client-Version von Hyper-V, die im Server nicht vorhanden sind. Dazu zählt die neue Funktion Schnellerstellung (Quick Create), die mit dem Creators Update im Frühjahr 2017 ins Betriebssystem Einzug hält. Zudem verhält sich ab dieser Version Hyper-V auf dem Client bei der RAM-Zuweisung anders als der große Bruder auf dem Server. Die folgenden Informationen beruhen auf einer Vorabversion von Windows 10, die bei Drucklegung dieses Buches aktuell war. Weil das Client-Betriebssystem laufend aktualisiert wird, was als Windows as a Service bekannt ist, neigen Funktionsbeschreibungen von Windows 10 leider dazu, schnell überholt zu sein. Daher beschränken wir uns hier auf einen knappen Überblick. Hyper-V arbeitet in Windows 10 mit der Funktion Connected Standby zusammen, die auf modernen Clientrechnern oft aktiv ist. Hierbei hält das Betriebssystem im Energiesparmodus einige grundlegende Kommunikationen aufrecht, um dem Anwender möglichst aktuelle Informationen bereitstellen zu können. Frühere Versionen von Hyper-V kamen damit nicht klar.

Abbildung 3.13 Mit der »Schnellerstellung« erzeugen Sie schnell eine VM mit Standardeinstellungen (hier in einer Vorabversion von Windows 10).

Hyper-V verhält sich unter Windows 10 anders als auf einem Server, weil die typischen Anwendungsfälle anders sind. So nutzen besonders Softwareentwickler die Funktion oft, um ihre Programme auf verschiedenen Betriebssystemen zu testen. Dabei hat sich das »konservative« Ressourcen-Management von Hyper-V oft als hinderlich herausgestellt, weil beispielsweise nicht genügend RAM bereitstand, um eine VM zu starten. Client Hyper-V geht daher »aggressiver« bei der RAM-Zuweisung vor und ermöglicht einer VM auch dann Zugriff auf den Arbeitsspeicher, wenn das Host-Betriebssystem nur noch wenig davon hat. Auf einem Clientrechner laufen ja oft Anwendungen, die man auf einem Host-Server nie starten würde, etwa Browser, Mail und Textverarbeitung oder sogar komplexe Entwicklungsumgebungen. Daher unterscheiden sich die Umgebungen deutlich. Um hier mehr Flexibilität zu ermöglichen, hat Microsoft in Windows 10 das Verhalten des Hypervisors geändert. Aber Achtung: Dies kann zulasten der Systemstabilität gehen! Sie sollten die Ressourcen also nur in Ausnahmefällen ausreizen.

Die Funktion Schnellerstellung findet sich als oberste Option im Aktionsmenü des Hyper-V-Managers (siehe Abbildung 3.13). Sie erlaubt es, sehr schnell eine neue VM

128

129

3

Host-Server

3.3.3 Client Hyper-V installieren und nutzen Die Installation von Hyper-V erfolgt über Systemsteuerung • Programme • Programme und Features • Windows-Features aktivieren oder deaktivieren. In dem Fenster mit den verfügbaren Features können Sie unter Hyper-V das Feature Hyper-V-Plattform installieren. Falls diese Option ausgegraut ist, können Sie mit dem Mauszeiger über das Feature fahren. Sie sehen dann eine kurze Information mit dem Grund, warum die Hyper-V-Plattform nicht installiert werden kann. In den meisten Fällen wird dies daran liegen, dass die CPU nicht den Anforderungen entspricht. Die Fehlermeldung lautet in diesem Fall: Hyper-V kann nicht installiert werden. Der Prozessor hat keine SLAT-Fähigkeiten (Second Level Address Translation). Ein System lässt sich sehr einfach darauf hin testen, ob es mit Hyper-V zusammenarbeiten kann. Hierzu müssen Sie in einer Eingabeaufforderung den Befehl systeminfo eingeben. Nach einem kurzen Moment werden Ihnen einige Informationen zu Ihrem System angezeigt, unter anderem, ob Ihr System den Anforderungen entspricht. Insgesamt werden im Bereich Anforderungen für Hyper-V vier Eigenschaften abgefragt: 왘 Erweiterungen für den VM-Überwachungsmodus 왘 Virtualisierung in Firmware aktiviert 왘 Adressübersetzung der zweiten Ebene 왘 Datenausführungsverhinderung verfügbar

Steht hinter allen vier Eigenschaften ein Ja, können Sie Hyper-V auf Ihrem Gerät nutzen. Ist mindestens eine der Optionen mit einem Nein versehen, lässt sich Hyper-V nicht nutzen.

3.3 Client Hyper-V

Sie besitzen nicht die erforderliche Berechtigung für diese Aufgabe. Wenden Sie sich an den Administrator der Autorisierungsrichtlinie für den Computer »localhost«.

3

Abbildung 3.14 »Windows-Features aktivieren oder deaktivieren«: In der Abbildung sehen Sie die »Hyper-V-Plattform« und die »Hyper-V-Verwaltungstools«.

Dieses Problem können Sie umgehen, indem Sie sich entweder als Administrator an Ihrem System anmelden, den Hyper-V-Manager als Administrator starten oder in der Verwaltung Ihres Systems das betreffende Benutzerkonto in die lokale Gruppe Hyper-V-Administratoren aufnehmen (siehe Abbildung 3.15). Mitglieder dieser Gruppe erhalten uneingeschränkten Zugriff auf alle Funktionen von Hyper-V, ohne direkt Administrator des gesamten Betriebssystems zu werden.

Neben der Hyper-V-Plattform können Sie die Hyper-V-Verwaltungstools installieren. Bei der Aktivierung von Hyper-V-Plattform werden Sie gefragt, ob diese Tools automatisch mit installiert werden sollen; sie können aber auch separat installiert werden, zum Beispiel, wenn Sie über Ihren Client einen oder mehrere Hosts mit Hyper-V administrieren möchten. Die Gruppe Hyper-V-Verwaltungstools enthält die Hyper-V-GUI-Verwaltungstools und das Hyper-V-Modul für Windows PowerShell (siehe Abbildung 3.14). Wenn Sie die Hyper-V-Plattform zur Installation ausgewählt und bestätigt haben, fordert das System Sie zu einem Neustart auf. Danach ist Hyper-V aktiv, und Sie können es nutzen. Im Startmenü befinden sich zwei neue Symbole: Hyper-V-Manager und Hyper-V-Verbindung mit virtuellem Computer. Nach dem ersten Aufruf des Hyper-V-Managers wird versucht, eine Verbindung mit dem Hyper-V-Dienst herzustellen. Dies ist allerdings nur dann erfolgreich, wenn Sie als Administrator an dem System angemeldet sind. Bei der Verwendung eines Benutzerkontos ohne Administrationsrechte erhalten Sie die folgende Meldung:

130

Abbildung 3.15 Eigenschaften der lokalen Gruppe »Hyper-V-Administratoren« in Windows 10

131

3

Host-Server

3.3 Client Hyper-V

3.3.4 Ein NAT-Netzwerk für VMs einrichten

Get-NetNat

Client Hyper-V nutzt dieselben Techniken wie Hyper-V auf einem Host-Server. Es unterscheidet sich daher grundlegend von bekannten Desktop-Virtualisierungsprogrammen wie Oracle VirtualBox oder VMware Workstation. Einer der Punkte, an denen dieses deutlich wird, ist die Netzwerkanbindung.

Sie sollten keine Ausgabe zurückbekommen. Zeigt die PowerShell ein vorhandenes NAT-Netzwerk an, so können Sie dieses verwenden, oder Sie löschen es mit: Get-NetNat | Remove-NetNat

Desktop-Virtualisierer bieten hier einen großen Komfort. Sie ermöglichen es, VMs »nahtlos« in das Netzwerk einzubinden, indem sie diese bei Bedarf per NAT (Network Address Translation) ansprechen und ihnen mit einer eigenen DHCP-Funktion passende IP-Adressen geben. Diesen Komfort bietet Client Hyper-V nicht, hier ist mehr Handarbeit nötig. In Windows 10 (und auch in Windows Server 2016) können Sie immerhin eine NATAnbindung vorsehen, damit Ihre VMs mit »lokalen« IP-Adressen arbeiten können, die sich von denen Ihres produktiven Netzwerks unterscheiden. So erzeugen Sie mit VMs, die Sie auf einem Client betreiben, keine Engpässe im LAN Ihres Unternehmens oder zu Hause, und auch eine Abstimmung mit den Netzwerkadministratoren ist nicht zwingend notwendig. Die NAT-Funktion hat folgende Einschränkungen: 왘 Windows erlaubt nur ein einziges NAT-Netzwerk auf einem Hostcomputer. Sie

müssen also vorab den Adressbereich planen und können nicht mehrere Segmente parallel betreiben. 왘 Die NAT-Funktion können Sie nur per PowerShell einrichten und verwalten. 왘 Es gibt keine DHCP-Funktion, um VMs automatisch mit IP-Adressen zu versorgen.

Mit den folgenden Schritten können Sie ein NAT-Netzwerk anlegen. Zuerst sollten Sie ein wenig planen: Identifizieren Sie einen IP-Adressbereich für Ihr »lokales« VMNetzwerk. Die Adressen sollten sich deutlich von denen im produktiven Netz unterscheiden. Innerhalb dieses Adressbereichs legen Sie dann eine Gateway-Adresse fest, die der »virtuelle NAT-Router« erhält. Orientieren Sie sich dabei an eigenen Standards; viele Administratoren geben als Gateway-Adresse etwa die .1 im jeweiligen Segment an (etwa 10.10.10.1). Schließlich legen Sie noch einen logischen Namen für das NAT-Netzwerk sowie für den zugehörigen virtuellen Switch in Hyper-V fest. Die Einrichtung nehmen Sie per PowerShell vor. Starten Sie am besten die PowerShell ISE ausdrücklich als Administrator. Prüfen Sie immer zuerst, ob es eventuell schon ein NAT-Netzwerk auf Ihrem Rechner gibt. Windows erlaubt nur ein einziges Netzwerk dieser Art, hindert Sie aber technisch nicht daran, mehrere zu erzeugen. Sollten Sie versehentlich mehrere NATNetzwerke einrichten, so gerät der Computer in einen undefinierten Zustand, für den Microsoft auch keinen Support mehr leisten wird. Folgendes Cmdlet gibt die nötige Auskunft:

132

Abbildung 3.16 Die NAT-Anbindung in Hyper-V hat eine gewisse Komplexität. Sie erlaubt es, VMs mit internen IP-Adressen ans externe Netzwerk anzubinden.

Das folgende Skript erzeugt die nötigen Komponenten. Sie können es nach Ihrem Bedarf anpassen. Die Vorgaben sind hier folgende: 왘 Das NAT-Netzwerk trägt den logischen Namen VM-NAT. 왘 Der interne Adressbereich ist 10.10.10.0 mit einer Subnetzmaske von 255.255.255.0.

Aus diesem Bereich müssen die VMs manuell eine IP-Adresse erhalten. 왘 Die IP-Adresse des Standard-Gateways lautet 10.10.10.1. Sie ist einer virtuellen

Netzwerkkarte auf dem Host-Computer zugewiesen. 왘 Der virtuelle Switch, der die NAT-Verbindung herstellt, trägt den Namen vSw-NAT. New-VMSwitch -SwitchName 'vSw-NAT' -SwitchType Internal $NICNo = (Get-NetAdapter | where { $_.Name -like '*vSw-NAT*' }).ifIndex New-NetIPAddress -IPAddress 10.10.10.1 -PrefixLength 24 -InterfaceIndex $NICNo New-NetNat -Name 'VM-NAT' -ExternalIPInterfaceAddressPrefix 10.10.10.0/24 Listing 3.1 Dieses Skript erzeugt ein NAT-Netzwerk für virtuelle Maschinen.

133

3

3

Host-Server

Sie können dann eine VM (oder auch mehrere) mit dem NAT-Switch verbinden. Teilen Sie den VMs IP-Adressen aus dem NAT-Segment zu (in unserem Beispiel aus 10.10.10.0/24), und tragen Sie die NAT-Gateway-Adresse (hier: 10.10.10.1) als Standard-Gateway ein. Falls Ihre VMs auch ins Internet sollen, denken Sie daran, einen DNS-Server einzutragen, der Webadressen auflöst.

3.3.5 Windows Server 2016 remote verwalten Mit Windows 10 und den installierten Hyper-V-Verwaltungstools ist es möglich, einen oder mehrere Windows-Server-2016-Hosts mit aktivierter Hyper-V-Rolle zu administrieren. Allgemein ist zur Remote-Administration die Installation der Remoteserver-Verwaltungstools (RSAT) notwendig. Unter Windows 10 ist das nur erforderlich, wenn Rollen oder Features administriert werden sollen, die nicht in Windows 10 enthalten sind. Da dies bei Hyper-V nicht der Fall ist, müssen Sie in der Systemsteuerung lediglich das Feature Hyper-V-GUI-Verwaltungstools aktivieren. Der Zugriff auf einen Host per Hyper-V-Manager ist standardmäßig nur lokalen Administratoren erlaubt. Allerdings gibt es auf den Windows-Server-2016-Systemen ebenfalls eine Gruppe Hyper-V-Administratoren. Hier können Sie bei Bedarf Benutzer eintragen, die keine lokalen Administratoren sind, aber trotzdem das Hyper-V-Management übernehmen sollen. Mit dem Hyper-V-Manager von Windows 10 können Sie auch Hosts unter Windows Server 2012 und 2012 R2 verwalten. Bedenken Sie, dass auch hierfür natürlich die passenden administrativen Rechte nötig sind.

3.4 Umgang mit der Host-CPU Das Wichtigste, was Sie über die CPU Ihres Host-Servers wissen müssen, finden Sie weiter vorn in diesem Kapitel in Abschnitt 3.1.2, »Die CPU auswählen«. In Windows Server 2016 hat Hyper-V für die CPU zwei neue interessante Funktionen bekommen, die wir im Folgenden vorstellen.

3.4.1 Host Resource Protection Es kann vorkommen, dass Sie innerhalb einer VM eine Applikation betreiben, die »unbotmäßig« mit den Ressourcen des Host-Servers umgeht. Hyper-V enthält hierfür Schutzmechanismen: Sollte eine VM zu viel RAM benötigen, können Sie die RAMAusstattung der VM begrenzen. Gegen zu intensive Storage-Zugriffe kann es im Einzelfall helfen, Storage-QoS zu aktivieren. Ähnlich ist es bei der Netzwerkkarte: Lastet eine VM-Applikation das Netzwerk zu stark aus, können Sie in der VM-Konfiguration

134

3.4

Umgang mit der Host-CPU

eine Bandbreitenbeschränkung setzen. Details hierzu finden Sie in Abschnitt 6.2.7, »Festplatten«. Bislang konnte es allerdings geschehen, dass eine Applikation die virtuellen Prozessoren einer VM völlig auslastet und damit auch den Host und alle anderen VMs in Mitleidenschaft zieht. Dem konnten Sie bislang nur vorbeugen, indem Sie die CPULeistung für eine VM pauschal begrenzten. Das hat allerdings Nebenwirkungen, weil es dauerhaft wirkt. Hier hat Microsoft in Windows Server 2016 nun eine neue, dynamische »Bremse« eingebaut: Die Host Resource Protection setzt kein pauschales Limit für die CPU-Versorgung, sondern greift dann ein, wenn der Host feststellt, dass eine VM über Gebühr Rechenleistung beansprucht. Die Funktion können Sie pro VM aktivieren; standardmäßig ist sie abgeschaltet. Um sie zu aktivieren, nutzen Sie den Schalter -EnableHostResourceProtection des Cmdlets Set-VMProcessor: Set-VMProcessor -VMName 'SRV01' -EnableHostResourceProtection

Näheres dazu lesen Sie in Abschnitt 6.2.6, »Prozessor«.

3.4.2 Nested Virtualization Eine Funktion, die von vielen Administratoren seit Jahren gefordert wurde, ist die Nested Virtualization. Das bedeutet näherungsweise übersetzt »verschachtelte Virtualisierung«. Damit können Sie einen Hyper-V-Host betreiben, der selbst eine virtuelle Maschine innerhalb von Hyper-V ist. Bisweilen bezeichnet man dies auch als mehrschichtige Virtualisierung. VMware vSphere und einige andere Hypervisoren beherrschen dies schon länger. Microsoft hatte sich bislang geweigert, diese Funktion zu implementieren, und zwar durchaus aus gutem Grund: Es gibt kaum praktische Anwendungsfälle dafür. Es liegt auf der Hand, dass eine VM, die innerhalb einer VM läuft, nicht besonders leistungsfähig ist. Auch die Stabilität eines solchen Systems kann eingeschränkt sein. Tatsächlich findet die Technik vor allem in Testlabors und für Schulungen ihren Einsatz. Mit Windows Server 2016 hat Microsoft allerdings ein neues Anwendungsgebiet ersonnen, das von der Nested Virtualization profitiert: Hyper-V-Container. Dabei handelt es sich um die Container-Virtualisierung, die wir in Kapitel 7 ausführlich vorstellen. Windows bringt gleich zwei Varianten davon mit: Windows-Container nutzen die »native« Container-Technik, bei der alle Container innerhalb desselben HostBetriebssystems laufen. Für eine stärkere Isolation lassen sich aber auch Hyper-VContainer definieren, bei denen jeder Container in einer eigenen, rudimentären Hyper-V-VM läuft. Damit man nun trotzdem die Möglichkeit hat, einen Container-Host als virtuelle Maschine zu betreiben (dies ist beispielsweise in der Azure-Cloud unabdingbar), sahen

135

3

3

Host-Server

3.5

Arbeitsspeicher

die Entwickler in Redmond plötzlich Bedarf nach einer verschachtelten Virtualisierung. Daher bringt Hyper-V dieses Feature nun mit, und man kann es tatsächlich auch außerhalb der Container-Technik einsetzen. Damit eröffnen sich auch in der Microsoft-Welt neue Möglichkeiten für Labor und Training.

Wenn Ihr Host-Server die Voraussetzungen erfüllt, legen Sie eine passende VM an (siehe Abbildung 3.17). Bevor Sie sie starten, reichen Sie die CPU-Virtualisierung an diese VM durch:

In der aktuellen Fassung müssen folgende Voraussetzungen erfüllt sein, damit Sie die Funktion nutzen können:

Wenn Sie die VM nun starten, installieren Sie Windows Server 2016 als Gast-Betriebssystem. Danach aktivieren Sie im Server-Manager (oder per PowerShell) die Rolle Hyper-V. Hat alles geklappt, dann lässt Windows dies zu. Nach der Grundkonfiguration können Sie in der so eingerichteten VM (die jetzt ein virtueller Host ist) eine VM der »zweiten Ebene« einrichten und installieren.

왘 Der (physische) Hyper-V-Host muss eine Intel-CPU mit der Funktion VT-x haben.

(AMD-Prozessoren werden derzeit nicht dafür unterstützt.) 왘 Das Host-Betriebssystem und das Betriebssystem des virtuellen Hosts muss

Windows Server 2016 (oder höher) bzw. Windows 10 sein. 왘 Der virtuelle Host (also die VM) muss als Generation-2-VM eingerichtet sein und

mindestens 4 GB RAM zur Verfügung haben. Dynamic Memory ist nicht erlaubt. 왘 Die virtuellen Netzwerkkarten müssen das MAC-Adress-Spoofing erlauben. 왘 Die VM darf keine Checkpoints und keinen gespeicherten Systemstatus haben

3

Set-VMProcessor 'Gen-2' -ExposeVirtualizationExtensions $true

Unter folgendem URL finden Sie ein umfangreiches PowerShell-Skript, das die Voraussetzungen für eine vorhandene VM prüft und sie, wenn möglich, für die verschachtelte Virtualisierung vorbereitet: https://raw.githubusercontent.com/Microsoft/Virtualization-Documentation/ master/hyperv-tools/Nested/Enable-NestedVm.ps1 (Kurzlink: http://qccq.de/s/v303)

und darf nicht per Live-Migration auf einen anderen Host verschoben werden. 왘 Zusätzlich muss der physische Host die Virtualisierungsfunktionen seiner CPU an

die VM weiterreichen.

3.5 Arbeitsspeicher Der Arbeitsspeicher ist in der Server-Virtualisierung eine besondere Ressource. Das liegt daran, dass er sich als einziger der vier Kernkomponenten – Prozessor, Arbeitsspeicher, Netzwerkkarte, Speichersystem – nicht wirksam überbuchen lässt. Einige Virtualisierungshersteller behaupten allerdings, dass sie genau dies könnten. Daher lohnt ein näherer Blick. Beginnen wir dazu mit den anderen drei Komponenten und sehen wir uns an, wie dort die Überbuchung funktioniert: 왘 Der Prozessor kann von einer Aufgabe auf eine andere umschalten. In modernen

Betriebssystemen tut er dies auch sehr häufig, denn diese Betriebssysteme haben einen eigenen Zeitplaner, der die verschiedenen Aufgaben, die »parallel« zu erledigen sind, abwechselnd an den Prozessor weiterleitet. Dazu unterteilen SoftwareEntwickler ihre Programme in Prozesse und Threads, die der Prozessor als Einheiten bearbeiten kann. Systeme mit mehr als einem Prozessor (bzw. mit mehr als einem Prozessorkern oder Core) können je CPU einen Thread bearbeiten, also effektiv mehrere gleichzeitig.

Abbildung 3.17 Eine VM in einer VM: Hyper-V läuft hier als virtueller Host und verwaltet seinerseits virtuelle Maschinen.

136

In der Server-Virtualisierung bildet jede virtuelle Maschine eine solche Einheit, die durch den Hypervisor mit Prozessorzeit versorgt wird. Moderne CPUs gehen dabei sehr effizient vor: Ältere Prozessorsysteme benötigten relativ lange, um von einem virtuellen Server auf einen anderen umzuschalten. Genau diese »Kontextwechsel« laufen mit heutiger Hardware sehr schnell ab.

137

3

Host-Server

Genau genommen lässt sich eine CPU also auch nicht überbuchen, denn sie kann immer nur eine Aufgabe erledigen. Da CPUs aber sehr schnell arbeiten, können sie problemlos zwischen vielen Aufgaben wechseln und so die Arbeit gewissermaßen parallel erledigen. 왘 Die Netzwerkkarte arbeitet ohnehin »häppchenorientiert«, denn sie verarbeitet

Netzwerkpakete (Frames bzw. Packets) verschiedener Herkunft. Bei ausgehendem Netzwerkverkehr können die Daten von verschiedenen Applikationen stammen, bei eingehendem Verkehr von verschiedenen anderen Systemen. Es sind hier also kaum besondere Vorkehrungen nötig, um eine physische Netzwerkkarte »parallel« für mehrere virtuelle Server bereitzustellen. Eine Ausnahme bilden hier spezielle Hardware-Merkmale wie etwa die MACAdresse der Netzwerkkarte. Diese wird normalerweise von der Firmware der Karte vorgegeben. Das lässt sich aber umgehen, und so definiert der Hypervisor für jede virtuelle Netzwerkkarte eine eigene, unabhängige MAC-Adresse, die von der physischen Netzwerkkarte ohne Rücksicht auf ihre eigene Identität einfach weitergegeben wird. 왘 Auch das Speichersystem (im Sinn einer Festplatte) kann problemlos mit »Über-

3.5

Arbeitsspeicher

waltet, ist viel größer als der real eingebaute Arbeitsspeicher. Daten, die nicht in das RAM passen, schreibt Windows daher auf die Festplatte. Optimierungsmechanismen sorgen dafür, dass aktuell benötigte Daten möglichst im RAM bleiben und eher solche Daten, die momentan nicht im Zugriff stehen, auf der Platte landen. Da die Informationen im Arbeitsspeicher in sogenannten Speicherseiten oder Pages organisiert sind, bezeichnet man diesen Vorgang als Paging. Genau diesen Trick wenden auch einige andere Virtualisierungshersteller an, um ihren Host-Servern ein »Überbuchen« (im Englischen: Overcommit) des knappen Arbeitsspeichers zu ermöglichen. Der Nachteil dabei ist: Dies beeinträchtigt die Leistung der virtuellen Maschinen sehr stark, und der Nachteil ist dabei erheblich größer als beim Paging, das Sie von Windows kennen. Denn Windows weiß selbst, welche Daten »heiß« sind und welche »kühler«. Das heißt, Windows weiß, welche Priorität es setzen muss, denn das Betriebssystem hat hier eine »Innensicht«. Der Hypervisor allerdings kann nur »von außen« auf die Betriebssysteme der virtuellen Maschinen schauen und hat keine Kenntnis davon, welche Daten im RAM gerade aktiv sind und welche eine Auslagerung besser vertragen. Man spricht hierbei auch vom Second Level Paging, weil der Hypervisor den Speicher nur indirekt verwalten kann.

buchung« umgehen und mehrere virtuelle Server parallel bedienen. Der Trick besteht hier darin, dass nicht die ganze Festplatte einer VM zugeteilt wird, sondern nur eine Datei. Spezielle Treiber sorgen dann dafür, dass diese Datei für die VM wie eine eigene Festplatte »aussieht«.

Diese Misere ist auch den anderen Herstellern bekannt. Daher wenden sie noch eine Reihe anderer Tricks und Techniken an, um möglichst selten Arbeitsspeicher auf die Festplatte auslagern zu müssen. Eine Tatsache bleibt aber bestehen: Nichts ist so schnell wie der Zugriff auf »echten« Arbeitsspeicher.

Da es zu den Kernaufgaben eines Speichersystems gehört, viele verschiedene Dateien möglichst performant zu verarbeiten, stellt also auch die Speichervirtualisierung kein grundsätzliches Problem dar.

Eine kurze Webrecherche zeigt Ihnen erbitterte Debatten über die Frage, ob Arbeitsspeicher in einer virtualisierten Umgebung »überbucht« werden soll oder nicht. Auch Microsoft und seine Mitbewerber haben sich intensiv an dieser Diskussion beteiligt. Folgende Argumente haben sich dabei herausgebildet:

왘 Völlig anders verhält sich dies aber beim Arbeitsspeicher. Er lässt sich zwar in ein-

zelne Abschnitte aufteilen, die man einzelnen VMs zuweisen kann. Eine Überbuchung wie bei den anderen Komponenten ist hier aber prinzipiell nicht möglich. Hat eine virtuelle Maschine Daten im Arbeitsspeicher abgelegt, ist dieser Speicher mit den Daten belegt. Ein Prozessor kann einfach auf die nächste VM umschalten, der Speicher kann das aber nicht – wo sollte er schließlich mit den Daten hin, die er gerade hält? Den Inhalt des Arbeitsspeichers kann man nicht einfach gegen einen anderen austauschen.

왘 Ein wesentlicher Vorteil der »Überbuchung« des RAMs ist eine hohe Flexibilität.

Auch wenn ein Host-Server beispielsweise über 64 GB an RAM verfügt, ist es mit diesem Ansatz möglich, mehrere virtuelle Maschinen dort zu starten und zu betreiben, denen zusammen mehr als 64 GB Arbeitsspeicher zugewiesen wurde. In der Praxis wird jeder Server meist weniger RAM benötigen, als er nutzen könnte, daher reichen die Ressourcen aus. Paging oder andere Kniffe sind nur sehr selten nötig. 왘 Der wichtigste Nachteil der Technik: Genau wie bei Flugbuchungen oder bei einer

3.5.1 Arbeitsspeicher »überbuchen«? Tatsächlich gibt es natürlich Methoden, um belegten Arbeitsspeicher zugunsten anderer Daten freizugeben, ohne die ursprünglichen Daten zu verlieren. Nicht zuletzt beruht das gesamte Windows-Speicher-Management auf diesem Prinzip, das als Auslagerung oder Paging bekannt ist: Der Speicherbereich, den das Betriebssystem ver-

138

Sparkasse besteht das Problem nicht im Normalbetrieb, sondern in der Ausnahmesituation. Da fast nie alle Passagiere zum Flug erscheinen, kann man durchaus mehr Tickets verkaufen, als das Flugzeug Plätze hat. Ebenso kann eine Sparkasse einen Großteil des eingelegten Geldes verleihen, weil nicht alle Kunden gleichzeitig ihre Ersparnisse abheben möchten.

139

3

3

Host-Server

Sollte nun aber doch der Fall eintreten, dass mehr Passagiere kommen, als es Sitze gibt, oder dass die Kunden mehr Geld abheben möchten, als die Bank in bar gerade zur Verfügung hat, dann wird es schwierig. Im Fall der Server-Virtualisierung bedeutet das, dass meistens die gesamte Umgebung langsam wird, gleichgültig, ob es sich um wichtige oder weniger wichtige Systeme handelt. Dann hilft nur noch, Systeme gar nicht erst zu starten, nachträglich auf andere Hosts zu verschieben oder ungenutzte Systeme herunterzufahren.

3.5

Arbeitsspeicher

3.5.3 Dynamic Memory – ein Ausweg? Mit dem Service Pack 1 für Windows Server 2008 R2 hat Microsoft eine neue Technik eingeführt, die das bisher starre System der Speicherzuweisung zumindest teilweise flexibler gestaltet. Unter dem Namen Dynamic Memory steht eine Funktion zur Verfügung, mit der eine virtuelle Maschine und der Host-Server gemeinsam aushandeln können, wie viel RAM die VM zur Nutzung erhält (siehe Abbildung 3.18).

Pro oder kontra? Wie Sie leicht erkennen können, haben beide Seiten ihre Berechtigung. Microsoft hat sich ebenso deutlich auf der Kontra-Seite positioniert wie seine Mitbewerber die ProSeite vertreten. Im Rahmen dieses Buches werden wir an der Diskussion nicht teilnehmen, sondern Ihnen die Grundlagen vermitteln, um den technischen Ansatz von Hyper-V zu verstehen und für sich zu nutzen.

3.5.2 Hyper-V und der statische Arbeitsspeicher Mit Hyper-V hat Microsoft sich zum Zeitpunkt des ersten Auftritts im Frühjahr 2008 in der Position des Angreifers befunden. Ein Urteil über seinen Hypervisor konnte das Unternehmen sich auf keinen Fall erlauben: dass er langsam sei. Genau darin liegt der wichtigste Grund dafür, dass Hyper-V keine Überbuchung des Arbeitsspeichers zulässt. Die Menge an RAM, die der Administrator einer virtuellen Maschine zuweist, ist fest für sie reserviert, solange diese VM läuft. Dadurch kann sich die VM stets auf die ungeschmälerte Leistung dieser Ressource verlassen. Durch diese statische Zuweisung allerdings ist ein Hyper-V-System oft sehr unflexibel. Kaum ein Administrator kann wirklich genau einschätzen, wie viel RAM ein virtueller Server benötigt – im Zweifelsfall wird er mehr Speicher zuweisen, als notwendig ist. Das führt dazu, dass der verfügbare Arbeitsspeicher des Host-Servers schnell ausgebucht ist, aber vielleicht ein größerer Teil gar nicht genutzt wird. Besonders in Cluster-Umgebungen entsteht daraus bisweilen ein Problem. Ein Cluster sollte immer so dimensioniert sein, dass ein oder mehrere Host-Server ausfallen können, ohne dass die Anwender auf die produktiven VM-Systeme verzichten müssen. Im Normalbetrieb müssen daher immer Ressourcen frei bleiben. Bei einem Cluster aus zwei Servern bedeutet dies, dass jeder der Server genügend Arbeitsspeicher haben muss, um alle virtuellen Maschinen gleichzeitig zu betreiben, falls der andere Server ausfällt. Das bedeutet aber auch, dass im Normalfall, in dem beide Server fehlerfrei laufen, jeder Server über ungenutzte RAM-Reserven von 50 Prozent oder mehr verfügt.

140

Abbildung 3.18 Dynamic Memory (»Dynamischer Arbeitsspeicher«) können Sie für einzelne virtuelle Maschinen einrichten und konfigurieren.

Dynamic Memory ausdrücklich einschalten Wichtig dabei: Dynamic Memory ist nur eine Option, und sie ist nicht standardmäßig aktiv. Sofern Sie diese Technik für eine bestimmte VM nutzen möchten, müssen Sie sie ausdrücklich einschalten. Das erfordert bei einer bereits existierenden VM, dass Sie diese herunterfahren und nach der Änderung neu starten. Bevor Sie dies tun, sollten Sie sich daüber informiert haben, ob die Anwendungen, die in der VM laufen, mit dynamischem Speicher kompatibel sind.

141

3

3

Host-Server

3.5

Für Dynamic Memory verwaltet das Management-OS den Arbeitsspeicher des HostServers als Speicher-Pool. Ein Host könnte beispielsweise mit 144 GB an Arbeitsspeicher konfiguriert sein. Von diesem Pool zieht Hyper-V zunächst den Speicher ab, der den laufenden VMs statisch zugewiesen ist. Laufen in unserem Beispiel etwa ein Exchange Server mit 24 GB, ein Domänencontroller (DC) mit 4 GB, vier ApplikationsServer mit je 8 GB und drei weitere Server mit je 4 GB an fester Speicherzuordnung, so stehen im dynamischen Pool noch 72 GB an Speicher zur Verfügung. Die Reserve, die das Management-OS selbst benötigt, wird ebenfalls dynamisch bestimmt. Der Einfachheit halber gehen wir daher von etwa 70 GB aus, die noch für VMs bereitstehen. Eine virtuelle Maschine, die Dynamic Memory nutzt, erhält drei Vorgabewerte (siehe Abbildung 3.19): 왘 Minimaler RAM

Dieser Wert gibt an, wie viel RAM auf jeden Fall für die betreffende VM reserviert ist. Diesen Arbeitsspeicher belegt die VM also minimal, auch wenn sie nach dem Startvorgang weniger Speicher benötigt. Der Wert muss so groß sein, dass das virtuelle System und all seine Applikationen im Normalbetrieb ohne größere Lastsituation stabil und zufriedenstellend laufen. 왘 Maximaler RAM

Bis zu diesem Wert kann die VM ihren Arbeitsspeicher maximal ausbauen, wenn der Minimalwert nicht ausreicht. In Zeiten großer Last kann das Gast-System also zusätzlichen Speicher anfordern, um weitere Daten im RAM ablegen zu können. Mehr als diese Menge an RAM wird der VM von der Parent-Partition nicht zugewiesen, selbst wenn hohe Last auf dem Gast-System liegt. Voreingestellt ist 1 TB, wenn Sie die VM über den Hyper-V-Manager erzeugt haben. Minimaler RAM

StartRAM

Maximaler RAM

Arbeitsspeicher

왘 Start-RAM (Arbeitsspeicher beim Start)

Diese Menge an Arbeitsspeicher reserviert Hyper-V für die VM, wenn diese startet. Da manche Applikationen beim Starten deutlich mehr Speicher benötigen als im laufenden Betrieb – etwa weil sie während des Startvorgangs ihre Daten überprüfen müssen –, ist es so möglich, dass eine VM nach dem Hochfahren wieder Speicher freigibt und auf den Minimal-RAM-Wert zurückfällt. Weniger als dieser Wert wird einem Anwender oder einer Applikation innerhalb der VM nie angezeigt. Würde in unserem Beispiel die Administratorin Anna Logie bei rein statischer Speicherzuweisung noch vier Server à 16 GB Arbeitsspeicher starten, stünden nur noch etwa 6 GB zur Verfügung. Den Versuch, dann noch eine VM mit 8 GB an RAM zu starten, würde Hyper-V mit einer Fehlermeldung quittieren. Das wäre besonders dann ärgerlich, wenn Anna Logie dabei feststellt, dass sie die bisher gestarteten Server eigentlich viel zu großzügig dimensioniert hat und alle vier VMs durchaus mit 8 GB Speicher auskämen. Mit Dynamic Memory könnte die Situation folgendermaßen aussehen: 왘 Die vier genannten VMs sind nun nicht statisch mit 16 GB, sondern mit jeweils

8 GB als Minimalspeicher konfiguriert. Anna startet diese, sodass aus dem Speicher-Pool weitere 32 GB reserviert sind. 왘 Zwei der VMs (nennen wir sie VM-47 und VM-11) benötigen mehr Speicher. Über

die Integrationsdienste melden sie diesen Bedarf an das Management-OS, das im Pool noch etwa 40 GB vorfindet. Die VMs können daher mehr RAM erhalten, beispielsweise jeweils 4 GB. 왘 Anna startet nun noch drei weitere Server à 8 GB. Fest zugewiesen sind nun 128 GB

des insgesamt 144 GB großen Arbeitsspeichers. Weitere 8 GB sind dynamisch an die beiden VMs VM-47 und VM-11 zugeteilt. Es verbleiben also noch 8 GB im Pool. 왘 Nun startet Anna eine weitere VM namens VM-99, die 8 GB als Minimal-RAM ein-

getragen hat. Im statischen Modell könnte Hyper-V diese VM nicht mehr starten. Dank Dynamic Memory prüft die Parent-Partition, ob in dem dynamisch zugewiesenen Bereich aktuell Speicher ungenutzt ist. Dazu kommuniziert sie über den VMBus mit den Integrationsdiensten der beiden VMs VM-47 und VM-11. 왘 Sofern diese VMs momentan ihre zusätzlichen 4 GB nicht vollständig benötigen,

VM1

»Balloon«

Physischer Arbeitsspeicher im Host

Abbildung 3.19 Mit Dynamic Memory lässt sich eine virtuelle Maschine flexibel mit Arbeitsspeicher versorgen. Der Host passt die RAM-Ausstattung an den Bedarf an.

142

geben sie diese ganz oder teilweise wieder zurück. Das Management-OS weist den Speicher an VM-99 zu, die nun genügend RAM zum Starten vorfindet. Abbildung 3.20 zeigt die Speicherbelegung eines Hyper-V-Hosts zu drei unterschiedlichen Zeitpunkten. Durch die Nutzung von Dynamic Memory ist Hyper-V in der Lage, den verfügbaren Speicher umzuverteilen. Dabei werden die konfigurierten Speichergrenzen und der aktuelle Bedarf der virtuellen Maschinen beachtet.

143

3

3

Host-Server

3.5

VM1

unter Druck steht), kann sie von einer virtuellen Maschine nicht genutztes RAM zurückfordern. Es gibt allerdings im Betriebssystem kein Gegenstück zu Hot-Add Memory, das Speicher wieder entfernen würde. Stattdessen bedient Hyper-V sich hier eines Tricks, den auch andere Virtualisierungsanbieter nutzen: Ballooning.

VM2

Physischer Arbeitsspeicher im Host

VM1

VM2

VM3

Physischer Arbeitsspeicher im Host

VM1

VM2

Arbeitsspeicher

VM3

VM4

Physischer Arbeitsspeicher im Host

Abbildung 3.20 Durch Dynamic Memory erhalten virtuelle Maschinen bei Bedarf mehr Speicher. Benötigt der Host später RAM, um ihn anderen VMs zuzuteilen, kann er vergebenen Speicher wieder zurückfordern, wenn dieser nicht verwendet wird.

Mit dieser Technik teilt das Management-OS den Integrationsdiensten der VM mit, dass diese einen Teil ihres Arbeitsspeichers wieder abgeben muss. Die Integrationsdienste kennzeichnen nun genau diesen Teil des Arbeitsspeichers als »belegt«, obwohl tatsächlich gar keine Daten darin liegen. Das ist wie ein Ballon, der im Speicher aufgeblasen wird: Man kann an das Innere nicht heran, obwohl der Ballon hohl ist. Das Betriebssystem »sieht« weiterhin die große Menge an Speicher, kann aber einen Teil davon nicht nutzen, als wären dort Daten einer Applikation gespeichert. Genau diesen »Balloninhalt« an freiem Speicher nimmt sich nun das Management-OS, um ihn einer anderen VM zuzuteilen. Entspannt sich die Situation auf der Host-Ebene und wird wieder physischer Arbeitsspeicher frei, kann die VM bei Bedarf erneut zusätzlichen Speicher anfordern. Wird ihr dieser zugesprochen, wird sie den »Ballon« zunächst verkleinern und den Speicherbereich wieder nutzen, den sie eigentlich schon hatte. Ist der Bedarf noch größer, kann die VM auch erneut per Hot-Add Memory ihre RAM-Menge erhöhen.

Wie die VM auf Dynamic Memory reagiert

3.5.4 Wie Dynamic Memory funktioniert Es ist kaum bekannt, dass Windows bereits seit Windows Server 2003 SP1 die Funktion Hot-Add Memory unterstützt (siehe »Hot-Add Memory Support in Windows Server«, http://msdn.microsoft.com/en-us/library/windows/hardware/gg487553.aspx, Kurzlink: http://qccq.de/s/h301). Zunächst gab es diese Funktion nur in der Enterprise und der Datacenter Edition, weil der Bedarf für dieses Feature aus großen Rechenzentren kam. In solchen Umgebungen war Server-Hardware teilweise bereits so aufgebaut, dass ein Administrator im laufenden Betrieb Speichermodule einbauen konnte. Zudem gab es Konfigurationen mit Speicherspiegelung, also einer Art RAID-1 für RAM-Module. Dieses Merkmal bildet die Grundlage von Dynamic Memory. Wenn eine virtuelle Maschine in Hyper-V für Dynamic Memory konfiguriert ist und ihr Betriebssystem HotAdd Memory sowie eine passende Version der Integrationsdienste unterstützt, kann diese VM bei der Parent-Partition zusätzlichen Arbeitsspeicher anfordern, sofern der Bedarf daran besteht. Falls noch genügend physischer Speicher vorhanden ist, kann das Management-OS der VM mehr RAM zuteilen, den das Gast-Betriebssystem dank der Hot-Add-Memory-Funktion auch umgehend nutzen kann. Wenn später die Situation eintritt, dass die Parent-Partition Arbeitsspeicher an andere VMs zuweisen muss (dies nennt man Memory Pressure, weil das RAM gleichsam

144

Die Auswirkungen von Dynamic Memory können für viele Applikationen, aber auch für Anwender unerwartet sein und zu Irritation oder sogar zu Ausfällen führen. Dies ist ein Grund dafür, dass Dynamic Memory keineswegs ein »Problemlöser« für alles ist. Stellen Sie sich einen virtuellen Client mit Windows 8 vor, den Sie mit einer StartArbeitsspeichergröße von 512 MB konfiguriert haben. Nach dem Starten der VM ruft der Anwender eine Applikation auf, und der Client fordert zusätzlichen Arbeitsspeicher an, sodass beispielsweise 680 MB zur Verfügung stehen. Der Anwender öffnet den Task-Manager und sieht genau diesen Wert von 680 MB. Er ist aber Werte von 4 GB oder 8 GB gewohnt. Obwohl die momentane Ausstattung für seine Aufgaben völlig ausreicht (und obwohl sein Client bei Bedarf auch mehr Speicher erhalten könnte), könnte der Anwender verärgert sein, dass er mit so geringen Ressourcen bedacht wird. Denken Sie nun an einen neuen virtuellen Server, den Sie im Vertrauen auf Dynamic Memory ebenfalls für eine Startgröße von 512 MB eingerichtet haben. Sie möchten dort SQL Server 2016 installieren – doch das Setup-Programm bricht ab, weil es mindestens 1 GB an Arbeitsspeicher voraussetzt, um die Software überhaupt einzurichten. Von Dynamic Memory weiß Setup nichts, es sieht nur den momentanen Wert von 512 MB. Hat Dynamic Memory hingegen aufgrund einer vorübergehenden Lastsituation für eine VM viel Speicher angefordert, etwa 20 GB, werden jeder Applikation, die die

145

3

3

Host-Server

RAM-Größe abfragt, immer 20 GB berichtet. Und zwar auch dann, wenn die VM längst wieder auf einen Bedarf unterhalb von 2 GB zurückgefallen ist. Solange das Betriebssystem der VM nicht neu startet, wird es immer von 20 GB Speicher ausgehen, von denen ein Großteil »belegt« ist – durch das Ballooning.

3.5.5 Dynamic Memory konfigurieren Auf einem Host-Server mit Windows Server 2016 ist Dynamic Memory immer verfügbar, denn es handelt sich um eine Grundfunktion des Betriebssystems. Die Konfiguration geschieht auf der Ebene einzelner virtueller Maschinen und kann direkt beim Erzeugen einer neuen VM oder auch jederzeit nachträglich erfolgen. Beachten Sie dabei aber, dass einige Änderungen an der Speicherkonfiguration einen Neustart der betreffenden VM erfordern. Wenn Sie die Einstellungen einer virtuellen Maschine per Rechtsklick oder über den Bereich Aktionen im Hyper-V-Manager aufrufen, finden Sie im Abschnitt Arbeitsspeicher die folgenden Einstellungsmöglichkeiten: 왘 Statisch

Wählen Sie diese Option aus, bleibt Dynamic Memory für die virtuelle Maschine deaktiviert. Sie erhält beim Starten die hier angegebene Menge an RAM und belegt diese, bis Sie diese VM herunterfahren oder ihren Zustand speichern. Eine kleine Ausnahme von diesem Prinzip gibt es neu in Windows Server 2016: Sie können den statischen Arbeitsspeicher ändern, während die betreffende VM läuft. Der neue Wert ist dann aber auch wieder statisch reserviert und gilt so lange, bis Sie ihn erneut ändern oder die VM herunterfahren oder ihren Zustand speichern. 왘 Dynamisch

In diesem Bereich legen Sie die Vorgaben für Dynamic Memory in der VM fest. Die Bedeutung der Werte Start-RAM, Minimaler RAM und Maximaler RAM haben wir in Abschnitt 3.5.3, »Dynamic Memory – ein Ausweg?«, bereits erläutert. Folgende Werte können Sie einstellen: – Arbeitsspeicher beim Start: Wählen Sie diesen Wert so, dass die VM und all ihre Applikationen fehlerfrei starten können. – Minimales RAM: Diesen Wert sollten Sie so setzen, dass alle Applikationen ordnungsgemäß laufen, wenn keine Last auf dem System herrscht. Sofern die VM gerade läuft, können Sie den Wert nur verkleinern. – Maximales RAM: Wählen Sie diese Einstellung so, dass die VM in allen relevanten Situationen zufriedenstellend arbeitet. Sollte der Maximalwert höher liegen als der im Hotsystem verfügbare physische Speicher, wird das Maximum

146

3.5

Arbeitsspeicher

niemals ausgeschöpft. Im laufenden Betrieb können Sie das Maximum nur vergrößern. – Arbeitsspeicherpuffer: Der Puffer soll Latenzen bei der Zuweisung von Arbeitsspeicher umgehen. Zwar reagiert Dynamic Memory üblicherweise sehr schnell, doch es kann sein, dass eine Applikation schneller Speicher anfordert, als die Parent-Partition und die Integrationsdienste der VM diesen bereitstellen. Um hier Engpässe zu vermeiden, reserviert die Parent-Partition für die VM also mehr RAM, als diese eigentlich angefordert hat. Der Prozentwert bezieht sich dabei auf die Menge an angefordertem und bestätigtem Speicher (im Original bezeichnet als Committed Memory). Daraus ergibt sich folgende Formel: VM-Speicher = angeforderter Speicher + angeforderter Speicher × Memory Buffer Hat die VM etwa 4 GB an Dynamic Memory erhalten und beträgt der Puffer 50 Prozent, so reserviert Hyper-V weitere 2 GB für die VM, die im Betriebssystem aber nicht sichtbar sind. Bei der nächsten Erweiterung kann die VM auf diese 2 GB aber sehr schnell zugreifen. Der Puffer kann höher liegen als 100 Prozent (bis 2000 Prozent, also das Zwanzigfache), wobei Werte oberhalb von 50 Prozent praktisch nie sinnvoll sind. – Arbeitsspeicherumfang: Hier liegt wieder eine irreführende Übersetzung vor: Der Originalbegriff lautet Memory Weight und bezeichnet die Gewichtung für den Arbeitsspeicher (nicht den Umfang). Mit diesem Schieberegler können Sie die Priorität einzelner VMs untereinander steuern, wenn es sich um die Verteilung von Arbeitsspeicher aus dem Pool handelt. Je höher der Wert ist, desto wahrscheinlicher wird die betreffende VM zusätzlichen Speicher erhalten, falls die Parent-Partition nur noch wenig RAM zu verteilen hat. Hinter dem Regler verbirgt sich eine Skala von 0 bis 100. Bei Bedarf können Sie die Werte per PowerShell mit dem Cmdlet Set-VMMemory numerisch setzen.

3.5.6 Smart Paging Eine weitere Einstellung in der VM-Konfiguration hat ebenfalls mit Dynamic Memory zu tun. Im Abschnitt Speicherort für die Smart Paging-Datei der VM-Einstellungen können Sie einen Speicherpfad angeben. An diesen Ort kann Hyper-V dann beim Neustarten der VM Teile des VM-Arbeitsspeichers auslagern, falls nicht genügend physischer Arbeitsspeicher verfügbar ist. Beachten Sie, dass es sich dabei nicht um Second Level Paging handelt, das wir in Abschnitt 3.5.1, »Arbeitsspeicher ›überbuchen‹?«, vorgestellt haben. Im Unterschied zum dort beschriebenen Verfahren deckt das Smart Paging ausschließlich den Neustartvorgang einer VM ab, und zwar nur in der folgenden Situation:

147

3

3

Host-Server

3.5

왘 Die virtuelle Maschine wird aus dem laufenden Betrieb neu gestartet. 왘 Es ist genügend Arbeitsspeicher für das Minimal-RAM verfügbar. 왘 Es ist aber nicht ausreichend Speicher für das Start-RAM vorhanden, und andere

VMs können per Dynamic Memory keinen Speicher zurückgeben. Sobald der Neustart abgeschlossen ist und die VM im Normalbetrieb weniger RAM benötigt, wird sie über das Ballooning ihren Speicherbedarf reduzieren, und das Management-OS löscht die Smart-Paging-Datei.

3.5.7 NUMA-Einstellungen In modernen Servern finden Sie eine Hardware-Funktion vor, die in seltenen Situationen die Leistung virtueller Systeme beeinträchtigen kann – obwohl sie eigentlich zu hoher Performance beitragen soll. Die Rede ist von der NUMA-Architektur (Non-Uniform Memory Access). In einem NUMA-System sind die RAM-Speicherbänke des Motherboards den einzelnen Prozessorsockeln zugeordnet (siehe Abbildung 3.21). Hierbei spricht man dann von NUMA-Knoten (NUMA Nodes). Der Zugriff eines Prozessors auf »seine« Speichermodule verläuft dabei besonders schnell, während dies langsamer abläuft, wenn ein Prozessor auf Speicherbereiche zugreifen muss, die einem der anderen Prozessoren zugeordnet sind. Aus diesem Grund ist es sehr wichtig, die RAM-Module beim Hardware-Aufbau eines Servers exakt so einzubauen, wie der Hersteller es vorgibt. RAM- RAMBank 1 Bank 2

RAM- RAMBank 5 Bank 6

RAM- RAMBank 3 Bank 4

CPU1

CPU2

CPU3

CPU4

RAM- RAMBank 7 Bank 8

Abbildung 3.21 Die NUMA-Architektur bindet einzelne Speicherbänke über einen direkten Bus sehr schnell an bestimmte CPUs an. Der Zugriff auf RAM einer anderen CPU ist dann möglich, aber deutlich langsamer.

Moderne Betriebssysteme und Applikationen sind für NUMA optimiert. Das heißt, sie versuchen, ihre Prozesse und Threads so zu organisieren, dass Prozessor- und

148

Arbeitsspeicher

Speicheraufrufe immer über denselben NUMA-Knoten erfolgen. Auch Hyper-V arbeitet auf diese Weise und erreicht so in den meisten Situationen Performancevorteile: Der Host versucht, VMs so auf die NUMA-Knoten aufzuteilen, dass sie mit »lokalem« Speicher einen schnellen RAM-Zugriff haben. Seit Windows Server 2012 kann Hyper-V zudem die NUMA-Topologie an die VMs durchreichen (Virtual NUMA). Dadurch ist deren Betriebssystem in der Lage, Prozesse und Applikationen gezielt an NUMA-Grenzen auszurichten. Nicht jede Anwendung beherrscht dies, doch gerade performancehungrige Applikationen wie SQL Server können davon profitieren. Es kann aber natürlich Situationen geben, in denen diese Optimierung nicht gelingt – dann ist der Speicherzugriff langsamer. Durch Dynamic Memory steigt die Wahrscheinlichkeit, dass dies geschieht: Die dynamische Zuweisung von Arbeitsspeicher an verschiedene VMs (an verschiedene Prozesse) führt zu einer starken Fragmentierung des RAM-Adressbereichs. Hier kann es leichter geschehen, dass eine VM bei der Erweiterung des Speichers RAM zugewiesen bekommt, der zu einem anderen Prozessor gehört und damit langsamer im Zugriff ist (man spricht hier von NUMA Spanning). Wenn Sie für eine VM Dynamic Memory aktivieren, so erhält sie keinen Zugriff auf Virtual NUMA. Auch die Live-Migration laufender VMs kann sich beim NUMA-Zugriff negativ bemerkbar machen. Wenn Sie eine VM, die auf dem Quell-Host in NUMA-optimierter Zuweisung läuft, auf einen anderen Host verschieben, dessen NUMA-Struktur anders aufgebaut ist oder dessen NUMA-Knoten bereits ausgelastet sind, dann wird die VM auf dem Ziel-Host nicht optimiert laufen. Wie Hyper-V sich verhält, können Sie festlegen. Wenn Sie im Hyper-V-Manager per Rechtsklick auf den Hyper-V-Server die Hyper-V-Einstellungen aufrufen, finden Sie unter Aufteilung auf NUMA ein Kontrollkästchen namens Aufteilung virtueller Computer auf physische NUMA-Knoten zulassen. Wenn Sie dieses aktivieren (was die Standardeinstellung ist), kann Hyper-V in der beschriebenen Situation einer VM zusätzlichen Speicher zuordnen, auf den dann aber langsamer zugegriffen wird. Deaktivieren Sie das Kästchen, erhält die VM keinen zusätzlichen Speicher. Gleichzeitig bedeutet dies, dass Hyper-V eine VM nicht starten wird, wenn es sie nicht vollständig einem NUMA-Knoten zuordnen kann. Effektiv haben Sie also die Auswahl aus zwei Möglichkeiten: 왘 Aktivieren Sie die Option (NUMA-Spanning ist erlaubt), so kann Hyper-V einer VM

Arbeitsspeicher zuteilen, der zu einem anderen Host-Prozessor gehört. Einzelne VMs können dadurch (etwas) langsamer laufen, als es möglich wäre. Dafür können Sie tendenziell auf diesem Host mehr VMs gleichzeitig betreiben, weil Hyper-V keine Rücksicht auf die NUMA-Grenzen nehmen muss.

149

3

3

Host-Server

왘 Deaktivieren Sie die Option (NUMA-Spanning ist nicht erlaubt), dann teilt Hyper-

V die VMs so auf die Host-Prozessoren auf, dass sie nur mit »lokalem« Speicher arbeiten. Diese VMs können dann also auf maximale RAM-Performance zugreifen. Hierbei kann es aber passieren, dass Hyper-V eine VM nicht startet, wenn sie nicht von einem NUMA-Knoten mit »lokalem« RAM versorgt werden kann. In dieser Situation können Sie also unter Umständen weniger VMs auf dem Host betreiben. Ebenso kann es sein, dass Sie VMs mit großer RAM-Konfiguration nicht starten können.

3.5

Arbeitsspeicher

sobald eine VM startet (siehe Abbildung 3.22). Diese Datei ist so groß wie der zugewiesene Arbeitsspeicher, damit der nötige Platz auf jeden Fall reserviert ist. Eine Besonderheit tritt auf, wenn Sie für eine VM in deren Einstellungen die Automatische Stoppaktion auf Status des virtuellen Computers speichern stellen. In diesem Fall legt Hyper-V die BIN- bzw. VMRS-Datei schon beim Start der VM in der nötigen Größe an.

Hier lässt sich keine pauschale Empfehlung aussprechen. Die Konfigurationsoption, die für Ihre Umgebung passt, können Sie im Zweifel nur durch aufwendige Testreihen identifizieren. Behalten Sie dabei im Blick, dass Sie zur vollen Ausnutzung der NUMA-Vorteile sowohl die RAM-Topologie des Host-Servers als auch die Konfiguration der VMs genau kennen und aufeinander abstimmen müssen. Ebenso sollten Sie sich bewusst sein, dass wir in diesem Abschnitt zwar von »schnellen« und »langsamen« RAM-Zugriffen sprechen, aber es geht hier eher um die Unterscheidung zwischen »schnell« und »noch schneller«. NUMA-Optimierung ist dann ein Thema, wenn Ihre Applikationen die Performance-Spitzen ausnutzen müssen. Standardmäßig ist die Option NUMA Spanning aktiviert. Das bietet Ihnen die Möglichkeit, prinzipiell mehr VMs parallel zu betreiben als bei deaktivierter Option, denn so ist Hyper-V in der Lage, den verfügbaren Arbeitsspeicher auch über die Grenzen der NUMA-Knoten hinweg zu adressieren. In den meisten Umgebungen mit »allgemein« genutzten VMs ist dies die erwünschte Konfiguration. Weitere Informationen zu diesem Thema finden Sie unter: https://technet.microsoft.com/en-us/library/dn282282(v=ws.11).aspx (Kurzlink: http://qccq.de/s/v304) http://www.benjaminathawes.com/2011/11/09/determining-numa-node-boundariesfor-modern-cpus/ (Kurzlink: http://qccq.de/s/v305)

3.5.8 Arbeitsspeicher und das Storage-System Eigentlich ist das Design des Festplatten-Speichersystems für den Host-Server eine Angelegenheit, die mit dem Arbeitsspeicher kaum zu tun hat. Hierbei geht es eher um die Datenmenge, die Applikationen verwalten müssen, sowie um die Leistung im Sinne des Disk-I/O. Zwei direkte Abhängigkeiten bestehen aber zur RAM-Konfiguration und zu Direct Memory. Sobald Sie nämlich eine VM in den gespeicherten Zustand versetzen oder einen Prüfpunkt (Snapshot) von einer VM erzeugen, muss Hyper-V den Inhalt des Arbeitsspeichers dieser VM auf der Festplatte ablegen. Dazu erzeugt das Management-OS eine BIN-Datei (bei VMs mit Version 5.0) bzw. eine VMRS-Datei (bei VMs mit Version 8.0),

150

Abbildung 3.22 Beim Start einer VM mit der Stopp-Aktion »Speichern« erzeugt Hyper-V stets eine BIN- bzw. VMRS-Datei, um bei Bedarf den Inhalt des Arbeitsspeichers auf die Festplatte zu bannen.

Durch Dynamic Memory entsteht hierbei eine besondere Situation: Wenn die VM von der Parent-Partition mehr RAM erhält, vergrößert sich auch die BIN- bzw. VMRSDatei. Trotzdem bleibt der Speicherplatz stets planbar, denn Hyper-V kann niemals mehr RAM vergeben, als physisch im Host-Server vorhanden ist. Hat ein Host also 144 GB an Arbeitsspeicher, werden alle BIN- bzw. VMRS-Dateien zusammen niemals mehr als 144 GB belegen, unabhängig davon, wie das RAM an die virtuellen Maschinen verteilt ist. Der zweite direkte Zusammenhang zwischen Arbeitsspeicher und Festplattensystem besteht im Fall von Smart Paging, das wir in Abschnitt 3.5.6, »Smart Paging«, beschrieben haben. Hier erzeugt das Management-OS bei Bedarf eine Auslagerungsdatei für die virtuelle Maschine, die nur während eines Neustarts verwendet wird und den Größenunterschied zwischen dem »Minimal-RAM« und dem »Start-RAM« abdeckt. Ist eine VM also für 1.024 MB Minimal-RAM und für 8.192 MB Start-RAM konfiguriert, könnte in einer starken Lastsituation eine Smart-Paging-Datei von 7.168 MB notwendig sein.

151

3

3

Host-Server

Sie werden bisweilen die Empfehlung sehen, für Smart Paging und für die Ablage der BIN- bzw. VMRS-Dateien möglichst schnelle Plattensysteme zu nutzen, beispielsweise SSD-Speicher. Hierbei sollten Sie aber im Blick behalten, dass sich dies nur auszahlt, wenn Ihre virtuellen Maschinen oft neu starten, während der Host-Server stark unter Last steht, oder wenn Sie oft mit gespeicherten Systemzuständen arbeiten. Beides würde aber eher darauf hindeuten, dass die Umgebung insgesamt zu wenige Ressourcen hat.

3.5

Arbeitsspeicher

Kein VM-Start ohne Arbeitsspeicher Behalten Sie Folgendes im Blick: Sollte eine virtuelle Maschine auf einem Hyper-VHost nicht genügend Arbeitsspeicher zum Starten vorfinden, wird sie nicht starten. Das gilt auch in einem Cluster – ist nach dem Failover auf dem Ziel-Host nicht genügend RAM verfügbar, wird die betreffende VM nicht hochfahren!

Remote Desktop Services

3.5.9 Einschränkungen von Dynamic Memory Wie Sie diesem Abschnitt bisher entnehmen konnten, ist Dynamic Memory eine interessante und leistungsfähige Technik, aber kein universaler »Problemlöser«. Keineswegs sollten Sie Dynamic Memory pauschal für all Ihre virtuellen Maschinen aktivieren. Viele Systeme werden nicht davon profitieren, andere laufen damit sogar weniger stabil. Für einige wichtige Anwendungsszenarien geben wir Ihnen daher im Folgenden einige Einschätzungen aus der Praxis bzw. auf der Basis von Herstellerempfehlungen.

Virtuelle Clients Virtuelle Clients unter Windows 7, Windows 8 bzw. 8.1 oder Windows 10 sind sozusagen das Kernszenario, für das Dynamic Memory überhaupt erst entwickelt wurde. Durch Dynamic Memory können Sie die »Dichte« von virtuellen Maschinen auf Ihren Host-Servern deutlich erhöhen, das heißt mehr VMs gleichzeitig betreiben als ohne Dynamic Memory. Ein typischer Anwendungsfall für diese Anforderung ist eine virtuelle Desktop-Infrastruktur (VDI).

Hyper-V-Clustering Nachdem Dynamic Memory als neue Funktion für das Service Pack 1 von Windows Server 2008 R2 angekündigt wurde, hielten viele Kunden es für eine Möglichkeit, ihre Host-Cluster flexibler und kostengünstiger zu planen. In einem Cluster muss jeder Host-Server nämlich so viel Arbeitsspeicher freihalten, dass er nach einem Failover auch die VMs eines ausgefallenen Servers übernehmen kann. Durch Dynamic Memory könnte man dies nun so planen, dass einer »übernommenen« VM weniger Speicher zur Verfügung steht als im Normalbetrieb – sie läuft dann vielleicht langsamer, aber sie ist erreichbar. Dies sollten Sie aber nicht grundsätzlich so einplanen, sondern bestenfalls in Ausnahmefällen damit kalkulieren. Ob dieser Plan aufgeht, hängt nämlich von der jeweiligen Applikation ab, die Sie in einer VM betreiben. Zu wichtigen Anwendungen lesen Sie im Folgenden mehr.

152

Die Remote Desktop Services (früher unter dem Namen Terminal-Dienste bekannt) führen mehrere Benutzersitzungen parallel aus. Das beinhaltet natürlich auch die Applikationen, die die jeweiligen Anwender einsetzen. Vereinfacht kann man davon sprechen, dass der Remotedesktop-Server die Arbeit mehrerer PCs parallel betreibt. Natürlich benötigt ein solcher Server vor allem viel Arbeitsspeicher. Grundsätzlich kann ein solches System von Dynamic Memory profitieren, wenn genügend Ressourcen auf dem Host-Server bereitstehen. Setzt ein Unternehmen die Remotedesktopdienste allerdings strategisch ein, wird es eher nicht in die Situation geraten wollen, dass Benutzersitzungen in einem virtuellen Server eingeschränkt werden, weil ein Dienst in einer anderen VM gerade viel RAM benötigt. Daher wird man in solchen Umgebungen eher auf Dynamic Memory für die Remote Desktop Services verzichten oder aber die virtuellen Server so auf die Hosts verteilen, dass negative Effekte nicht auftreten.

Exchange Server 2010 bis 2016 Moderne Exchange Server benötigen viel Arbeitsspeicher. Viele Administratoren erwarten, dass gerade diese Server gut mit Dynamic Memory konfigurierbar sind. Leider ist das aber nicht der Fall. Exchange Server 2010 bis 2016 prüfen beim Start, wie viel RAM verfügbar ist, und passen diese Konfiguration später nicht mehr an. Die Dynamik würde hier also ins Leere laufen. Daher wird der Einsatz von Dynamic Memory mit Exchange Server 2010 bis 2016 ausdrücklich nicht unterstützt.

SQL Server SQL Server war eine der ersten Applikationen, die Hot-Add Memory unterstützte. Das verwundert nicht, wenn man bedenkt, dass Datenbank-Server in großen Rechenzentren den größten Bedarf an Arbeitsspeicher erzeugen. Daher gehört Microsofts SQL Server ab Version 2005 zu den Applikationen, die Dynamic Memory tatsächlich nutzen können. Beachten Sie dabei allerdings, dass dies nur für die jeweiligen Enterprise- und Datacenter-Fassungen des Produkts gilt. Die weit verbreiteten Express- und Standard-Edi-

153

3

3

Host-Server

tionen nutzen nur den Arbeitsspeicher, der beim Start der jeweiligen Dienste verfügbar ist, und erfahren nichts von einem Speicherzuwachs.

3.5

Arbeitsspeicher

Dynamic Memory ersetzt keinen Arbeitsspeicher. Wenn Ihre Server-Applikationen viel RAM benötigen, planen Sie dies als Ressource im Host-System ein.

3

Lync und Skype for Business

Die anderen können es nicht besser

Lync 2010 und 2013 sowie Skype for Business sind nicht mit Dynamic Memory getestet worden. Es kann funktionieren, und Microsofts Support wird nicht pauschal die Unterstützung verweigern, jedoch kann es sein, dass der Support verlangt, die Dynamik abzuschalten.

Die Empfehlung, den physischen Arbeitsspeicher in einem Host-Server so zu dimensionieren, dass alle virtuellen Server und Applikationen ohne Optimierungstricks wie Speicherdynamik, Ballooning, Speicher-Deduplizierung oder Paging laufen, sprechen auch alle anderen Virtualisierungshersteller aus. Zwar enthalten die meisten anderen Produkte die genannten Tricks in ihrem Funktionsumfang, sodass der VM-Administrator scheinbar mehr RAM verteilen kann, als im Server steckt. Tatsächlich aber sind diese Features immer nur für den Notfall da und nicht für den Normalbetrieb. Wenn man so will, ist Microsoft an dieser Stelle nur ehrlicher und bezüglich der Performance zuverlässiger.

Small Business Server Keine Version von Small Business Server ist mit Dynamic Memory getestet worden, und es gibt von Microsoft keinen Support für eine solche Konfiguration. Mit der Generation Windows Server 2012 ist das Produkt eingestellt worden, daher wird sich an der Situation auch nichts ändern.

Grenzwerte realistisch konfigurieren Andere Produkte Für alle Server-Applikationen gilt, dass Sie bei deren Herstellern erfragen sollten, ob sie für eine Dynamic-Memory-Konfiguration Unterstützung gewähren. Sofern die jeweilige Applikation für Ihre Geschäftsprozesse wichtig ist, sollten Sie die Dynamik nur bei einer positiven Support-Aussage aktivieren. Viele Anwendungen beruhen auf einem Datenbank-Backend unter SQL Server. Auch für dieses gilt unabhängig von der zugreifenden Applikation diese Aussage. Weitere Hinweise zu einzelnen Applikationen und deren Einsatz in virtuellen Maschinen finden Sie in Kapitel 6, »Virtuelle Maschinen«.

3.5.10 Empfehlungen zu Dynamic Memory Ob und wie Sie Dynamic Memory nutzen, sollten Sie genau prüfen und planen. Dabei steht der Bedarf der Applikationen im Vordergrund, die Sie in virtuellen Maschinen nutzen möchten. Die folgenden Hinweise sollen Sie bei der Begutachtung unterstützen.

Dynamic Memory ersetzt keinen Speicher Wie Sie erfahren haben, hat Microsoft die Technik von Dynamic Memory für einige ganz konkrete Situationen entworfen. Zwar stand dabei im Vordergrund, die verfügbare Hardware von Host-Servern besser auszunutzen und eine höhere »Packungsdichte« von virtuellen Maschinen zu ermöglichen. Trotzdem sollten Sie sich nicht verleiten lassen, Ihre Host-Server deshalb zu knapp zu dimensionieren.

154

Wenn Sie eine neue virtuelle Maschine einrichten, schlägt der Hyper-V-Assistent einen Ausgangswert von 512 MB für den Arbeitsspeicher vor. Setzen Sie dies als Untergrenze für Dynamic Memory, wird das meist sogar funktionieren. Sinnvoll ist es aber nur in Ausnahmefällen. Definieren Sie den Minimalwert und den Startwert für Dynamic Memory in einer VM so, dass die VM im Normalbetrieb gut damit arbeiten kann. So vermeiden Sie häufiges Hoch- und Herunterskalieren der Speicherressourcen, und Sie erhalten bei der Planung von Erweiterungen ein realistisches Bild. Als Referenz für Minimal- und Startwerte können die empfohlenen Ressourcen des Herstellers herangezogen werden. Eine Überprüfung und Anpassung der Werte im laufenden Betrieb ist aber zwingend notwendig. Bedenken Sie dabei auch, dass viele Applikationen wie beschrieben nur einmal beim Start prüfen, wie viel Speicher vorhanden ist. Auch wenn später viel mehr RAM erhältlich ist, können solche Programme nicht davon profitieren.

Wie Sie den Speicherbedarf einfach bestimmen Wenn Sie nicht wissen, wie viel RAM eine VM für eine Anwendungssoftware benötigt, können Sie die Dokumentation des Herstellers konsultieren. Alternativ können Sie auch einen Hyper-V-Test-Server nutzen: Richten Sie dort eine VM mit Ihrer Applikation ein, und aktivieren Sie Dynamic Memory. Beobachten Sie dann die VM im laufenden Betrieb. Über die Hyper-V-Konsole sehen Sie, wie viel RAM die virtuelle Maschine tatsächlich verwendet.

155

Auf einen Blick

Auf einen Blick 1

Einleitung ......................................................................................................

17

2

Hyper-V im Überblick ..................................................................................

57

3

Host-Server ................................................................................................... 111

4

Storage ........................................................................................................... 201

5

Netzwerk ....................................................................................................... 317

6

Virtuelle Maschinen .................................................................................... 413

7

Container ....................................................................................................... 609

8

Host-Farmen und Verfügbarkeit ............................................................... 659

9

Backup, Monitoring und Migration .......................................................... 813

10

Fallbeispiele .................................................................................................. 913

11

Finale .............................................................................................................. 923

Inhalt

Inhalt 1

Einleitung

17

1.1

Was wir Ihnen bieten ........................................................................................................

18

1.1.1 1.1.2

Das Buch als Ganzes ........................................................................................... Die elf Kapitel ........................................................................................................

19 20

Die Autoren ............................................................................................................................

27

1.2 1.3

1.4

1.5

2

Warum virtualisieren wir eigentlich? ........................................................................

29

1.3.1 1.3.2

Ein Projekt ohne Ziel kann nur scheitern ..................................................... Vor- und Nachteile abwägen ...........................................................................

31 32

1.3.3

Stolperfallen vermeiden ....................................................................................

34

Virtuelle Welten: Die Fallstudien .................................................................................

37

1.4.1 1.4.2 1.4.3

Die A. Datum GmbH ............................................................................................ Die Contoso AG ..................................................................................................... Die Fabrikam AG ...................................................................................................

38 40 43

Hyper-V und der Virtualisierungsmarkt ...................................................................

44

1.5.1 1.5.2 1.5.3

46 48 52

Server-Virtualisierung: Eine Historie ............................................................. Die Großen am Markt ......................................................................................... Microsofts Virtualisierungsweg ......................................................................

Hyper-V im Überblick

57

Die Architektur .....................................................................................................................

59

2.1.1 2.1.2 2.1.3 2.1.4

Hypervisor Typ 1 ................................................................................................... Hypervisor Typ 2 ................................................................................................... Monolithischer Hypervisor ............................................................................... Microkernel-Hypervisor .....................................................................................

59 60 62 63

2.2

Paravirtualisierung und Emulation .............................................................................

64

2.3

Hardware-Virtualisierung ...............................................................................................

65

2.4

Der VMBus und die Integration Services ..................................................................

67

2.1

5

Inhalt

Inhalt

2.5 2.6

Das Management-OS ........................................................................................................ Der Virtualisierungs-Stack ..............................................................................................

71

2.6.1 2.6.2 2.6.3 2.6.4

Virtual Machine Management Service ......................................................... Virtual Machine Worker Process ..................................................................... Virtual Devices ...................................................................................................... Virtualization Service Providers und Virtualization Service Clients ....

72 72 73 74

Child-Partitionen .................................................................................................................

75

2.7.1 2.7.2 2.7.3

An Hyper-V angepasste Gast-Systeme ......................................................... Nicht an Hyper-V angepasste Gast-Systeme .............................................. VMs der Generation 2 .........................................................................................

75 76 76

2.8

Best Practices Analyzer .....................................................................................................

76

2.9

Vergleich mit Hyper-V unter Windows Server 2012 R2 ....................................

79

2.9.1 2.9.2

Zahlen, Daten, Fakten ......................................................................................... Die großen und kleinen Erweiterungen .......................................................

79 80

2.10 Virtuelle Gäste ......................................................................................................................

81

2.7

2.10.1 2.10.2

Funktionierende und unterstützte VM-Betriebssysteme ...................... Technische Limits .................................................................................................

81 83

2.10.3

Alte Betriebssysteme betreiben ......................................................................

85

2.11 Allgemeine Administration ............................................................................................

86

2.11.1 2.11.2

Grafische Oberfläche .......................................................................................... PowerShell ..............................................................................................................

86 91

2.12 Mit der PowerShell administrieren .............................................................................

93

2.12.1 2.12.2 2.12.3 2.12.4 2.12.5

Der Einstieg ............................................................................................................ PowerShell Remoting ......................................................................................... PowerShell Direct ................................................................................................. Beispiel-Skripte ..................................................................................................... PowerShell Desired State Configuration ......................................................

94 99 101 102 105

2.13 Zusammenfassung .............................................................................................................

109

3

111

3.1

6

Host-Server Die Grundinstallation ........................................................................................................

111

3.1.1 3.1.2 3.1.3 3.1.4

112 112 113 119

Festplatten richtig aufteilen ............................................................................ Die CPU auswählen ............................................................................................. GUI vs. Server Core vs. Nano Server ............................................................... Die Speicherpfade ................................................................................................

3.1.5 3.1.6

69

3.2

3.3

3.4

3.5

3.6 3.7

3.8

Die Host-Reserven ............................................................................................... Die Auslagerungsdatei im Management-OS ..............................................

121 122

Hyper-V-Server .....................................................................................................................

123

3.2.1 3.2.2

Installieren und einrichten ............................................................................... Dritthersteller-Tools zur Verwaltung nutzen .............................................

123 127

Client Hyper-V ......................................................................................................................

128

3.3.1 3.3.2 3.3.3 3.3.4 3.3.5

Anforderungen und Einschränkungen ......................................................... Besonderheiten in Client Hyper-V .................................................................. Client Hyper-V installieren und nutzen ........................................................ Ein NAT-Netzwerk für VMs einrichten .......................................................... Windows Server 2016 remote verwalten ....................................................

128 128 130 132 134

Umgang mit der Host-CPU ..............................................................................................

134

3.4.1 3.4.2

134 135

Host Resource Protection .................................................................................. Nested Virtualization ..........................................................................................

Arbeitsspeicher ....................................................................................................................

137

3.5.1 3.5.2

Arbeitsspeicher »überbuchen«? ...................................................................... Hyper-V und der statische Arbeitsspeicher .................................................

138 140

3.5.3 3.5.4 3.5.5 3.5.6 3.5.7 3.5.8 3.5.9 3.5.10

Dynamic Memory – ein Ausweg? ................................................................... Wie Dynamic Memory funktioniert ............................................................... Dynamic Memory konfigurieren ..................................................................... Smart Paging ......................................................................................................... NUMA-Einstellungen .......................................................................................... Arbeitsspeicher und das Storage-System .................................................... Einschränkungen von Dynamic Memory ..................................................... Empfehlungen zu Dynamic Memory ............................................................

141 144 146 147 148 150 152 154

Discrete Device Assignment ...........................................................................................

156

Sicherheit beginnt beim Design ...................................................................................

158

3.7.1 3.7.2 3.7.3 3.7.4

VM-Umgebungen multiplizieren Nachlässigkeiten ................................. Ganzheitliche Sicherheitskonzepte ............................................................... Den Host absichern ............................................................................................. Firewall-Virtualisierung .....................................................................................

160 163 170 173

3.7.5 3.7.6 3.7.7 3.7.8 3.7.9 3.7.10

Port ACLs ................................................................................................................. Hyper-V-Switch-Erweiterungen ...................................................................... CSV und BitLocker ................................................................................................ Administration mit JEA delegieren ................................................................ Sollen die Hyper-V-Hosts in die Domäne? ................................................... Shielded Virtual Machines ................................................................................

173 174 174 175 188 192

Zusammenfassung .............................................................................................................

200

7

Inhalt

Inhalt

4 4.1

4.2 4.3

4.4

4.5

4.6

Storage

201

Grundlagen ............................................................................................................................

201

4.1.1 4.1.2 4.1.3

Crashkurs Storage: DAS, NAS, SAN oder was? ............................................ Welches Speichersystem brauche ich wann? ............................................. Speicherpfade .......................................................................................................

202 212 215

DAS: Direct Attached Storage ........................................................................................

216

SET-Modi und -Einstellungen .......................................................................... SET verwalten ........................................................................................................ Den Lastenausgleichsmodus für SET ändern ............................................. Remote Direct Memory Access (RDMA) ....................................................... Erweiterbare Netzwerk-Switches ................................................................... 10-Gigabit-Netzwerke und mehr ................................................................... Hyper-V-Netzwerkvirtualisierung .................................................................. Empfehlungen zu Netzwerken in Hyper-V .................................................. Fallbeispiele für das Netzwerk ........................................................................

367 367 368 368 372 381 391 400 402

ReFS ...........................................................................................................................................

224

4.3.1 4.3.2 4.3.3

Die Maximalwerte ............................................................................................... Die Arbeit mit Metadaten ................................................................................. Integrity Streams ..................................................................................................

225 225 226

5.2

Herkömmliche Designs .....................................................................................................

404

5.3

Converged Designs .............................................................................................................

404

4.3.4

Block Cloning .........................................................................................................

226

5.4

Neuerungen in Windows Server 2016 .......................................................................

405

SAN ............................................................................................................................................

228

4.4.1 4.4.2 4.4.3

Server mit iSCSI anbinden ................................................................................. Server mit Fibre Channel anbinden ............................................................... vSAN einrichten ....................................................................................................

229 230 231

5.4.1 5.4.2

Datacenter Firewall ............................................................................................. Netzwerkcontroller .............................................................................................

405 406

5.4.3 5.4.4

Software Load Balancer ..................................................................................... Virtual Extensible LAN (VXLAN) ......................................................................

408 409

Storage Spaces .....................................................................................................................

235

5.5

Netzwerkprobleme ermitteln und Netzwerkoptimierung ..............................

410

4.5.1 4.5.2 4.5.3 4.5.4

Alles eine Frage des Designs ............................................................................ Storage Spaces mit DAS ..................................................................................... Storage Spaces im Shared-JBOD-Design ...................................................... Storage Spaces Direct (S2D) .............................................................................

235 258 266 282

5.6

Zusammenfassung .............................................................................................................

412

305

6

Virtuelle Maschinen

413

Storage Replica ..................................................................................................................... 4.6.1 4.6.2

Grundsätzliche Überlegungen ........................................................................ Die Replikation zwischen zwei Servern ........................................................

305 309

6.1

Design und Sizing ................................................................................................................

414

4.6.3 4.6.4

Die Replikation innerhalb eines Stretch-Clusters ..................................... Die Replikation zwischen zwei Failover-Clustern .....................................

314 315

5

Netzwerk

317

5.1

Netzwerkgrundlagen ........................................................................................................

317

5.1.1 5.1.2 5.1.3 5.1.4 5.1.5 5.1.6 5.1.7 5.1.8

319 328 335 340 346 349 358 364

8

5.1.9 5.1.10 5.1.11 5.1.12 5.1.13 5.1.14 5.1.15 5.1.16 5.1.17

Wie funktioniert das Netzwerk in Hyper-V? ............................................... Virtuelle Switches einrichten ........................................................................... Netzwerktypen in Hyper-V ............................................................................... Hyper-V-Netzwerke konfigurieren ................................................................. Sprechende Namen wählen ............................................................................. Hardware-Spezialitäten ..................................................................................... Netzwerkkarten-Teams einrichten ................................................................ Switch Embedded Teaming (SET) ...................................................................

6.2

6.3 6.4

Ressourcen einer VM .........................................................................................................

415

6.2.1 6.2.2 6.2.3 6.2.4

Hyper-V und die USB-Schnittstelle ................................................................ Virtuelle Maschinen der »Generation 1« und »Generation 2« ............. VM erzeugen mit dem Assistenten ................................................................ VM-Eigenschaften bearbeiten .........................................................................

416 417 419 423

6.2.5 6.2.6 6.2.7 6.2.8 6.2.9 6.2.10 6.2.11

Arbeitsspeicher ..................................................................................................... Prozessor ................................................................................................................. Festplatten ............................................................................................................. LUNs in einer VM .................................................................................................. Netzwerkkarten .................................................................................................... Integrationsdienste ............................................................................................. VMs der Generation 2 .........................................................................................

432 437 449 468 475 486 494

VM-Gruppen ..........................................................................................................................

502

Ressourcen-Pools und Verbrauchsmessung ...........................................................

505

6.4.1

507

Verbrauchsmessung für einzelne VMs .........................................................

9

Inhalt

Inhalt

6.4.2 6.4.3

Ressourcen-Pools als Abrechnungsbasis ..................................................... Ressourcen-Pools einrichten ............................................................................

508 510

6.5

VM-Versionen .......................................................................................................................

517

6.6

VM-Konfigurationsdaten auf dem Host ...................................................................

518

6.6.1

519

6.6.2 6.6.3

6.7

6.8

Dateipfade .............................................................................................................. Konfigurationsdateien ....................................................................................... Konfigurationsdateien wiederfinden ............................................................

520 521

VM-Verwaltung mit VMConnect .................................................................................

522

6.7.1 6.7.2 6.7.3

522 527 530

VMConnect nutzen ............................................................................................. Erweiterte Sitzung ............................................................................................... Datenaustausch mit einer VM ........................................................................

6.13 Linux-VMs installieren ...................................................................................................... 6.13.1 6.13.2 6.13.3

570

Die Integration Services für Linux .................................................................. Eine Linux-VM installieren ................................................................................ Erfahrungen mit dem Betrieb ..........................................................................

570 573 575

6.14 Server-Applikationen in VMs betreiben ...................................................................

576

6.14.1 6.14.2 6.14.3 6.14.4 6.14.5 6.14.6 6.14.7 6.14.8 6.14.9

Microsofts Support-Policy ................................................................................. Gast-Cluster ........................................................................................................... Active Directory .................................................................................................... Exchange Server ................................................................................................... SQL Server ............................................................................................................... Oracle Database ................................................................................................... SharePoint .............................................................................................................. Skype for Business Server 2015 und Lync Server 2013 ............................ Remote Desktop Services ..................................................................................

577 578 579 589 595 600 601 603 604

6.15 Zusammenfassung .............................................................................................................

607

Einstellungen innerhalb einer VM ...............................................................................

534

6.8.1 6.8.2

Remote Desktop aktivieren .............................................................................. Netzwerkkarten benennen ...............................................................................

534 535

6.8.3

Den Host identifizieren ......................................................................................

536

Arbeiten mit Vorlagen ......................................................................................................

538

6.9.1 6.9.2

Sysprep .................................................................................................................... Sicherer Umgang mit VM-Vorlagen ..............................................................

539 541

7

Container

609

6.10 VM-Prüfpunkte ....................................................................................................................

541

7.1

Prozessisolierung mit Containern ...............................................................................

609

7.2

Container – Hype oder Realität? ..................................................................................

610

7.3

Funktionsweise ....................................................................................................................

612

7.4

Container unter Windows ...............................................................................................

613

7.4.1 7.4.2 7.4.3 7.4.4

Windows-Server-Container .............................................................................. Hyper-V-Container .............................................................................................. Lizenzierung ........................................................................................................... Basis-Images ..........................................................................................................

613 614 614 615

Einen Container-Host einrichten ..................................................................................

616

7.5.1 7.5.2

Windows Server 2016 als Container-Host .................................................. Windows 10 als Container-Host .....................................................................

616 617

Docker einrichten ................................................................................................................

618

7.6.1 7.6.2 7.6.3 7.6.4 7.6.5

619 620 621 622 622

6.9

6.10.1 6.10.2 6.10.3 6.10.4 6.10.5 6.10.6 6.10.7 6.10.8

Was ist ein Prüfpunkt? ....................................................................................... Standardprüfpunkte ........................................................................................... Produktionsprüfpunkte ..................................................................................... Einen Prüfpunkt erzeugen ................................................................................ Die Eigenschaften eines Prüfpunkts .............................................................. Zurück in der Zeit: Einen Prüfpunkt anwenden ........................................ Entfernen eines Prüfpunkts .............................................................................. Einen Prüfpunkt exportieren ............................................................................

542 542 544 548 549 551 552 554

6.11 VMs exportieren und importieren ..............................................................................

554

6.11.1 6.11.2 6.11.3 6.11.4 6.11.5

Der Export ............................................................................................................... Der Live-Export ...................................................................................................... VM-Prüfpunkte exportieren ............................................................................. Nur die VM-Konfiguration exportieren ........................................................ Der Import ..............................................................................................................

6.12 Offline-VMs verwalten ..................................................................................................... 6.12.1 6.12.2 6.12.3 6.12.4 6.12.5

10

Windows ohne Setup installieren .................................................................. Rollen in VHDs installieren ............................................................................... Windows-Updates in VHDs installieren ....................................................... Unbeaufsichtigte Konfiguration einer VHD ............................................... VHDs optimieren ..................................................................................................

554 555 555 556 557 561 561 564 566 569 569

7.5

7.6

Installation ............................................................................................................. Grundlagen ............................................................................................................ Netzwerk ................................................................................................................. Daten ........................................................................................................................ PowerShell für Docker ........................................................................................

11

Inhalt

Inhalt

7.7

Container verwenden .......................................................................................................

623

7.7.1 7.7.2 7.7.3 7.7.4 7.7.5 7.7.6 7.7.7 7.7.8 7.7.9 7.7.10

Container ausführen ........................................................................................... Interaktiv oder als Dienst? ................................................................................ Container verwalten ........................................................................................... Hyper-V-Container starten ............................................................................... Docker Hub verwenden ..................................................................................... Netzwerk verbinden ............................................................................................ Umgebungsvariablen übergeben ................................................................... Daten persistieren ............................................................................................... Container debuggen ........................................................................................... Daten austauschen .............................................................................................

623 624 625 628 628 630 631 632 632 634

Images erstellen ..................................................................................................................

634

7.8.1 7.8.2 7.8.3 7.8.4

Wichtige Befehl im Dockerfile ......................................................................... Container-Images wiederverwenden? ......................................................... Images versionieren ............................................................................................ Images verwalten und aufräumen ................................................................

636 637 638 639

7.8.5

Images veröffentlichen ......................................................................................

639

Remoting mit Docker ........................................................................................................

640

7.9.1 7.9.2 7.9.3 7.9.4 7.9.5

Konfiguration des Hosts .................................................................................... Konfiguration des Clients .................................................................................. Container verwalten ........................................................................................... Images bauen ........................................................................................................ Cross-Platform ......................................................................................................

640 641 642 642 642

7.10 Tipps und Tricks ...................................................................................................................

643

7.8

7.9

7.10.1 7.10.2

Container-Images sind statisch ...................................................................... Container-Images sind minimalistisch .........................................................

643 643

7.10.3 7.10.4 7.10.5 7.10.6 7.10.7 7.10.8 7.10.9

PowerShell statt Cmd ......................................................................................... ENTRYPOINT und CMD ....................................................................................... Das Bauen beschleunigen ................................................................................. Den Betrieb beschleunigen ............................................................................... Lesbarkeit von Dockerfiles ................................................................................ Versionierung ........................................................................................................ Micro-Labelling .....................................................................................................

644 645 645 646 647 649 650

7.11 Sicherheit ................................................................................................................................

652

7.11.1 7.11.2

Absichern des Docker-Dienstes ....................................................................... Privilegierte Container vermeiden .................................................................

652 654

7.12 Ausblick ...................................................................................................................................

655

7.12.1 7.12.2 7.12.3

12

Noch mehr Docker ............................................................................................... Andere Orchestrierungslösungen .................................................................. Grafische Container-Verwaltung ...................................................................

655 656 656

8 8.1

8.2

8.3

8.4

8.5

Host-Farmen und Verfügbarkeit

659

Warum ist Verfügbarkeit ein Thema? .......................................................................

659

8.1.1 8.1.2 8.1.3 8.1.4 8.1.5 8.1.6

Was ist überhaupt Verfügbarkeit? ................................................................. Wie abhängig sind wir wirklich? ..................................................................... Was ist eigentlich ein Ausfall? ......................................................................... Wenn Redundanz zum Problem wird ........................................................... Grenzen des Clusterings .................................................................................... Das Konzept entscheidet ...................................................................................

660 662 663 665 668 668

Failover-Clustering .............................................................................................................

670

8.2.1 8.2.2

Überblick ................................................................................................................. Terminologie ..........................................................................................................

671 671

8.2.3 8.2.4 8.2.5 8.2.6 8.2.7 8.2.8 8.2.9 8.2.10 8.2.11 8.2.12 8.2.13 8.2.14 8.2.15 8.2.16 8.2.17 8.2.18 8.2.19 8.2.20 8.2.21 8.2.22 8.2.23

Cluster-Arten ......................................................................................................... Historie des Windows-Clusterings ................................................................. Neuerungen im Failover-Cluster ..................................................................... Virtual Machine Compute Resiliency ........................................................... Hardware für einen Cluster .............................................................................. Cluster-Validierung ............................................................................................. Best Practices für Cluster ................................................................................... Cluster-Quorum .................................................................................................... Cluster-Speicher ................................................................................................... Einen Cluster einrichten .................................................................................... Gast-Cluster ........................................................................................................... Cluster-Rollen ........................................................................................................ Failover-Cluster verwalten ................................................................................ Cluster-fähiges Aktualisieren .......................................................................... Arten von Cluster-Aktualisierungen .............................................................. Die Aufgabenplanung einbinden ................................................................... Node Vote Weights ............................................................................................. Node Drain ............................................................................................................. Virtual Machine Monitoring ............................................................................. Failover-Cluster per PowerShell verwalten ................................................. Cluster ohne Active-Directory-Namensobjekte .........................................

674 675 676 678 688 689 693 697 700 703 709 710 715 726 728 730 731 732 734 736 741

Speicher-Cluster mit Windows Server 2016 ...........................................................

746

8.3.1 8.3.2

Storage Spaces im Cluster ................................................................................. iSCSI-Target als Cluster-Rolle ...........................................................................

747 749

NAS statt SAN .......................................................................................................................

750

8.4.1 8.4.2

Authentifizierung mit CredSSP ....................................................................... Authentifizierung mit Kerberos ......................................................................

750 751

Host-Cluster mit Hyper-V ................................................................................................

753

13

Inhalt

Inhalt

8.6

8.7

8.8

Live-Migration ......................................................................................................................

759

8.6.1 8.6.2 8.6.3 8.6.4 8.6.5 8.6.6 8.6.7 8.6.8 8.6.9 8.6.10

Funktionsweise ..................................................................................................... Einsatzszenarien .................................................................................................. Voraussetzungen ................................................................................................. Konfiguration ........................................................................................................ Die VM-Replikation verwenden ...................................................................... Speicher-Live-Migration .................................................................................... Bandbreiten-Management ............................................................................... Storage Quality of Services (QoS) ................................................................... Storage-QoS unterstützt zwei Bereitstellungsszenarien ....................... Live-Migration im Failover-Cluster .................................................................

759 760 760 761 764 768 771 772 773 775

VM-Replikation ....................................................................................................................

776

8.7.1 8.7.2 8.7.3 8.7.4

Funktionsweise ..................................................................................................... Die Hosts konfigurieren ..................................................................................... Die VM-Replikation aktivieren ......................................................................... Replikation in virtuellen Maschinen konfigurieren ..................................

777 778 780 787

8.7.5 8.7.6 8.7.7 8.7.8 8.7.9 8.7.10

Das Replikat ........................................................................................................... Replizierte VMs testen ....................................................................................... Geplantes Failover ............................................................................................... Das Replikat in Betrieb nehmen ...................................................................... Wiederherstellungspunkte ............................................................................... Microsoft Azure Site Recovery .........................................................................

790 791 793 794 796 797

Failover-Cluster-Protokollierung und Fehleranalyse ..........................................

803

8.8.1 8.8.2

8.9

Ereignisse im Cluster von der Failover-Cluster-Verwaltungskonsole anzeigen lassen .................................................................................... Failover-Cluster -Fehlersuche und -Fehlerbehebung ...............................

806 806

Rolling Cluster Update ......................................................................................................

808

8.9.1 8.9.2

Ablauf einer Cluster-Migration ....................................................................... Einschränkungen des Rolling Cluster Updates ..........................................

809 810

8.10 Zusammenfassung .............................................................................................................

811

9

Backup, Monitoring und Migration

813

9.1

Daten sichern und wiederherstellen ..........................................................................

814

9.1.1 9.1.2 9.1.3 9.1.4 9.1.5

814 815 818 819 833

14

Restore ist mehr als Backup! ............................................................................ Anforderungen klären ........................................................................................ Methoden auswählen ........................................................................................ Ebenen des Backups ............................................................................................ Die Wiederherstellung planen ........................................................................

9.1.6 9.1.7 9.1.8

9.2

9.3

9.4

9.5

Backup-Techniken in Hyper-V .......................................................................... Windows Server-Sicherung .............................................................................. Drittanbieter-Software ......................................................................................

840 842 860

Probleme erkennen und bearbeiten ..........................................................................

861

9.2.1

Ereignisprotokolle nutzen .................................................................................

862

9.2.2 9.2.3

Aufgaben an Ereignisse koppeln .................................................................... Mit Operationsbesteck Probleme bearbeiten ............................................

868 871

Virtuelle Umgebungen überwachen ..........................................................................

875

9.3.1 9.3.2 9.3.3 9.3.4 9.3.5 9.3.6 9.3.7

Performance-Überwachung und -Tuning von Windows Server 2016 Leistungsüberwachung von Hyper-V-Hosts ............................................... Microsoft-nahe Werkzeuge .............................................................................. Hyper-V mit Drittanbieter-Tools überwachen ........................................... Die Performance von Hyper-V-Systemen überwachen ........................... Die Funktion der Umgebung überwachen .................................................. VM-Monitoring .....................................................................................................

876 876 877 878 879 879 881

Hosts und VMs migrieren ................................................................................................

884

9.4.1 9.4.2 9.4.3

Von früheren Hyper-V-Versionen umstellen .............................................. Von VMware vSphere zu Hyper-V migrieren .............................................. Physische Server virtualisieren ........................................................................

884 897 903

Zusammenfassung .............................................................................................................

911

10 Fallbeispiele

913

10.1 Die Fallbeispiele im fertigen Zustand ........................................................................

913

10.1.1 10.1.2 10.1.3

Die A. Datum GmbH ............................................................................................ Die Contoso AG ..................................................................................................... Die Fabrikam AG ...................................................................................................

914 915 919

11 Finale

923

11.1 Lizenzierung für Hyper-V .................................................................................................

923

11.1.1 11.1.2

Server: Das Betriebssystem .............................................................................. Applikationen: Lizenzmobilität .......................................................................

924 926

11.2 Werkzeugkasten für Hyper-V ........................................................................................

927

11.3 Community und Quellen .................................................................................................

929

Index ........................................................................................................................................................

933

15

Index

Index 00-15-5D .................................................................. 483 5Nine Manager ..................................................... 126 802.1ax-2008 씮 IEEE 802.1ax-2008 802.1Qau 씮 IEEE 802.1Qau 802.1Qaz 씮 IEEE 802.1Qaz 802.1Qbb 씮 IEEE 802.1Qbb 802.1X 씮 IEEE 802.1X 802.3ad 씮 IEEE 802.3ad

A A. Datum GmbH, Vorstellung ........................... 38 Access Control List .............................................. 166 ACPI ........................................................................... 486 Acropolis 씮 Nutanix Acropolis Addresshash .......................................................... 360 Admin-based Attestation ................................. 193 Aktiv/Aktiv-Cluster ............................................ 674 Allgemeine Anwendung ................................... 711 Allgemeiner Dienst ............................................. 711 Allgemeines Skript .............................................. 711 Ältere Netzwerkkarte ......................................... 475 AMD Virtualization ..................................... 65, 112 AMD-V .............................................................. 65, 112 Amin-based Attestation ................................... 195 Anbieteradresse .......................................... 395, 397 Application Consistency .................................. 830 Application-Level-Backup ................................ 819 Arbeitsspeicher dynamisch ......................................................... 434 NUMA .................................................................. 447 Virtual NUMA .................................................. 448 ASR 씮 Azure Site Recovery Ausfall, Definition ............................................... 663 Ausfallrechenzentrum ...................................... 667 Ausfallsicherheit, Konzept .............................. 668 Ausfallwahrscheinlichkeit ............................... 659 Ausfallzeit geplante .............................................................. 664 tolerierbare ....................................................... 662 ungeplante ........................................................ 664 Wartungsvorgang .......................................... 663 Auslagerung .......................................................... 138 Auslagerungsdatei ..................................... 122, 217 Authoritative Restore ........................................ 840 AVHD(X)-Datei ..................................................... 543

Azure Quorum ...................................................... 677 Azure Site Recovery ................................... 798, 898

B Backing Storage File ............................................ 461 Backup 씮 Datensicherung Backup-Server ....................................................... 835 Ballooning .............................................................. 145 Bandbreiten-Management .............................. 771 Bandbreitenverwaltung .................................... 377 Bare Metal Hypervisor ......................................... 59 Baseline Security Analyzer .............................. 167 Best Practices Analyzer ..................... 76, 166, 754 Bestmöglicher Knoten ...................................... 721 Bevorzugter Besitzer .......................................... 673 BitLocker .............................................. 175, 192, 495 Blockorientierter Speicher ............................... 465 Blockorientiertes Protokoll ............................. 208 Boot from SAN ...................................................... 216 BPA 씮 Best Practices Analyzer

C CAB-Datei ................................................................ 567 CAU 씮 Cluster Aware Updating CBT 씮 Changed Block Tracking CCR 씮 Cluster Continuous Replication CDN 씮 Consistent Device Naming Changed Block Tracking ................................... 841 CheckDisk ............................................................... 909 Checkpoint ............................................................. 162 Child-Partition 씮 Virtuelle Maschine CiB 씮 Cluster in a Box CIFS 씮 Common Internet File System Citrix XenApp .................................................................. 50 XenMotion ............................................................ 50 XenServer ............................................. 48, 49, 451 Citrix XenApp .......................................................... 50 Citrix XenMotion ................................................... 50 Citrix XenServer ............................................... 48, 49 Client Hyper-V ............................................. 128, 200 Clientzugriffspunkt ................................... 712, 714 Cloud Witness ....................................................... 700 Cluster Aware Updating ....... 677, 726, 733, 760, 775, 809

933

Index

Index

Cluster Continuous Replication .................... 675 Cluster in a Box .................................................... 260 Cluster Name Object .......................................... 672 Cluster Node Weight .......................................... 732 Cluster Shared Volume .......... 55, 216, 259, 274, 275, 278, 339, 401, 459, 672, 676, 684, 701, 712, 731, 754, 861, 875 Block Cache ....................................................... 275 Cluster Shared Volume File System ............. 701 Cluster.exe ............................................................. 688 Cluster-Aware Updating ................................... 760 Cluster-Netzwerk ........................................ 338, 343 Cluster-Shared Volume .................. 743, 748, 875 Cache ................................................................... 744 CN 씮 Congestion Notification CNO 씮 Cluster Name Object Column Count ...................................................... 248 Common Internet File System .............. 207, 752 Compute-Cluster ................................................. 674 Congestion Notification ................................... 357 Connectix ................................................. 44, 47, 451 Connectix Virtual PC ............................................ 44 Consistent Device Naming ..................... 330, 347 Container ................................................................ 609 anzeigen ............................................................. 625 ausführen ........................................................... 623 benennen ........................................................... 625 Daten persistieren .......................................... 632 debuggen ........................................................... 632 Docker ................................................................. 619 Docker installieren ......................................... 619 Dockerfile .................................................. 634, 636 Host ............................................................. 612, 616 Host einrichten ................................................ 616 Hyper-V-Container ...................... 614, 617, 628 Image ....................................... 612, 615, 622, 628 Images erstellen .............................................. 634 Images filtern ................................................... 639 Images löschen ................................................ 639 Images veröffentlichen ................................. 640 Layer .................................................................... 622 Lizenzierung ..................................................... 614 Micro-Labelling ............................................... 651 NAT ....................................................................... 621 Netzwerk ................................................... 621, 630 Port ....................................................................... 631 Registry ............................................................... 612 Remoting ........................................................... 640 Tag ............................................................... 622, 640 transparentes Netzwerk ............................... 621

934

Container (Forts.) Umgebungsvariablen ................................... 631 untersuchen ...................................................... 625 Versionierung .......................................... 638, 649 Volume ....................................................... 622, 632 Windows-Server-Container ......................... 613 Contoso AG Vorstellung ........................................................... 40 Converged ........................................... 282, 290, 291 Converged Netzwerk .............. 209, 357, 382, 404 Copy on Write ....................................................... 821 CPU ............................................................................ 437 Begrenzung ....................................................... 441 Core ............................................................. 414, 437 für SQL Server ................................................... 598 Hyper-Threading ............................. 83, 437, 598 Kern ................................................... 137, 355, 437 Kompatibilität ........................................ 443, 761 Kontextwechsel ............................................... 137 logische ................................... 121, 438, 442, 877 Oracle Database .............................................. 601 Prozess ................................................................ 137 Reserve ................................................................ 441 Ring ......................................................................... 66 Second Level Address Translation .... 128, 810 Second Level Paging ...................................... 139 Secure Boot ..................................... 494, 498, 573 Sockel .......................................................... 414, 437 Thread ................................................................. 137 Version ....................................................... 443, 445 Virtual ........................................................ 550, 570 virtuelle ............................ 83, 121, 438, 442, 877 Crash Consistency ............................................... 829 Credential Security Support Provider 750, 762 CredSSP 씮 Credential Security Support Provider CSS 씮 Customer Support Service CSV File System .................................................... 274 CSV 씮 Cluster-Shared Volume CSV-Cache ............................................................... 744 CSVFS 씮 CSV File System CSV-Netzwerk .................................... 339, 343, 383 Customer Support Service ............................... 690

D Daisy Chaining ..................................................... 236 DAS 씮 Direct Attached Storage Data Center Bridge ........................... 297, 318, 771

Data Center Bridging ...................... 356, 365, 366 Data Center Bridging Capabilities Exchange Protocol ......................................... 357 Database Availability Group .............................. 42 Datacenter Firewall ............................................. 405 Dateiorientiertes Protokoll ............................. 207 Datenbank, Konsistenz ..................................... 820 Datensicherung ........................................... 813, 814 Agent ................................................................... 820 Altaro ................................................................... 861 Anforderung ..................................................... 815 Application-Level-Backup ........................... 819 Ebene ................................................................... 819 Failover-Cluster ............................................... 860 Image ................................................................... 818 Image-Level-Backup ...................................... 821 Konsistenz ......................................................... 822 Methode ............................................................. 818 Snapshot ............................................................ 818 Storage Area Network .................................. 818 Veeam ................................................................. 861 Werkzeuge ......................................................... 816 Wiederherstellung .......................................... 814 Datenspeicher Performance ..................................................... 213 Datenträger überprüfen (Befehl) .................. 457 Datenverlust .......................................................... 814 Datenwiederherstellung ......................... 814, 818 Methode ............................................................. 818 DCB Capabilities Exchange Protocol 씮 Data Center Bridging Capabilities Exchange Protocol DCB 씮 Data Center Bridge DCB 씮 Data Center Bridging DCBX 씮 Data Center Bridging Capabilities Exchange Protocol DCOM 씮 Distributed Component Object Model dcpromo.exe ......................................................... 828 DDA 씮 Discrete Device Assignment Demilitarisierte Zone ...... 42, 124, 163, 189, 918 Device Specific Module .................. 212, 229, 471 DFS 씮 Distributed File System DFS-Namespaceserver ....................................... 711 DHCP Guard .......................................................... 484 DHCP 씮 Dynamic Host Configuration Protocol DHCP-Server .......................................................... 711 DHCP-Wächter ..................................................... 484 Differentiated Services Code Point .............. 771 Dille, Nicholas .......................................................... 27

Direct Attached Storage ......... 50, 203, 216, 258, 267, 694 Direct Memory Access ....................................... 353 Disaster Recovery ....................................... 828, 904 Discrete Device Assignment .................... 66, 156 Disk2Vhd ................................................................ 907 Diskless Server ...................................................... 216 Distributed Component Object Model ....... 764 Distributed File System .............................. 42, 305 Distributed Management Task Force .......... 505 Distributed Network Name ............................. 688 Distributed Resource Scheduling .................... 49 DMA 씮 Direct Memory Access DMTF 씮 Distributed Management Task Force DMZ 씮 Demilitarisierte Zone DNN 씮 Distributed Network Name DO 씮 Dynamic Optimization Docker ...................................................... 48, 610, 619 .dockerignore .................................................... 646 attach .................................................................. 633 build ..................................................................... 634 Cattle ................................................................... 656 Clientzertifikat ................................................. 653 Compose ............................................................. 655 cp ........................................................................... 634 DOCKER_CERT_PATH ................................... 654 DOCKER_HOST ................................................ 641 DOCKER_TLS_VERIFY ................................... 653 Dockerfile .................................................. 634, 636 exec ....................................................................... 633 Hub ....................................................................... 628 images ................................................................. 639 info ....................................................................... 653 inspect ................................................................. 625 Konfigurationsdatei ...................................... 640 Kubernetes ......................................................... 656 Layer ........................................................... 622, 646 login ..................................................................... 640 logs ....................................................................... 633 Machine .............................................................. 655 Named Pipe ....................................................... 640 Netzwerkzugriff ...................................... 640, 652 Portainer ............................................................ 657 ps ........................................................................... 625 pull ............................................................... 630, 640 push ...................................................................... 640 Rancher ............................................................... 656 Remoting ............................................................ 640 rm .......................................................................... 627 rmi ........................................................................ 639 run ........................................................................ 623

935

Index

Index

Docker (Forts.) search .................................................................. 628 Serverzertifikat ................................................ 652 Swarm ................................................................. 656 Tag ........................................................................ 629 tag ......................................................................... 640 version ................................................................. 641 Volume ....................................................... 622, 632 Dockerfile ENTRYPOINT ..................................................... 645 Escape Character ............................................ 637 SHELL ................................................................... 644 Domäne separate .............................................................. 190 Downtime .............................................................. 890 geplante .............................................................. 664 ungeplante ........................................................ 664 DRS 씮 Distributed Resource Scheduling DSC 씮 PowerShell Desired State Configuration DSCP 씮 Differentiated Services Code Point DSM 씮 Device Specific Module Dynamic Host Configuration Protocol ...... 132 Dynamic Memory 136, 141, 143, 434, 591, 597 soziale Auswirkung ........................................ 145 Dynamic Optimization ..................................... 683 Dynamischer Arbeitsspeicher ................. 83, 434 Dynamisches Team ............................................ 359

E E/A-Virtualisierung mit Einzelstamm 372, 377 Eingeschränkte Kerberos-Delegation 씮 Kerberos Constraint Delegation Empfangsseitige Skalierung 씮 Receive Side Scaling Emulation .................................................................. 64 Emuliertes Gerät ..................................................... 74 Endpoint Protection 씮 System Center Endpoint Protection Enhanced Transmission Selection ............... 357 Enlightenment ................................................. 65, 68 Ereignis-ID .............................................................. 866 Erweiterbare Netzwerk-Switches .................. 372 ESXi 씮 VMware ESXi ETS 씮 Enhanced Transmission Selection Exchange 씮 Microsoft Exchange Extensible Switch ................................................... 80 Externes Netzwerk .............................................. 333

936

F Fabrikam AG Vorstellung ........................................................... 43 Failback ........................................................... 671, 672 Failover .............................. 671, 672, 710, 720, 721 Failover-Cluster .... 159, 235, 266, 270, 297, 401, 515, 671, 676, 695, 759, 775, 875 aktualisieren 씮 Cluster Aware Updating API ......................................................................... 728 Azure Quorum ................................................. 677 Begriffe ................................................................ 671 Cloud Witness ................................................... 700 Cluster Aware Updating ............................... 677 Cluster Name Object ...................................... 672 Cluster Shared Volume ................................. 672 Cluster-Netzwerk .................................... 338, 343 Continuous Replication ............................... 675 Coordinating Node ........................................ 339 CSV-Netzwerk ................................................... 343 Datensicherung ............................................... 860 Dienst ......................................................... 677, 734 DLL ........................................................................ 711 Dynamic Memory ........................................... 152 Entscheidungsmehrheit ............................... 677 Ereignis ...................................................... 716, 717 Fault Domain .......................................... 287, 680 Funktionalität .................................................. 671 Grenzen ............................................................... 668 Heartbeat ..................... 672, 697, 704, 707, 722 Heartbeat-Cluster ........................................... 338 IP-Adresse ................................................. 672, 720 keine Mehrheit ................................................. 700 Knoten ....... 671, 674, 677, 686, 689, 695, 698, 702–704, 710, 720, 722, 730, 733, 734 Knoten- und Dateifreigabemehrheit ...... 699 Knoten- und Datenträgermehrheit ......... 699 Knotenmehrheit .............................................. 699 Kommunikation .............................................. 704 Konfiguration .................................................. 693 Manager ............................................................. 704 maximale Anzahl Knoten .............................. 79 maximale Anzahl VMs .................................... 79 Name ................................................................... 706 Parameter .......................................................... 736 PowerShell ......................................................... 679 Prüfbericht ......................................................... 705 Quorum .... 260, 271, 291, 671, 686, 697, 701, 707, 731, 754 Redirected I/O .................................................. 339 Registrierung .................................................... 688

Failover-Cluster (Forts.) Ressource ........................................ 719, 733, 736 Rolle ..... 671, 672, 695, 701, 710, 711, 713, 721 Rolling Cluster Update ................................. 808 Rolling Upgrade .............................................. 678 Server ................................................................... 671 Split Brain .......................................................... 697 Stimmen ............................................................. 697 Stretch-Cluster ........................................ 309, 314 Tie Breaker ......................................................... 740 Updating ............................................................ 726 Validierung .................................... 672, 690, 693 Validierungsassistent ................................... 690 Validierungsbericht ....................................... 693 Validierungstest .............................................. 692 verschachtelter ................................................ 664 Verwaltungskonsole ......... 676, 681, 715, 716, 718, 731, 883 Virtual Computer Objects ........................... 685 Virtual Machine Compute Resiliency ..... 678 Vote ...................................................................... 697 Vote Majority ................................................... 677 Voter ................................................. 697, 698, 731 Witness ....................................................... 260, 291 Zeuge .......................................................... 260, 291 Zeugendatenträger ..................... 697, 700, 707 Failover-Cluster-Manager ................................ 883 FC 씮 Fibre Channel FCHBA 씮 Fibre Channel Host Bus Adapter FCoE 씮 Fibre Channel over Ethernet Festplatte voll ....................................................... 556 Fibre Channel .................. 209, 230, 337, 689, 701 FCoE ..................................................................... 709 NPIV ........................................................................ 84 over Ethernet ........................................... 209, 709 vFC ........................................................................ 709 Virtual ................................................................. 709 WWN ....................................................................... 84 Fibre Channel Host Bus Adapter ...................... 84 Fibre Channel over Ethernet 209, 337, 689, 709 File Transfer Protocol ........................................ 207 Filesystem Consistency .................................... 830 Flatrate für virtuelle Maschinen ................... 926

G Gast-Cluster ............................... 458, 469, 578, 596 GbE 씮 Gigabit Ethernet Generic Routing Encapsulation ........................ 80 Geräte-Manager, inaktive Geräte .................. 910 Geschäftsprozess ................................................. 832

Gigabit-Ethernet .................................................. 381 Globally Unique Identifier ........................ 73, 539 gMSA 씮 Group Managed Service Account Group Managed Service Account ................. 686 Gruppenrichtlinie ............................................... 534 Guarded Fabric ..................................................... 199 Guest Cluster ......................................................... 578 GUID 씮 Globally Unique Identifier

H Hard Disk Drive .................................................... 251 Hardware Compatibility List ................. 247, 675 Hardware, emulierte ............................................. 82 Hardwaretopologie ............................................. 448 Hardware-Virtualisierung ................................... 65 HBA 씮 Host-Bus-Adapter HCL 씮 Hardware Compatibility List HDD 씮 Hard Disk Drive Heartbeat ................................................................ 672 Heartbeat-Netzwerk ........................................... 338 HGS 씮 Host Guardian Service HNV 씮 Hyper-V Network Virtualization HNV-Gateway ....................................................... 318 Horizontales Skalieren ................... 688, 708, 720 Host Guardian Service ....................................... 192 Host Resource Protection ....................... 135, 449 Host-Bus-Adapter ............................. 159, 211, 693 Host-Cluster ........................................................... 753 Hot-Add Memory ....................................... 144, 597 HRL 씮 Hyper-V Replica Log HRM 씮 Hyper-V Recovery Manager Hybrid-Cloud ........................................................ 399 Hyperconverged ............................... 283, 291, 296 Hyper-Replica ....................................................... 582 Hyper-Threading .............. 83, 112, 121, 437, 598 Hyper-V Checkpoint ............................ 430, 458, 470, 541 Child-Partition .................................................... 75 Client ........................................................... 128, 200 Community ....................................................... 929 Dynamic Memory ........................ 136, 141, 143 dynamischer Speicher ...................................... 83 emuliertes Gerät ................................................. 74 Extensible Switch ............................................... 80 Generation 2 .................... 76, 83, 136, 157, 192 Heartbeat .............................................................. 68 Host Resource Protection ............................ 135 Integrationsdienste ................. 58, 68, 843, 909 Legacy Network Adapter ................................ 68 Lizenzierung ..................................................... 123

937

Index

Index

Hyper-V (Forts.) Management-OS ............ 58, 67, 113, 324, 587 Monitor ............................................................... 878 Nested Virtualization .................................... 135 Parent-Partition .......................................... 58, 69 PowerShell ............................................................ 93 Prüfpunkt ............................... 430, 458, 470, 541 Recovery Manager ......................................... 798 Replica . 55, 458, 571, 582, 760, 776, 797, 919 Replikatbroker ................................................. 711 Root-Partition ..................................................... 58 Smart Paging .................................................... 431 Snapshot ................................ 430, 458, 470, 541 Switch ............................................... 165, 694, 754 Switch Extension ............................................. 372 Switch-Erweiterung ................................ 80, 174 synthetisches Gerät .......................................... 74 Version 1.0 ............................................................ 45 Version 3.0 ............................................................ 46 Virtual Machine Management Service ..... 72 Virtual Machine Worker Process ................. 72 Virtualization Service Client ......................... 74 Virtualization Service Provider .................... 74 virtueller Switch .............................................. 347 Virtuelles Gerät ................................................... 73 VM der Generation 2 ... 76, 83, 136, 157, 192, 418, 475, 494, 562 VMBus ................................................... 67, 74, 330 VMConnect .............................................. 417, 522 VSS Writer .......................................................... 842 Werkzeuge ......................................................... 927 Hyper-V Network Virtualization 318, 321, 704 Hyper-V Recovery Manager ............................ 798 Hyper-V Replica ..... 55, 458, 571, 682, 760, 776, 797, 919 Hyper-V Replica Log ........................................... 777 Hyper-V 씮 Management-OS Hyper-V Server 2016 .......................................... 123 Hypervisor ...................................................... 57, 413 Bare Metal ............................................................ 59 hosted ..................................................................... 60 Logical Processor ............................................ 877 Microkernel .......................................................... 63 monolithischer ................................................... 62 nativer .................................................................... 59 Paravirtualisierung ........................................... 74 Partition ............................................................. 877 Root Virtual Processor .................................. 877 Typ 1 ........................................................................ 59 Typ 2 ........................................................................ 60 Virtual Machine Monitor ............................... 57

938

Hypervisor (Forts.) Virtual Processor ............................................. 877 Xen ........................................................................... 47 Zeitscheibenprinzip ........................................ 413 Hyper-V-Port ......................................................... 360 Hyper-V-Switch ........................................... 694, 754 Hyper-V-Switch-Erweiterung ......................... 174

I I/O Operations per Second .......... 213, 219, 251, 468, 592, 689, 702 I/O-Last .................................................................... 748 IDS 씮 Intrusion-Detection-System IEEE 802.1ax-2008 ............................................... 359 IEEE 802.1Qau ....................................................... 357 IEEE 802.1Qaz ........................................................ 357 IEEE 802.1Qbb ....................................................... 357 IEEE 802.1X .................................................... 355, 367 IEEE 802.3ad .................................................. 359, 360 Image ........................................................................ 821 Image-Level-Backup ........................................... 821 Import einer VM .................................................. 557 Improvisation, strukturierte .......................... 670 InfiniBand ............................................ 370, 385, 701 Integrationsdienste .......... 58, 68, 475, 486, 526, 843, 909 für Linux ............................................................. 570 Linux ....................................................................... 68 Zeitsynchronisierung .................................... 585 Intel Virtualization Technology ............. 65, 112 Intel VT .................................................................... 112 IntelliSense ................................................................ 95 Intel-VT ....................................................................... 65 Interleave ................................................................ 249 Internes Netzwerk ............................................... 333 Internet Protocol Address Management ... 318 Internet Wide Area RDMA Protocol ............. 368 Intrusion-Detection-System .................. 163, 168 Intrusion-Prevention-System ............... 163, 168 IOPS 씮 I/O Operations per Second IP Address Rewrite ................................................. 80 IP Rewrite ................................................................ 396 IPAM 씮 Internet Protocol Address Management IPS 씮 Intrusion-Prevention-System IPSec Task Offloading ............................... 367, 481 IPSecTO 씮 IPSec Task Offloading IPv6 .................................................................. 471, 787 iSCSI .............................................. 209, 382, 688, 701 Initiator ..................................................... 211, 471

iSCSI (Forts.) Target ............................................... 211, 471, 746 Target als Cluster ............................................ 749 ISE 씮 PowerShell Integrated Scripting Environment iWARP 씮 Internet Wide Area RDMA Protocol

J JBOD 씮 Just a Bunch of Disks JEA 씮 PowerShell Just Enough Administration Jumbo Frames .............................................. 490, 571 Just a Bunch of Disks .... 204, 261, 266, 282, 747

K Kappen, Jan ............................................................... 29 KCD 씮 Kerberos Constraint Delegation Keine Mehrheit, nur Datenträger ................. 700 Kerberos ......................................................... 188, 763 Kerberos Constraint Delegation ......... 750, 751, 763, 764 Kernel-based Virtual Machine ............ 17, 47, 50 Key Storage Drive ................................................ 193 Knoten- und Dateifreigabemehrheit .......... 699 Knoten- und Datenträgermehrheit ............. 699 Knotenmehrheit .................................................. 699 Kompatibilität von CPUs ................................. 443 Komplexität, Netzwerk ..................................... 666 Konsistenz .............................................................. 826 Applikation ....................................................... 830 Dateisystem ...................................................... 830 Datenbank ......................................................... 820 systemübergreifend ....................................... 833 Transaktion ....................................................... 830 Konsistenztyp ....................................................... 829 Konzept für Ausfallsicherheit ...................................... 668 KSD 씮 Key Storage Drive Kundenadresse ..................................................... 397 KVM 씮 Kernel-based Virtual Machine

L Large Send Offloading ....................................... 397 Lastenausgleich .................................................... 729 LBFO 씮 Load Balancing and Failover LCAP 씮 Link Aggregation Control Protocol Legacy Network Adapter ..................................... 68 Legacy-Netzwerkadapter .................................. 877 Leistungsindikator .............................................. 725

Link Aggregation Control Protocol ..... 359, 362 Linux ......................................................................... 610 Integrationsdienst ............................................. 68 Live-Migration ........ 55, 458, 490, 515, 681, 704, 708, 714, 726, 734, 759, 760, 771 komprimiert ...................................................... 775 Leistungsoptionen .......................................... 775 Shared Nothing ....................................... 767, 768 SMB ...................................................................... 775 Speichermigration ................................. 759, 768 TCP/IP .................................................................. 775 Live-Migration-Netzwerk .............. 339, 343, 383 Lizenzierung ................................................. 123, 923 benutzerbezogene .......................................... 606 Downgrade-Recht ........................................... 926 endgerätebezogene ........................................ 606 Live-Migration ................................................. 926 Lizenzmobilität ................................................ 926 Prozessorkerne ................................................. 924 virtuelle Maschinen ....................................... 925 Lizenzmobilität .................................................... 926 Load Balancing and Failover ........ 318, 364, 704 Logical Unit Number ............. 210, 217, 450, 465, 468, 701, 707, 709, 747, 750 Logische CPU ............................. 121, 438, 442, 877 LSO 씮 Large Send Offloading LUN 씮 Logical Unit Number Lync ........................................................................... 154

M Mailserver wiederherstellen ........................... 817 Mainframe ................................................................. 47 Management Collection ................................... 503 Management-Netzwerk ................. 336, 341, 383 Management-OS .......... 58, 67, 69, 113, 324, 587 MAP 씮 Microsoft Assessment and Planning MBSA 씮 Microsoft Baseline Security Analyzer MDOP 씮 Microsoft Desktop Optimization Pack Mean Time Between Failures ......................... 665 MED-V 씮 Microsoft Enterprise Desktop Virtualization Mehrheit keine Mehrheit ................................................. 700 Knoten ................................................................. 699 Knoten und Dateifreigabe ........................... 699 Knoten und Datenträger ............................. 699 Memory Pressure ................................................ 144 Memory Weight ................................................... 147 Metering ......................................................... 505, 514

939

Index

Index

Microsoft Assessment and Plannung Toolkit .......... 703 Baseline Security Analyzer .......................... 167 Best Practices Analyzer ......................... 76, 166 Desktop Optimization Pack .......................... 53 Enterprise Desktop Virtualization .............. 53 Exchange ................................................... 153, 172 Hyper-V Server ................................................. 123 Lync ...................................................................... 154 Small Business Server .................................... 154 Software Assurance ....................................... 114 SQL Server .......................................................... 153 Virtual PC ............................................. 47, 52, 451 Virtual Server ............................................... 44, 53 Windows Server 2012 Hyper-V ...................... 48 Microsoft Assessment and Planning ... 254, 703 Microsoft Baseline Security Analyzer ......... 167 Microsoft Desktop Optimization Pack .......... 53 Microsoft Enterprise Desktop Virtualization ...................................................... 53 Microsoft Exchange .................................. 153, 172 Microsoft Virtual PC .............................................. 47 Microsoft Virtual Server ...................................... 53 Microsoft-Update-Datei .................................... 567 Mindest-Bandbreite ........................................... 382 Möglicher Besitzer .............................................. 673 Most Valuable Professional ................................ 27 MPIO 씮 Multi-Path I/O MSU 씮 Microsoft-Update-Datei MTBF 씮 Mean Time Between Failures Multichannel ......................................................... 267 Multi-Path I/O ....... 212, 237, 266, 286, 343, 391 Multipfad-E/A ........ 212, 237, 266, 286, 343, 391 Multi-Site-Cluster ....................................... 674, 731 MVP 씮 Most Valuable Professional

N N_Port ID Virtualization ........................... 84, 232 Nano Server ........................................ 114, 615, 646 Nano Server Image Builder ............................. 118 NAS 씮 Network Attached Storage NAT 씮 Network Address Translation NDIS 씮 Network Device Interface Specification NDMP 씮 Network Data Management Protocol Nested Virtualization ........................................ 135 netlogon .................................................................. 826 Network Converged .......................................................... 404 Virtualization ................................................... 704

940

Network Address Translation ......................... 132 Network Attached Storage .............. 50, 206, 750, 917, 918 Network Controller ............................................. 318 Network Data Management Protocol ........ 469, 818, 829 Network Device Interface Specification ..... 372 Network File System ................................... 49, 207 Network Time Protocol ..................................... 570 Network Virtualization Generic Routing Encapsulation ......................................... 366, 395 Netzwerk 802.1ax-2008 .................................................... 359 802.1Qau ............................................................. 357 802.1Qaz ............................................................. 357 802.1Qbb ............................................................. 357 802.1X .................................................................. 355 802.3ad ............................................................... 359 Addresshash ...................................................... 360 ältere Netzwerkkarte ..................................... 475 Anbieteradresse ...................................... 395, 397 Bandbreitenverwaltung ............................... 479 Cluster-Netzwerk ............................................. 338 Congestion Notification ............................... 357 Converged .............................. 209, 321, 357, 382 CSV-Netzwerk .......................................... 339, 383 Data Center Bridge ......................................... 297 Data Center Bridging .................................... 365 Data Center Bridging Capabilities Exchange Protocol .................................... 357 Datacenter Firewall ....................................... 405 DCB ....................................................................... 365 DCB Capabilities Exchange Protocol ...... 357 DCBX .................................................................... 357 DHCP Guard ..................................................... 484 DHCP-Wächter ................................................. 484 dynamisches Team ........................................ 359 emulierte Netzwerkkarte ............................. 475 Enhanced Transmission Selection ........... 357 erweiterbarer Netzwerk-Switch ................. 372 ETS ........................................................................ 357 externes .............................................................. 333 Gast-Teaming ................................................... 486 Heartbeat-Netzwerk ...................................... 338 HNV ...................................................................... 321 Host-Ebene ........................................................ 320 Host-Teaming .................................................. 486 Hyper-V Network Virtualization .............. 321 Hyper-V Switch Extension ........................... 372 Hypervisor-Ebene ........................................... 322 Hyper-V-Port .................................................... 360

Netzwerk (Forts.) IEEE 802.1ax-2008 .......................................... 359 IEEE 802.1Qau ................................................... 357 IEEE 802.1Qaz ................................................... 357 IEEE 802.1Qbb ................................................... 357 IEEE 802.1X ............................................... 355, 367 IEEE 802.3ad ...................................................... 359 InfiniBand ................................................. 370, 385 internes ............................................................... 333 Internet Wide Area RDMA Protocol ........ 368 IP Rewrite ........................................................... 396 IPSec Task Offloading .......................... 367, 481 iWARP .................................................................. 368 Jumbo Frames ......................................... 490, 571 Komplexität ...................................................... 666 Kundenadresse ................................................ 397 Large Send Offloading .................................. 397 LBFO ............................................................ 364, 704 LCAP ............................................................ 359, 362 Link Aggregation Control Protocol 359, 362 Live-Migration-Netzwerk ......... 339, 343, 383 Load Balancing and Failover ............ 318, 364 Management-Netzwerk ............ 336, 341, 383 Metrik einer Route .......................................... 346 MPIO .................................................................... 391 NDIS ..................................................................... 372 Network Controller ........................................ 318 Network Virtualization Generic Routing Encapsulation ............................ 366 Netzwerkcontroller ........................................ 406 Netzwerkvirtualisierung .............................. 391 Netzwork Device Interface Specification ................................................ 372 NVGRE ........................................................ 366, 395 PFC ........................................................................ 369 Physical Function ........................................... 353 Port ACL ..................................................... 173, 507 Port Mirror ........................................................ 484 Port Mirroring .................................................. 378 Port-Spiegelung ............................................... 378 Priority Flow Control ............................ 297, 369 Priority-based Flow Control ....................... 357 privates ............................................................... 333 Provider Address .................................... 395, 397 PVLAN .................................................................... 80 QoS ....................................................................... 318 Quality of Service ......................... 298, 318, 366 RDMA over Converged Ethernet ............... 369 Receive Segment Coalescing ...................... 367 Receive Side Scaling .................... 355, 367, 490 RoCE ............................................................ 322, 369

Netzwerk (Forts.) Router Guard .................................................... 484 Routerwächter ................................................. 484 RSC ........................................................................ 367 RSS ............................................................... 355, 367 SDN ....................................................................... 405 SET ........................................................................ 365 Single Root I/O Virtualization ......... 353, 367, 372, 374 Software Defined ............................................ 924 Software Defined Networking .......... 318, 405 Software Load Balancer ...................... 319, 408 Speicher-Netzwerk ................................. 337, 342 SR-IOV .............................................. 353, 367, 374 statisches Teaming ........................................ 359 Storage-Netzwerk ........................................... 337 Switch Dependent Team .............................. 359 Switch Embedded Teaming ..... 318, 365, 694 Switch Extension ............................................. 372 Switch Independent Team ........................... 358 switch-abhängiges Team ............................. 359 switch-unabhängiges Team ....................... 358 synthetische Netzwerkkarte ....................... 475 Tagging ............................................................... 490 TCP Chimney ........................................... 355, 367 TCP Offloading ................................................. 355 Teaming ..................................................... 485, 694 Virtual Function ..................................... 353, 481 Virtual Machine Queue ... 349, 361, 362, 367, 377, 397 Virtual Receive Side Scaling ........................ 367 Virtual Subnet ID ............................................ 395 Virtual Switch ................................................... 322 Virtualisierung .......................................... 80, 391 virtuelle Netzwerkkarte ................................ 348 virtueller Switch .............................................. 347 VLAN ........... 333, 337, 383, 388, 391, 490, 571 VM-Ebene ........................................................... 324 VM-Netzwerk .................................................... 335 VMQ ...................... 349, 361, 362, 367, 377, 397 vRSS ...................................................................... 367 vSwitch ....................................................... 322, 754 VXLAN ................................................................. 397 WFP ....................................................................... 372 Windows Filtering Platform ....................... 372 Windows Network Virtualization ............ 394 WNV ..................................................................... 394 Netzwerk 씮 802.1X Netzwerk 씮 Network Virtualization Generic Routing Encapsulation Netzwerkanmeldedienst .................................. 825

941

Index

Index

Netzwerkcontroller ................................... 318, 406 Netzwerknamenressource ............................... 673 Netzwerk-QoS ....................................................... 366 Netzwerkvirtualisierung .................................. 391 NFS 씮 Network File System Node Drain ............................................................. 732 Node Vote Weight ............................................... 731 Non-Uniform Memory Access .............. 148, 447 Non-Volatile Memory Express ............ 157, 239, 286, 292 Notfall-Rechenzentrum .................................... 917 NPIV 씮 N_Port ID Virtualization NTP 씮 Network Time Protocol NUMA 씮 Non-Uniform Memory Access NUMA Spanning .................................................. 149 Nutanix ............................................................... 47, 51 Nutanix Acropolis .................................................. 51 NVGRE 씮 Generic Routing Encapsulation NVGRE 씮 Network Virtualization Generic Routing Encapsulation NVM Express ......................................................... 204 NVMe 씮 Non-Volatile Memory Express NVMe 씮 NVM Express

O Online VHDX Resize ........................................... 797 Open Source .......................................................... 610 OpenStack .......................................................... 47, 51 Operations Manager 씮 System Center Operations Manager Orchestrator 씮 System Center Orchestrator

P P2V 씮 Physical-to-virtual Pagefile .................................................................... 217 Paging ...................................................................... 138 Paravirtualisierung ......................................... 64, 74 Parent-Partition ............................................... 58, 69 Partition ..................................................................... 47 Partitionsstil GPT ................................... 229, 231 Pass-through Disk ...................................... 220, 464 Pass-through Storage ......................................... 761 PCI Express ............................................................. 481 Performance and Resource Optimization 683 Perimeter-Netzwerk ........................................... 189 PFC 씮 Priority Flow Control PFC 씮 Priority-based Flow Control Physical Operating System Environment .... 59

942

Physical-to-virtual ........................ 37, 54, 898, 903 DHCP ................................................................... 910 für Domänencontroller ................................ 905 Online .................................................................. 907 Physische Festplatte in einer VM .................. 464 Port ACL .......................................................... 173, 507 Port Mirror ............................................................. 484 Port Mirroring ...................................................... 378 Port-Spiegelung ........................................... 378, 484 POSE 씮 Physical Operating System Environment PowerShell ........................... 93, 216, 679, 723, 844 Desired State Configuration ....................... 105 Direct ................................................................... 101 Get-Help ...................................................... 96, 736 Just Enough Administration ...................... 175 Local Configuration Manager ................... 106 Remoting ............................................................... 99 PowerShell Desired State Configuration ... 105 PowerShell Direct ................................................ 101 PowerShell Integrated Scripting Environment ....................................................... 94 PowerShell Just Enough Administration ... 175 Präsentationsvirtualisierung ......................... 604 Preboot Execution Environment .................. 475 Priorität von VM .................................................. 439 Priority Flow Control ................................ 297, 369 Priority-based Flow Control ............................ 357 Private Cloud ......................................................... 398 Private Virtual LAN ................................................ 80 Privates Netzwerk ............................................... 333 Production Checkpoint ..................................... 430 Produktionsprüfpunkt ...................................... 430 Protected Mode ....................................................... 66 Protokoll blockorientiertes ............................................. 208 dateiorientiertes .............................................. 207 Prozessisolierung ................................................ 609 Prozessor in einer VM ....................................... 437 Prozessorkompatibilität .......................... 443, 761 Prozessorversion ........................................ 443, 445 PRTG Network Monitor .................................... 878 Prüfpunkt ............................................................... 162 PSDSC 씮 PowerShell Desired State Configuration PXE 씮 Preboot Execution Environment

Q QoS 씮 Quality of Service Quality of Service ................................................ 771

Quick-Migration .................................................. 734 Quorum-Datenträger ........................................ 272

R RAID Konfiguration .................................................. 205 Level 1 .................................................................. 701 RAID 씮 Redundant Array of Independent Disks Raw Device Mapping .......................................... 220 RBAC 씮 Role-based Access Control RCT 씮 Resilient Change Tracking RDMA over Converged Ethernet ......... 297, 322, 369 RDMA 씮 Remote Direct Memory Access RDS 씮 Remote Desktop Services Read-Only Domain Controller .............. 685, 835 Receive Segment Coalescing .......................... 367 Receive Side Scaling .................................. 355, 367 Recovery Consistency Objective .......... 831, 833 Recovery Objective ............................................. 831 Recovery Point Objective ........................ 831, 832 Recovery Time Actual ............................... 831, 832 Recovery Time Objective ................................. 831 Redirected I/O ....................................................... 748 Redundant Array of Independent Disks .... 204 Redundanz ............................................................. 660 problematische ................................................ 665 standortübergreifende ................................. 916 ReFS 씮 Resilient File System Regelwerk zur Konfiguration ............................ 77 Remote Desktop Services ................................. 153 Remote Desktop Services Client Access License ................................................................ 606 Remote Direct Memory Access ........... 269, 297, 318, 355, 366, 368, 685 Remote Server Administration Tools 134, 200 Remote-Aktualisierung .................................... 728 RemoteApp ............................................................ 604 Remotedesktopdienste ..................................... 604 Remotedesktop-Gateway ................................. 605 Remotedesktop-Lizenzierung ........................ 605 Remotedesktop-Protokoll ............................... 170 RemoteFX ............................................ 424, 494, 761 Remoteserver-Verwaltungswerkzeuge ................................................. 134, 200 repadmin ................................................................ 826 Replica 씮 Hyper-V Replica Resilient Change Tracking ............................... 842

Resilient File System .... 224, 278, 291, 676, 685 Block Cloning ................................................... 226 Extent .................................................................. 227 Integrity Streams ............................................ 226 Parität ................................................................. 226 Spiegel ................................................................. 226 Ressource, Maximalwerte in einer VM ....... 415 Ressourcenabhängigkeit .................................. 672 Ressourcengruppe .............................................. 672 Ressourcen-Pool .................................................. 505 Restore 씮 Datenwiederherstellung RoCE 씮 RDMA over Converged Ethernet RODC 씮 Read-Only Domain Controller Rogue DHCP Server ............................................ 484 Rogue Router ......................................................... 484 Role-based Access Control ............................... 177 Rollback ................................................................... 833 Rolleninhaber ....................................................... 722 Rolling Cluster Update ...................................... 808 Root-Partition ................................................ 58, 877 Router Guard ......................................................... 484 Routerwächter ...................................................... 484 RSAT 씮 Remote Server Administration Tools RSC 씮 Receive Segment Coalescing RSS 씮 Receive Side Scaling

S S2D 씮 Storage Spaces Direct SA 씮 Software Assurance SAN 씮 Storage Area Network SAS 씮 Serial Attached SCSI SBC 씮 Server-Based Computing Scale-Out File Server .... 259, 266, 269, 275, 405, 459, 676, 698, 701, 743, 752, 921 I/O Scheduler .................................................... 278 Policy Manager ................................................ 278 Schaden für das Unternehmen ...................... 663 Schattenkopie ........................... 797, 820, 841, 842 SCOM 씮 System Center Operations Manager SCSI ............................................................................ 674 SCSI Enclosure Services ..................................... 247 SCVMM 씮 System Center Virtual Machine Manager SDN 씮 Software Defined Networking SDS 씮 Software Defined Storage Second Level Address Translation ....... 128, 810 Second Level Paging .................................. 139, 147 Secure Boot ................................ 193, 494, 498, 573 Security Identifier ................... 161, 539, 793, 827 Selbstaktualisierung ........................................... 728

943

Index

Index

Serial ATA ............................................................... 701 Serial ATA (SATA) ................................................. 112 Serial Attached SCSI ................................... 689, 701 Serial Attached SCSI (SAS) ................................ 112 Server Message Block ............. 207, 267, 270, 685 3.0 ......................................................................... 119 Multichannel ........................................... 267, 270 SMB 3.0 ............................................................... 714 Server Virtualization Validation Program ........................................... 577, 591, 596 Server-Applikation Lizenz ................................................................... 926 Server-Based Computing ................................. 604 Server-Manager .................................................... 704 Server-Virtualisierung, Vor- und Nachteile ............................................................... 33 Service Provider License Agreement ........... 919 SES 씮 SCSI Enclosure Services SET 씮 Switch Embedded Teaming Shared Nothing Live Migration ........... 556, 575, 712, 767, 768 Shared VHDX ..................................... 458, 710, 809 Shared-SAS ............................................................. 747 Shielded Virtual Machines .............................. 192 Shielded VM .................... 418, 498, 690, 922, 924 Sicherungsagent .................................................. 820 SID 씮 Security Identifier SIM 씮 Windows System Image Manager Simplivity .................................................................. 47 Single Point of Failure ....................................... 698 Single Root I/O Virtualization ....... 66, 353, 367, 372, 374, 377, 481 Physical Function ........................................... 353 Virtual Function .............................................. 353 Sitzungsbasierte Desktopbereitstellung .... 604 Sitzungsbasierter Desktop ............................... 604 Sitzungs-Host ........................................................ 605 Skalieren horizontales ................................... 688, 708, 720 SLAAC 씮 Stateless Address Autoconfiguration SLAT 씮 Second Level Address Translation SLB 씮 Software Load Balancer Small Business Server ........................................ 154 Smart Paging ...................................... 147, 431, 560 SMB Direct ................................................................... 685 Multichannel .................................................... 685 SMB Direct .............................................................. 685 SMB Multichannel .............................................. 685 SMB 씮 Server Message Block Snapshot .............................................. 162, 759, 885

944

SOFS 씮 Scale-Out File Server Soft Partitioning .................................................. 600 Software Assurance ................................... 114, 927 Software Defined Networking ..... 318, 405, 924 Software Defined Storage ................................. 701 Software Load Balancer ............................ 319, 408 Software Storage Bus ......................................... 290 Solid State Disk ............... 214, 238, 251, 286, 292 Solid State Disk (SSD) ......................................... 112 Speicher Auslagerung ..................................................... 138 Hot Add Memory ............................................ 144 Memory Pressure ............................................ 144 Non-Uniform Memory Access ................... 148 Paging ................................................................. 138 Pool ...................................................................... 142 Seite ...................................................................... 139 Speicher-Cluster ................................................... 746 Speicher-Netzwerk ..................................... 337, 342 Speicher-Pool .................. 142, 685, 701, 746, 748 Speicherseite ......................................................... 139 SPLA 씮 Service Provider License Agreement Split Brain ............................................ 403, 697, 740 SQL Server .............................................................. 153 SR-IOV 씮 Single Root I/O Virtualization SSD 씮 Solid State Disk Standby-Cluster ................................................... 674 Startreihenfolge in einer VM .......................... 424 Stateless Address Autoconfiguration .......... 471 Statisches Teaming ............................................. 359 Stolperfalle ................................................................ 34 Storage ..................................................................... 746 All-Flash .............................................................. 292 Cache ................................................................... 293 Cluster Shared Volume ................................. 401 Cold Data ........................................................... 252 Column Count ......................................... 248, 257 CSV ........................................................................ 401 CSV-Netzwerk .......................................... 339, 383 Daisy Chaining ................................................ 236 Distributed File System ................................. 305 Enclosure Awareness ..................................... 246 Hot Data ............................................................. 252 Hot Spare ........................................................... 243 Hybrid ................................................................. 292 Interleave ........................................................... 249 Live-Migration ........................................ 458, 556 Multi-Path I/O .................................................. 343 Multipfad-E/A .................................................. 343 Parität .............................................. 241, 252, 287 Pass-through .................................................... 761

Storage (Forts.) Pass-through Disk ................................. 220, 464 Performance ..................................................... 213 Pinning ................................................................ 253 QoS ........................................... 278, 467, 703, 772 Quality of Service ................................... 703, 772 Raw Device Mapping .................................... 220 Redirected Mode ............................................. 261 ReFS ...................................................................... 676 Replica ................................................................. 673 Replikation ........................................................ 305 Scale-Out File Server ................... 405, 676, 698 Shared Nothing Live-Migration ....... 556, 575 Shared VHDX ........................................... 458, 809 Software Defined Storage ........................... 701 Software Storage Bus .................................... 290 Spaces ...................................... 222, 235, 258, 685 Spaces Direct .... 252, 282, 290, 296, 371, 405, 673, 701, 920, 924 Speicher-Netzwerk ................................. 337, 342 Spiegel .............................................. 241, 252, 287 Storage Area Network .................................. 337 Storage Spaces Direct .......................... 371, 405 Storage-Netzwerk ........................................... 337 Stretch-Cluster ................................................. 309 Stripes .................................................................. 249 Thin Provisioning ........................ 217, 453, 469 Tiering ........................................................ 251, 277 Trim ...................................................................... 491 VHDX Resize ..................................................... 491 vSAN ............................................................ 231, 473 Write Back Cache ............................................ 253 Storage Area Network ........... 159, 208, 337, 424, 450, 468, 689, 694, 697, 701, 750 Storage Live Migration ............................. 458, 556 Storage Migration .................................................. 55 Storage QoS ................................ 278, 467, 703, 772 Storage Replica ............................................ 305, 673 Storage Spaces ................ 222, 235, 258, 685, 746 Storage Spaces Direct ............ 252, 282, 290, 296, 371, 405, 673, 701, 920, 924 Storage Tiering ............................................ 251, 277 Cold Data ........................................................... 252 Hot Data ............................................................ 252 Storage-Controller .............................................. 688 Storage-Netzwerk ................................................ 337 Storage-Replikation ............................................ 305 asynchron .......................................................... 306 Latenz .................................................................. 308 Log ........................................................................ 306 Stretch-Cluster ................................................. 314

Storage-Replikation (Forts.) synchron ............................................................. 306 Stretch-Cluster ...................................................... 309 Stripes ...................................................................... 249 SVVP 씮 Server Virtualization Validation Program Switch Dependent Team .................................. 359 Switch Embedded Teaming .......... 318, 365, 694 Switch Independent Team ............................... 358 Switch, Layer 2 ......................................................... 80 Switch-abhängiges Team .................................. 359 Switch-Erweiterung 씮 Hyper-V-SwitchErweiterung Switch-unabhängiges Team ............................ 358 Synthetisches Gerät .............................................. 74 Sysinternals ........................................................... 537 Sysprep ........................................ 160, 200, 539, 569 System Center App Controller ..................................................... 46 Endpoint Protection ...................................... 695 Operations Manager .............................. 55, 695 Orchestrator ................................................. 46, 55 Service Manager und System Center Orchestrator .................................................... 46 Virtual Machine Manager ... 54, 55, 126, 163, 193, 275, 337, 341, 367, 538, 683, 722, 729, 757, 800 System Center Endpoint Protection ............ 695 System Center Operations Manager .... 55, 695 System Center Orchestrator .............................. 55 System Center Virtual Machine Manager ... 54, 55, 126, 163, 193, 275, 337, 341, 367, 538, 683, 722, 729, 757, 800 Systemstate ........................................................... 837 Systemvorbereitungsprogramm .................. 539

T TCP Chimney ................................................ 355, 367 TCP Offloading ...................................................... 355 Terminal Services ................................................ 153 Terminal-Dienst .......................................... 153, 605 Thin Provisioning ............................. 217, 453, 469 Tiering 씮 Storage Tiering Tombstone Recovery ......................................... 839 Tool dism /Apply-Unattend .................................. 569 dism /Get-PackageInfo ................................. 567 dism /Mount-Image ............................. 566, 569 dism /Unmount-Image ....................... 566, 569 Sysprep ................................................................ 540

945

Index

Index

TPM 씮 Trusted Platform Module TPM-based Attestation ............................ 193, 195 Transactional Consistency .............................. 830 Transaktionskonsistenz ................................... 830 Trim .......................................................................... 491 Trusted Platform Module .... 175, 193, 426, 922 Typ 1-Hypervisor .................................................... 59 Typ 2-Hypervisor .................................................... 60

U Überprovisionierung ............................................ 83 UEFI 씮 Unified Extensible Firmware Interface Unified Extensible Firmware Interface ...... 494 Unterbrechungsfreie Stromversorgung .... 694 Update Sequence Number ............................... 824 Rollback .............................................................. 824 USB ............................................................................ 416 USN Rollback ................................................ 580, 582 USN 씮 Update Sequence Number USN-Rollback ......................................................... 905 USV 씮 Unterbrechungsfreie Stromversorgung

V V2V 씮 Virtual-to-virtual vCenter 씮 VMware vCenter VCO 씮 Virtual Computer Objects vCPU 씮 Virtual CPU vCPU 씮 Virtuelle CPU VDI 씮 Virtual Desktop Infrastructure Veeam ONE für Hyper-V ................................... 878 Verbindungs-Broker .......................................... 605 Verfügbarkeit ........................................................ 659 99,999 Prozent ................................................. 661 Definition ........................................................... 660 Klasse ................................................................... 663 Konzept ............................................................... 669 Prozentwerte .................................................... 661 zugesagte ........................................................... 664 Verfügbarkeitsklasse .......................................... 663 vFC 씮 Virtual Fibre Channel VHD Set ................................................................... 458 VHD-Satz ................................................................. 458 VHDX REsize .......................................................... 491 Virenscanner ......................................... 80, 167, 171 Virtual Computer Objects ................................ 685 Virtual CPU ................................................... 550, 570 Virtual Desktop Infrastructure ... 152, 456, 604 Virtual Device 씮 Virtuelles Gerät

946

Virtual Fibre Channel ......................................... 709 Virtual Function ................................................... 353 Virtual Hard Disk ................................................. 450 Virtual IDE Controller ........................................ 877 Virtual Iron ............................................................... 47 Virtual LAN ...... 80, 164, 165, 333, 337, 383, 388, 391, 479, 490, 571, 753 Virtual Machine Compute Resiliency ......... 678 Virtual Machine Health Summary ............... 877 Virtual Machine Management Service 72, 871 Virtual Machine Manager 씮 System Center Virtual Machine Manager Virtual Machine Monitor .................................... 57 Virtual Machine Queue ........ 349, 361, 362, 367, 377, 397, 480 Virtual Machine Worker Process ...................... 72 Virtual NUMA .............................................. 149, 448 Virtual Operating System Environment ....... 59 Virtual PC 씮 Connectix Virtual PC Virtual PC 씮 Microsoft Virtual PC Virtual Receive Side Scaling ............................ 367 Virtual SAN ............................................................. 473 Virtual Server ........................................................... 44 Virtual Server 씮 Microsoft Virtual Server Virtual Storage Device ....................................... 877 Virtual Subnet ID ................................................. 395 VirtualBox ................................................................. 47 Virtualisierung Netzwerk ............................................................... 80 Präsentation ..................................................... 604 Virtualisierungs-Host ........................................ 605 Virtualization Service Client .................... 74, 570 Virtualization Service Provider ........................ 74 Virtual-Netzwerkadapter .................................. 877 Virtual-to-virtual .......................................... 54, 897 Virtuelle CPU ...................... 83, 121, 438, 442, 877 Virtuelle Desktop-Infrastruktur ........... 152, 456 Virtuelle Festplatte erweitern ............................................................ 456 komprimieren .................................................. 456 konvertieren ...................................................... 456 verkleinern ......................................................... 456 Virtuelle Hardware ............................................. 423 Virtuelle Maschine ....................................... 75, 413 Anzeigename ........................................... 420, 429 Arbeitsspeicher ............................. 421, 432, 434 BIOS ............................................................. 424, 494 Checkpoint ..................................... 458, 470, 541 COM-Port ........................................................... 428 Diskettenlaufwerk .......................................... 429

Virtuelle Maschine (Forts.) Dynamic Memory .................................. 434, 597 erweiterte Sitzung .......................................... 527 Export .................................................................. 554 Festplatte ........................................................... 449 Fibre Channel .......................................... 424, 473 Firmware ................................................... 424, 494 Generation 1 ............................................. 418, 426 Generation 2 ...... 418, 422, 428, 475, 494, 562 Grafikkarte ........................................................ 424 Gruppe ................................................................ 502 IDE-Controller .................................................. 426 im Cluster erzeugen ....................................... 756 Import ................................................................. 557 Installationsmedium .................................... 422 Integrationsdienste .............................. 430, 526 Konsolenverbindung ..................................... 522 Management Collection .............................. 503 Metering ............................................................. 514 Netzwerkkarte ............................... 421, 424, 475 NIC-Teaming .................................................... 485 physische Festplatte ...................................... 464 Port ACL .............................................................. 507 Production Checkpoint ....................... 430, 545 Produktionsprüfpunkt ......................... 430, 545 Prozessor ............................................................ 437 Prüfpunkt ........................................ 458, 470, 541 Remote Desktop aktivieren ........................ 534 RemoteFX .................................................. 424, 494 Ressourcen ........................................................ 415 SCSI-Controller ................................................. 427 Secure Boot ....................................................... 573 Smart Paging ........................................... 431, 560 Snapshot ......................................... 458, 470, 541 Speicherpfad ..................................................... 420 Startaktion ........................................................ 431 Stoppaktion ...................................................... 432 UEFI ...................................................................... 494 USB ....................................................................... 416 USB-Festplatte ................................................. 467 virtuelle Netzwerkkarte ................................ 348 VM Collection ................................................... 503 VMConnect ....................................................... 548 VMConnect ....................................................... 522 VM-Netzwerk .................................................... 335 VM-Versionen .................................................. 517 Virtuelle Netzwerkkarte ................................... 348 Virtueller Switch .................................................. 347 Virtuelles Gerät ....................................................... 73

Virtuelles SAN ....................................................... 231 VLAN 씮 Virtual LAN VM Collection ....................................................... 503 VM Measurement ............................................... 193 VM 씮 Virtuelle Maschine VM Vid Partition .................................................. 877 VMBus ........................................................ 67, 74, 330 VMConnect ......................................... 417, 522, 548 erweiterte Sitzung .......................................... 527 VMDK 씮 VMware VMDK VM-Generation ID ............................................... 583 VM-Gruppen .......................................................... 502 VMM 씮 System Center Virtual Machine Manager VM-Monitoring .................................................... 881 VMMS 씮 Virtual Machine Management Service VM-Netzwerk ........................................................ 335 vMotion 씮 VMware vMotion VMQ 씮 Virtual Machine Queue VM-Replikation ................................. 760, 776, 919 Authentifizierung ........................ 778, 781, 787 Erstkopie ............................................................. 785 Failover-TCP/IP ................................................ 787 geplantes Failover .......................................... 793 Kompression ............................................ 782, 787 Log ........................................................................ 777 Replikat ...................................................... 776, 790 Replikat-Server ..................... 777, 780, 784, 796 Synchronisation .............................................. 789 Testfailover ........................................................ 791 Testreplikat ....................................................... 791 Wiederherstellungspunkt ........ 778, 783, 789, 791, 796 VM-Replikation 씮 Hyper-V Replica VM-Versionen ....................................................... 517 VMWare VXLAN ................................................................. 409 VMware ESX Server ............................................................. 47 ESXi .......................................................................... 47 GSX Server ............................................................ 47 Server ...................................................................... 47 Tools ..................................................................... 902 vCenter ................................................................... 49 VMDK ..................................................................... 49 vMotion ................................................................. 49 vSphere ................................................. 17, 48, 897 VXLAN ................................................. 81, 319, 366

947

Index

VMware DRS 씮 Distributed Resource Scheduling VMware ESXi ............................................................ 47 VMware Tools ....................................................... 902 VMware vCenter ..................................................... 49 VMware VMDK ........................................................ 49 VMware vMotion ................................................... 49 VMware vSphere .................................... 17, 48, 897 VMware VXLAN ....................................................... 81 VMWP 씮 Virtual Machine Worker Process Vollredundanz ...................................................... 666 Volume Shadow Copy Service .... 289, 489, 594, 685, 820, 841 VOSE 씮 Virtual Operating System Environment vRSS 씮 Virtual Receive Side Scaling vSAN 씮 Virtual SAN vSAN 씮 Virtuelles SAN VSC 씮 Virtualization Service Client VSP 씮 Virtualization Service Provider VSS 씮 Volume Shadow Copy Service vSwitch 씮 Hyper-V-Switch VXLAN .......................................... 319, 366, 397, 409 VXLAN 씮 VMware VXLAN

W Warteschlange für virtuelle Computer 씮 Virtual Machine Queue WDS 씮 Windows Deployment Service WebAccess .............................................................. Werkzeuge .............................................................. WFP 씮 Windows Filtering Platform Wiederanlaufzeit ................................................. Wiederherstellung Qualität .............................................................. Szenario .............................................................. Wiederherstellungszeit ..................................... WIM 씮 Windows Imaging Format Windows Deployment Service ....................... Windows Filtering Platform ............................

948

605 927 919 817 833 831 475 372

Windows Imaging Format ............................... 562 Windows Management Instrumentation 341, 510, 727 Windows Network Virtualization ................. 394 Windows Remote Management ........... 727, 764 Windows Server Core ................................ 113, 615 Windows Server Failover-Cluster .................. 672 Windows Server Update Services 341, 567, 726 Windows Server-Sicherung ............................. 842 Archivattribut .................................................. 846 Einmalsicherung ............................................. 845 NTBACKUP ........................................................ 842 Sicherungszeitplan ......................................... 845 Wiederherstellung .......................................... 850 Windows System Image Manager ................ 569 Windows-Firewall ................................................ 172 WinRM 씮 Windows Remote Management WMI 씮 Windows Management Instrumentation WNV 씮 Windows Network Virtualization World Wide Name ...................................... 212, 474 World Wide Node Name ................................... 212 World Wide Port Name ..................................... 212 Worldwide Name .................................................... 84 Write Back Cache ................................................. 253 WSFC 씮 Windows Server Failover-Cluster WSUS 씮 Windows Server Update Services www.gruppenrichtlinien.de ............................ 586

X XenApp 씮 Citrix XenApp XenMotion 씮 Citrix XenMotion XenServer .................................................................. 17 XenServer 씮 Citrix XenServer

Z Zähler für VM-Ressourcen ............................... 515 Zeitscheibenprinzip .................................... 57, 413 Zeugendatenträger .......................... 697, 700, 707

Wissen, wie’s geht.

Wissen aus erster Hand.

Nicholas Dille beschäftigt sich seit 10 Jahren mit Zentralisierung, Server-Based Computing und Thin Clients und arbeitet seit über 8 Jahren als ITArchitekt für die sepago GmbH. In Großprojekten konnte er viele weltweit vertretene Konzerne in der Weiterentwicklung der IT-Strategie beraten und technische Konzepte für die Umsetzung verfassen. Seit 2010 ist er MVP. Marc Grote ist seit 24 Jahren im professionellen IT-Bereich als selbstständiger Consultant und Trainer mit den Schwerpunkten Forefront TMG und UAG, Windows Server mit Schwerpunkt Sicherheit, PKI und Hochverfügbarkeit sowie System Center und Exchange Server tätig. Des Weiteren ist er Fachautor für Windows- und Forefront-Themen und Sprecher auf Konferenzen und Community-Veranstaltungen. Seit 2003 ist er MVP. Nils Kaczenski ist seit Mitte der 1990er-Jahre als Consultant für Windows-Netzwerke tätig und berät Firmen und Administratoren in technischen und strategischen Fragen. Er wird von Microsoft seit 2003 regelmäßig als Most Valuable Professional (MVP) in der Sparte Directory Services ausgezeichnet. Jan Kappen arbeitet bei der Rachfahl IT-Solutions und ist dort als Fachexperte für Hyper-V, Windows Server sowie Microsoft Exchange zuständig. Jan betreibt mit Carsten Rachfahl den Blog Hyper-V-Server.de, einen der größten Blogs im deutschsprachigen Raum, der sich exklusiv mit der Virtualisierungslösung aus dem Hause Microsoft beschäftigt.

Nicholas Dille, Marc Grote, Nils Kaczenski, Jan Kappen

Microsoft Hyper-V – Das Handbuch für Administratoren 948 Seiten, gebunden, 3. Auflage, Mai 2017 69,90 Euro, ISBN 978-3-8362-4327-8

www.rheinwerk-verlag.de/4229

Wir hoffen sehr, dass Ihnen diese Leseprobe gefallen hat. Gerne dürfen Sie diese Leseprobe empfehlen und weitergeben, allerdings nur vollständig mit allen Seiten. Die vorliegende Leseprobe ist in all ihren Teilen urheberrechtlich geschützt. Alle Nutzungsund Verwertungsrechte liegen beim Autor und beim Verlag.

Teilen Sie Ihre Leseerfahrung mit uns!