V

Virtualisierung

Was bedeutet Virtualisierung in der IT?

Virtualisierung ist das Prinzip, mit Hilfe von Software mehrere „virtuelle“ Systeme auf einer gemeinsamen physischen Hardware zu betreiben. Statt für jede Aufgabe einen eigenen physischen Server zu kaufen, werden auf einem Host-Server mehrere virtuelle Maschinen (VMs) ausgeführt – jede mit eigenem Betriebssystem, eigenen Anwendungen und eigener Konfiguration. Aus Sicht der VM fühlt es sich an, als wäre sie ein eigener, vollständiger Server oder PC. In Wahrheit teilen sich viele VMs die Ressourcen eines einzigen physischen Hosts (CPU, RAM, Speicher, Netzwerk).

Wie funktioniert Virtualisierung technisch?

Die zentrale Komponente ist der sogenannte Hypervisor:

  • Hypervisor: Eine Software-Schicht, die direkt auf der Hardware (Typ-1) oder auf einem Betriebssystem (Typ-2) läuft.
  • Sie teilt CPU, Arbeitsspeicher, Festplattenspeicher und Netzwerkkarten in virtuelle Ressourcen auf.
  • Jede virtuelle Maschine bekommt virtuellen Prozessor, virtuellen RAM, virtuelle Festplatten und virtuelle Netzwerkkarten.
  • Innerhalb der VM wird ein ganz normales Betriebssystem installiert (z. B. Windows Server, Linux, Windows 10/11).

Der Hypervisor sorgt dafür, dass sich die VMs nicht gegenseitig stören, und verteilt die physikalischen Ressourcen so, dass alle Systeme möglichst performant und stabil laufen. Beispiele für Hypervisoren sind VMware ESXi, Microsoft Hyper-V, KVM oder Proxmox.

Alltagsvergleich: Virtualisierung wie Wohnungen in einem Mehrfamilienhaus

Man kann Virtualisierung gut mit einem Mehrfamilienhaus vergleichen:

  • Das Gebäude entspricht dem physischen Server (Host) mit Fundament, Dach, Leitungen (Hardware).
  • Die einzelnen Wohnungen sind die virtuellen Maschinen mit jeweils eigener Einrichtung (Betriebssystem, Anwendungen, Daten).
  • Alle Wohnungen teilen sich Wasser, Strom, Heizung und Internet – so wie VMs CPU, RAM, Storage und Netzwerk teilen.
  • Trotzdem hat jede Wohnung eine eigene Tür und eigene Regeln – so wie jede VM isoliert und separat administrierbar ist.

Statt viele einzelne Häuschen (physische Server) zu bauen, nutzt man ein großes Haus effizienter – mit mehreren Wohnungen (VMs) unter einem Dach. Das spart Platz, Kosten und Energie und ist flexibler zu ändern.

Arten von Virtualisierung

Virtualisierung gibt es in mehreren Varianten, je nach Einsatzzweck:

  • Server-Virtualisierung: Mehrere virtuelle Server laufen auf einem physikalischen Host oder einem Cluster aus Hosts. Klassisch in Rechenzentren und Unternehmen.
  • Desktop-Virtualisierung / VDI: Benutzer-Desktops (Windows 10/11) laufen zentral im Rechenzentrum, Zugriff erfolgt per Thin Client oder Remote Desktop.
  • Anwendungsvirtualisierung: Anwendungen laufen in isolierten Containern oder werden gestreamt, ohne vollständig auf dem Client installiert zu sein.
  • Storage-Virtualisierung: Physische Speichersysteme werden zu einem logischen Pool zusammengefasst, der flexibler verwaltet werden kann.
  • Netzwerk-Virtualisierung: Virtuelle Switches, Router, Firewalls und VLANs bilden flexible, softwarebasierte Netzwerke auf derselben Hardware.

Typische Einsatzszenarien für Virtualisierung im Unternehmen

Virtualisierung ist heute Standard in fast allen professionellen IT-Umgebungen. Beispiele:

  • Server-Konsolidierung: Statt 10 physischer Server für 10 Anwendungen laufen 10 VMs auf 2–3 leistungsstarken Hosts.
  • Test- und Entwicklungsumgebungen: Schnell neue VMs für Tests erstellen, Snapshots nutzen, Systeme wieder zurücksetzen.
  • Hochverfügbarkeit: VMs können zwischen Hosts verschoben werden (vMotion, Live Migration), ohne dass Dienste ausfallen.
  • Disaster Recovery: VMs werden in ein zweites Rechenzentrum repliziert und können dort im Notfall gestartet werden.
  • VDI / Terminalserver-Konzepte: Zentrale Bereitstellung von Arbeitsplätzen und Anwendungen für Büro und Homeoffice.

Vorteile von Virtualisierung

Richtig eingesetzt, bringt Virtualisierung eine ganze Reihe von Vorteilen:

  • Bessere Auslastung der Hardware: Statt viele „halb leere“ Server zu betreiben, werden Ressourcen gebündelt.
  • Kosteneinsparungen: Weniger physische Server bedeuten geringere Hardware-, Strom- und Kühlkosten.
  • Flexibilität: Neue Server können als VM in Minuten statt in Tagen bereitgestellt werden.
  • Hochverfügbarkeit & Redundanz: VMs können bei Host-Ausfall automatisch auf anderen Hosts weiterlaufen (Cluster).
  • Einfache Sicherung: VMs können als Ganzes gesichert, repliziert und wiederhergestellt werden.
  • Bessere Trennung: Unterschiedliche Anwendungen oder Mandanten laufen logisch getrennt, obwohl sie sich die Hardware teilen.

Herausforderungen und Risiken bei Virtualisierung

Virtualisierung löst viele Probleme, bringt aber auch neue Fragestellungen:

  • Single Point of Failure: Fällt ein stark ausgelasteter Host ohne Cluster-Struktur aus, sind gleich mehrere VMs betroffen.
  • Ressourcenplanung: CPU, RAM, Storage-I/O und Netzwerk müssen so dimensioniert werden, dass alle VMs performant laufen.
  • Lizenzierung: Manche Software- und Betriebssystemlizenzen haben spezielle Bedingungen in virtuellen Umgebungen.
  • Komplexität: Virtualisierungs-Cluster, Storage-Netze und Backup-Lösungen müssen gut geplant und verstanden werden.
  • „VM-Spreizung“ (VM-Sprawl): Wenn zu leicht neue VMs erstellt werden, wächst die Umgebung unkontrolliert und schwer verwaltbar.

Beispiel: Virtualisierung in einem mittelständischen Unternehmen

Ein Unternehmen ersetzt zehn alte Einzelsysteme durch eine virtualisierte Umgebung:

  • Es werden drei physische Hosts mit ausreichend CPU, RAM und redundanter Stromversorgung angeschafft.
  • Darauf läuft ein Hypervisor-Cluster (z. B. VMware, Hyper-V), der alle Ressourcen bündelt.
  • Als VMs werden installiert: Domain-Controller, File-Server, ERP-Server, SQL-Server, Terminalserver, Testsysteme usw.
  • Storage liegt auf einem zentralen SAN oder NAS, das für alle Hosts erreichbar ist.
  • Backups sichern die VMs regelmäßig, ausgewählte VMs werden zusätzlich in ein zweites Rechenzentrum repliziert.

Ergebnis: Mehr Flexibilität, bessere Ausfallsicherheit und deutlich weniger Hardware im Rack als vorher.

Virtualisierung vs. Container (z. B. Docker)

Immer häufiger fällt in diesem Zusammenhang auch der Begriff „Container“:

  • Virtualisierung (VMs): Jede VM hat ein vollständiges Betriebssystem und ist weitgehend isoliert. Ideal für „klassische“ Server- und Anwendungslandschaften.
  • Container: Teilen sich den Kernel des Host-Systems, enthalten nur das, was die Anwendung braucht. Sehr leichtgewichtig, schnell startend, ideal für Microservices und moderne Cloud-Architekturen.

Beides ersetzt sich nicht zwingend, sondern wird oft kombiniert: Container laufen ihrerseits auf virtualisierten Hosts.

Best Practices für Virtualisierung

Damit Virtualisierung stabil und sicher läuft, haben sich einige Grundregeln bewährt:

  • Saubere Planung der Ressourcen: CPU, RAM, Storage-I/O und Netzwerkbandbreite realistisch nach Bedarf kalkulieren, Reserven einplanen.
  • Cluster und Redundanz nutzen: Hosts, Storage und Netzwerk redundant auslegen, um Ausfälle abzufangen.
  • Backup- und Recovery-Konzept: VMs regelmäßig sichern, Wiederherstellung testen, Offsite-Backups einplanen.
  • Monitoring: Auslastung, Fehler, Performance und Events überwachen, um Engpässe früh zu erkennen.
  • Struktur & Dokumentation: Namenskonventionen, Netzwerkpläne, Ressourcenzuweisungen und Abhängigkeiten dokumentieren.
  • Sicherheit: Hypervisor und Managementoberflächen schützen, Zugriffsrechte einschränken, virtuelle Netze segmentieren.

Kurz zusammengefasst

Virtualisierung bedeutet, mehrere virtuelle Server oder Desktops auf einer gemeinsamen physikalischen Hardware zu betreiben. Ein Hypervisor teilt die Ressourcen des Hosts in unabhängige virtuelle Maschinen auf. Das erhöht Auslastung, Flexibilität und Verfügbarkeit und senkt in der Regel Kosten. Gleichzeitig braucht Virtualisierung eine saubere Planung, gute Sicherungskonzepte und professionelles Management. Richtig umgesetzt wird sie zum Fundament moderner IT-Infrastrukturen – on-premises, im Rechenzentrum und in der Cloud.