Stor IT Back - Ihr Speicherspezialist


FCoE Fibre Channel over Ethernet V1.5 (c) Stor IT Back 2026


Fibre Channel over Ethernet (FCoE) - FC und TCP/IP

FCoE Aufbau und Betrieb

Es wird ein Fibre Channel Paket in ein Ethernet-Paket verpackt und zusammen mit anderen Netzwerkdaten über einen 10 Gbit/s oder 100 Gbit/s FCoE Adapter und einen 10 Gbit/s bzw. 100 GBit/s FCoE Switch verschickt. Jetzt wird also nur noch eine konsolidierte Infrastruktur benötigt. Dies spart Kosten, Platz, Energie und verringert die Komplexität.

Und genau das ist Fibre Channel over Ethernet. Fibre Channel in Ethernet verpackt und zusammen mit dem LAN Verkehr transportiert. Ganz so einfach ist es aber nicht. Ethernet bzw. TCP/IP bietet viele Features nicht, die Fibre Channel benötigt bzw. was FC eigentlich ausmacht. Und das wird im FCoE in einem speziell angepassten Ethernet Protokoll ermöglicht. Man benötigt also spezielle FCoE Hardware oder LAN Switche mit den benötigten Protokoll-Erweiterungen.

Jeder Server hat zur Redundanz zwei FCoE Adapter, die jeweils an einen FCoE Switch angeschlossen sind. Am FCoE Switch werden die Storage-Daten zum Fibre Channel RAID Storage geleitet und Anwendungsdaten zu den Ethernet-Switches.

FCoE Fibre Channel over Ethernet Aufbau

Da schauen wir uns doch mal die vorhandenen Protokolle und deren Nachteile kurz an.

Fibre Channel ist sehr performant (geringe Latenzzeit, hoher Nutzdatendurchsatz), eine sehr stabile Hardware, jeder Hersteller unterstützt es, aber es ist relativ teuer und man benötigt eine komplett eigenständige Hardware für das Speichernetzwerk. Also mehr Energieverbrauch, mehr Klimaanlagenleistung und auch mehr Einarbeitung bei der Anschaffung und mehr Betreuungsaufwand im laufenden Betrieb.

Dann iSCSI, recht kostengünstige Hardware, universelle Unterstützt, Nutzung von Standard-Ethernet-Hardware und bis zur Hochverfügbarkeit zu projektieren. Aber mit dem Nachteil, die Performance ist durch Ethernet begrenzt und die Latenzzeit ist meist recht hoch.


 
 

Zukunftsprognose von FCoE

Stand Anfang 2026:
Unternehmen mit dem klaren Fokus auf Performance und Sicherheit bleiben weiter bei Fibre Channel bzw. nutzen NVMe-oF. Gerade mit 32 Gbit/s FC und der geringen Latenzzeit bleibt Fibre Channel stark im Markt. Die FCoE Switche sind zwar bei nahezu allen großen Herstellern verfügbar, aber dabei ist FCoE nicht das bestimmende Kriterium.

Ethernet entwickelt sich zu immer höhere Geschwindigkeiten, was vor kurzem noch 10 GBit/s war, das ist heute 100 Gbit/s. Und damit kann iSCSI deutlich mehr leisten, als noch mit 10 Gbit/s oder gar 1 Gbit/s. Es fällt heute häufiger die Wahl auf iSCSI mit 40 Gigabit oder gar 100 Gigabit und gegen FCoE.

Diese Tendenz merken auch die Software-Hersteller. Mehrere große Plattformen haben Software-FCoE zurückgefahren, was ein starkes Signal für geringe Nutzung ist. Red Hat hat Software-FCoE (fcoe.ko) entfernt und nennt als Grund ausdrücklich die fehlende Industry-Adoption für softwaregemanagtes FCoE.

VMware hat Software-FCoE ab vSphere 7 als deprecated markiert und in vSphere 8 sind Software-FCoE-Profile nicht mehr unterstützt (bzw. die Option praktisch weg). Das reduziert FCoE-Attraktivität gerade in typischen Enterprise-VM-Umgebungen deutlich.

Ein Hardware-FCoE-Adapter wird aber weiterhin unterstützt, da dieser einen FC-HBA und eine Netzwerkkarte bereitstellt. Das Betriebssystem sieht also einen FC-Port und einen Netzwerk-Port.


 
 

Einsatzbereiche von FCoE

Der große Vorteil von FCoE ist die Konsolidierung der Übertragungsnetze in einem Rechenzentrum. Über eine Netzwerkkarte und einen Switch können sämtliche Speicherdaten und Ethernet-Verbindungen übertragen werden. Dies spart zum einen Platz im Rechenzentrum, vereinfacht die Verkabelung der Server und schont Ressourcen. Ist nur ein zentraler Switch vorhanden, so verbraucht auch nur ein Switch Energie und erzeugt Abwärme. Auch die Hochverfügbarkeit ist einfach zu erreichen, zwei FCoE Netzwerkkarten pro Server und zwei zentrale FCoE Switche. Eine überschaubare und leicht zu administrierende Umgebung, auch dies spart Kosten ein.
Für alle diese Einsatzbereiche wäre auch iSCSI passend. Sind die Anforderungen an die Performance des Storage-Netzes aber besonders doch, so werden hohe Übertragungsraten und sehr geringe Latenzzeiten benötigt. Dies kann iSCSI nicht mehr leisten. Dort kommt FCoE zu Einsatz, mit ähnlichen Übertragungsraten wie Fibre Channel und nahezu gleich kleinen Latenzzeiten.


 
 

Hardware-Anforderungen für Fibre Channel over Ethernet

Erst einmal sind dies die Netzwerkkarten und die Switche. Eine FCoE Netzwerkkarte wird vom Betriebssystem einmal wie eine normale Ethernet-Netzwerkkarte erkannt, die Standard-Netzwerkprotokolle können darüber gefahren werden. Zusätzlich stellt sich die Karte aber auch als Storage-HBA da, d.h. das Betriebssystem kann über diese Karte Festplatten ansprechen, und zwar als vollwertige Blockdevices. Eine Mindesttransferrate von 10 Gbit/s ist für die Karten notwendig.
Der FCoE Switch stellt neben den normalen Ethernet-Diensten zusätzlich auch noch die Verwaltung des FCoE Transportes und evtl. die Ausschleusung der Fibre Channel Daten auf spezielle FC Ports sicher. Einige weitere Features und Unterprotokolle, z.B. FCoCEE (Fibre Channel over Convergence Enhanced Ethernet), kümmern sich um die passende Priorität und möglichst geringe Latenzzeiten


 
 

FCoE-Storage-Hardware

Eine direkte Anbindung der Storage-Systeme (RAID-Controller, Tape-Libraries) an FCoE ist möglich und wird sicherlich auch realisiert. Zurzeit gibt es FCoE Switches, die mit zusätzlichen Fibre Channel Ports die Ansteuerung der FC-Storage Hardware ermöglicht. Solange die FC-Ports am FCoE Switch ausreichend sind, oder die Storage-Hardware FCoE direkt nutzt, kann man komplett auf Fibre Channel Switches verzichten und nur dann macht ein FCoE Netzwerk Sinn.


 
 

Fibre Channel over Ethernet Internals

Das Ethernet Protokoll musste für FCoE angepasst werden. So können zum Beispiel einzelne Frames verloren gehen. Die höheren Protokollschichten (TCP/IP) sorgen trotzdem für eine sichere Übertragung (durch Paketwiederholung oder -neuanforderung). Dies Verfahren ist für Storage-Daten nicht geeignet und führt zu großen Verzögerungen.

Daher wurde das Enternet-Protokoll um einige Funktionen erweitert:
- kein Frame-Verlust (PAUSE oder Nicht-PAUSE)
- Traffic Management 802.1au
- Priorisierung von FC-Daten gegenüber nicht-FC-Daten 802.1Q
- gleiche Frame-Latenz wir beim Fibre Channel

So werden die Ethernet-Daten mit dem PAUSE Befehl angehalten, der bei FCoE um "Per priority PAUSE" erweitert wurde. Also ist ein reines Anhalten von LAN Daten möglich, so dass FC(oE) Daten ungehindert übertragen werden können.
Weiterhin wird durch die Nutzung von Jumbo-Frames eine Fragmentierung der 2 kB großen FC Frames vermieden, eine Voraussetzung für FCoE.
Der geringere Overhead im Vergleich zu iSCSI wird durch die Kapselung der FC Frames in Ethernet Frames erreicht. Bei iSCSI werden SCSI Frames in TCP verpackt. Durch die direkte Verpackung der FC Pakete wird eine Unterstützung von Zoning, Multipathing und der WWN-Adressierung weiterhin ermöglicht. FCoE bleibt also auch im Handling Fibre Channel sehr ähnlich.


 
 

FAQ zum Thema Fibre Channel over Ethernet (FCoE)

Was ist FCoE und wofür wird es eingesetzt?

FCoE steht für Fibre Channel over Ethernet und transportiert Fibre-Channel-Datenverkehr über ein Ethernet-Netz. Ziel ist, Storage- und Datenverkehr auf einer gemeinsamen physikalischen Infrastruktur zu bündeln, ohne komplett auf klassische Fibre-Channel-Mechanismen zu verzichten. Für Hosts und Storage wirkt FCoE häufig wie ganz normales Fibre Channel, nur dass die Frames über Ethernet laufen. Typische Einsatzfelder sind Rechenzentren mit starker Server-Virtualisierung und Wunsch nach weniger Kabeln, Ports und Adapterkarten.

Wie unterscheidet sich FCoE von klassischem Fibre Channel und von iSCSI?

Klassisches Fibre Channel nutzt ein eigenes FC-Netz mit FC-Switches; FCoE nutzt Ethernet als Transport, bleibt aber im Fibre-Channel-Protokollmodell. iSCSI dagegen kapselt SCSI in TCP/IP und läuft auf normalem Ethernet/IP, das macht es flexibel, aber stärker abhängig von IP-Stack und Netzwerklast. FCoE setzt auf ein verlustarmes Ethernet, damit Storage-Daten nicht durch Paketverluste ausgebremst werden. Ein praktisches Bild: FCoE ist FC-Verhalten auf Ethernet, iSCSI ist Storage als IP-Anwendung.

Warum braucht FCoE spezielles Ethernet (lossless Ethernet)?

Fibre Channel ist historisch darauf ausgelegt, dass Frames im Normalbetrieb nicht einfach verloren gehen. Ethernet ist dagegen traditionell best-effort: Wenn es eng wird, können Frames verworfen werden, und höhere Protokolle regeln das. FCoE braucht deshalb Mechanismen, die Verluste für den Storage-Verkehr vermeiden, weil sonst Latenz und Stabilität leiden. Diese Mechanismen werden oft unter dem Begriff Data Center Bridging (DCB) zusammengefasst. Tipp: Wenn ein Anbieter FCoE über normales Ethernet verspricht, sollte man sehr genau nachfragen, wie Verlustfreiheit und Priorisierung garantiert werden.

Was ist DCB und welche Teile davon sind für FCoE entscheidend?

DCB ist eine Sammlung von Ethernet-Erweiterungen für Rechenzentren, um Traffic kontrollierter zu transportieren. Wichtig für FCoE ist vor allem Priority Flow Control (PFC): Es kann den Datenfluss pro Prioritätsklasse pausieren, statt Frames zu verwerfen. Ebenfalls relevant ist ETS (Enhanced Transmission Selection), das Bandbreite zwischen Traffic-Klassen fairer aufteilt. Für Entscheider ist die Kernaussage: FCoE funktioniert zuverlässig, wenn das Ethernet-Netz Storage-Verkehr bevorzugt behandelt und Drops vermeidet. Praxis-Tipp: Plane DCB nicht nur im Switch, sondern Ende-zu-Ende (Host ↔ Switch ↔ Switch ↔ FCF/Storage).

Was ist ein CNA und wie unterscheidet er sich von einer klassischen NIC oder HBA?

Ein CNA (Converged Network Adapter) ist eine Netzwerkkarte, die sowohl klassischen Ethernet-Verkehr als auch FCoE/FC-Funktionen bereitstellen kann. Damit kann ein Server mit weniger Karten und Kabeln auskommen, weil ein Adapter zwei Welten bedient. Im Betrieb erscheinen dann typischerweise virtuelle Schnittstellen: eine für Ethernet, eine für Fibre Channel (über FCoE). Tipp: Achten Sie auf Treiber-/Firmware-Kompatibilität (z. B. mit deinem Hypervisor), denn bei CNAs hängen Stabilität und Performance stark an sauberen/aktuellen Versionen.

Was ist ein FCF (Fibre Channel Forwarder) und warum brauche ich ihn?

Ein FCF (Fibre Channel Forwarder) ist vereinfacht ein Switch bzw. eine Funktion im Switch, die FCoE-Verkehr wie Fibre Channel weiterleitet und in eine Fibre-Channel-Fabric integrieren kann. Er sorgt dafür, dass FCoE-Teilnehmer (z.B. Server) mit klassischen FC-Targets (Storage) kommunizieren können. Ohne eine solche Instanz bleibt FCoE meist auf ein Segment begrenzt und kann nicht sauber in eine FC-Umgebung eingebunden werden. Praxisbeispiel: Server hängen per FCoE an einem Top-of-Rack-Switch mit FCF, der dann per klassischem FC an das Storage-SAN angebunden ist.

Wann ist FCoE eine gute Idee – und wann eher nicht?

FCoE ist attraktiv, wenn im Rack Kabel, Ports und Adapter konsolidiert werden und ohnehin ein Data-Center-Ethernet mit passenden Switches geplant wird. Es passt besonders gut in Umgebungen mit vielen Servern, hoher VM-Dichte und standardisierten Racks. Weniger sinnvoll ist FCoE, wenn kein DCB-fähiges Netz geplant ist, das Team wenig Erfahrung mit DCB/Converged Design hat oder wenn bewusst eine harte Trennung zwischen LAN und SAN bevorzugst wird. Tipp für Entscheider: FCoE lohnt sich oft dann, wenn der Betriebs- und Hardware-Komponenten (Ports, Kabel, Karten) ein echter Kostentreiber ist – nicht nur als Technologie-Upgrade.

Wie sieht ein typisches FCoE-Referenzdesign im Rechenzentrum aus?

Gängig ist ein Top-of-Rack-Switch pro Rack, der DCB kann und als FCF arbeitet. Server nutzen CNAs und führen Ethernet- und FCoE-Traffic über redundante Links zu zwei Switches (für Ausfallsicherheit). Von dort geht Storage-Traffic entweder in eine FC-Core-Fabric oder direkt zu Storage-Ports, je nach Architektur. Tipp: Plane Redundanz wie im FC-SAN: zwei getrennte Pfade/Fabrics (logisch und physisch), damit Wartung und Ausfälle abgefangen werden.

Wie wirkt sich FCoE auf Performance und Latenz aus?

Richtig gebaut kann FCoE sehr gute Latenzen liefern, weil es ohne TCP/IP-Overhead auskommt und nah an FC bleibt. In der Praxis ist Performance aber stark davon abhängig, ob DCB korrekt konfiguriert ist und ob du Engpässe sauber vermeidest (z.B. Oversubscription an Uplinks). Wenn PFC oder ETS falsch gesetzt sind, kann es zu Staus kommen, die sich wie unklare Storage-Latenzspitzen äußern. Tipp: Miss nicht nur Durchsatz, sondern vor allem Latenz und Drop-/Pause-Statistiken auf Switchports, um Probleme früh zu erkennen.

Ist FCoE sicher – und wie trenne ich Storage- vom normalen Datenverkehr?

FCoE wird üblicherweise über eigene VLANs und klar getrennte Prioritätsklassen geführt, damit normaler Datenverkehr Storage nicht stört. Zusätzlich gelten ähnliche Prinzipien wie im FC-SAN: Zugriff wird über Zoning/Mapping geregelt, nur eben mit zusätzlichen Netzwerk-Konzepten auf Ethernet-Seite. Wichtig ist, dass Management-Zugriffe (Switch/Storage) getrennt und gut abgesichert sind, weil eine Fehlkonfiguration weitreichend sein kann. Tipp: Behandle das converged Netz wie kritische Infrastruktur: Change-Management, Reviews und klare Rollentrennung sind wichtiger als immer das neuste Feature.

Ist FCoE heute noch zukunftssicher, oder sollte ich eher iSCSI/NVMe-oF planen?

Das hängt stark von der Umgebung ab: Wenn bereits FC/SAN vorhanden ist und eine konsolidierte Host-Anbindung gewünscht wird, kann FCoE weiterhin sinnvoll sein. Viele Strategien gehen aber auch Richtung Ethernet-only mit iSCSI oder moderneren Protokollen wie NVMe-oF, weil sich damit Netzwerke stärker vereinheitlichen lassen. Entscheidend ist weniger Hype, sondern ob das Team Betrieb und Troubleshooting zuverlässig beherrscht und ob eine vorhandene Storage-/Switch-Plattformen klar unterstützt wird. Tipp: Bewerte pragmatisch: Welche Roadmap hat der Hersteller, welche Skills hat das Team, und welche Workloads profitieren wirklich von der gewählten Technologie?

 
 

Angebote der Stor IT Back zum Thema Fibre Channel over Ethernet

Angebot Dell EMC Unity XT 380
Dell EMC Unity XT 380 Unified Storage
FC / iSCSI und NAS RAID-System

Hybrid oder All Flash / Replikation
inkl. Installation und Einweisung
Preis
auf Anfrage
Angebot Netapp FAS2750/FAS2820
NetApp FAS2750 Unified Storage
4 x UTA2 / 2 x 25 Gb LAN pro Controller

FAS2750 mit 24 x 2,5", FAS2820 mit 12 x 3,5"
FC, CIFS, iSCSI und NFS, inkl. Installation vor Ort
Preis
auf Anfrage
Schulungen für Storage und Backup
Schulungen und Workshops
Storage (SAN, NAS, iSCSI)
Backup (LANfree, SnapShot)
Storage- und Servervirtualisierung
Praxis-Schulungen
individuell / auch Inhouse
 
 
Zurück zur Übersicht
Fibre Channel over Ethernet FCoE
Übersicht der Angebote
Kontakt zur Stor IT Back
Suche auf der Webseite