Willkommen bei Willkommen im Support Forum von Wolfgang Utz
Search
Topics
  Email an den Sysop Home  ·  Login/Account  ·  Forums  ·  Treiber  

  Modules
· Home
· 1. Forum
· 2. Downloads
· IP-Rechner
· News/Topics
· Your Account

  Quicklink
  • Hilfestellungen
  • Geräte Login Liste

  •   Terminkalender
    November 2017
      1 2 3 4 5
    6 7 8 9 10 11 12
    13 14 15 16 17 18 19
    20 21 22 23 24 25 26
    27 28 29 30  

    Ausstellungen
    Geburtstage
    Konzerte
    Messen
    Sonstige
    Treffen
    Veranstaltung
    Technik: Switches und Technik ( wird noch geändert )
    Geschrieben am von admin

    Technik

    Mit freundlicher Genehmigung von

    http://www.elektronik-kompendium.de/sites/net/0907091.htm

    Patrick Schnabel


    Switching

    Der Mechanismus, der in einem Switch verwendet wird nennt sich Switching. In diesem Vorgang wird das eingehende Ethernet-Frame analysiert und in Abhängigkeit der Ziel-MAC-Adresse an einen oder mehrere Ausgangs-Ports weitergeleitet.
    Die Verarbeitungszeit eines Switches wird als Latenz bezeichnet. Die Dauer hängt vom verwendeten Switching-Verfahren ab.Unterschieden wird Cut-Through, Store-and-Forward, Adaptive-Cut-Through und FragmentFree-Cut-Through.
    Neben der reinen Verarbeitungsgeschwindigkeit des Switching-Verfahrens ist auch die Leistungsfähigkeit der Backplane für die Latenz der Ethernet-Frames verantwortlich. Wird ein Switch verwendet, der für alle Ports in Summe nicht genug Bandbreite zu Verfügung hat, müssen die Frames oft zwischengespeichert werden.
    Die Übertragungsleistung wird in Frames pro Sekunde bzw. Packets per Second (PPS) angegeben. Kann ein Switch alle Ports ständig mit der höchsten Datenrate bedienen, wird von non-blocking oder auch von der Wire-Speed-Fähigkeit gesprochen.

    Cut-Through

    Der Switch analysiert bereits die Ethernet-Frames, bevor sie vollständig eingetroffen sind. Hat er die Ziel-Adresse identifiziert wird das Frame schon am Ziel-Port ausgegeben. Die Latenz, die Verzögerungszeit zwischen Empfangen und Weiterleiten eines Frames ist äußerst gering.
    Das Cut-Through-Verfahren verzichtet auf die vollständige Analyse der Frames, wobei fehlerhafte oder beschädigte Frames unerkannt bleiben und ungehindert weitergeleitet werden. Obwohl dieses Verfahren sehr schnell ist, kann es auch zu einer Belastung des Netzwerkes führen, weil defekte Ethernet-Frames nochmals übertragen weden müssen.

    Store-and-Forward

    Der Switch nimmt stets das gesamte Frame in Empfang und speichert es in einem Puffer zwischen. Erst danach wird das Frame analysiert. Dazu wird geprüft, ob das Frame die richtige Struktur (nach IEEE 802.1d) hat Außerdem wird die Richtigkeit der CRC-Prüfsumme (nach IEEE 802.3) getestet. Erst danach wird die Ziel-MAC-Adresse ausgelesen und überprüft. Befindet sich die Adresse in der MAC-Tabelle wird das Frame an den gespeicherten Port ausgegeben. Wenn die Adresse sich nicht in der MAC-Tabelle befindet wird das Frame an allen Ports weitergeleitet (Broadcast).
    Grundsätzlich benötigt das Store-and-Forward-Verfahren mehr Zeit bis ein Frame weitergeleitet ist. Die genaue Analyse eines Frames reduziert jedoch die Netzbelastung durch fehlerhafte Frames. Bei unterschiedlich schnellen Netzwerk-Stationen werden die Frames durch die Zwischenspeicherung vermittelt.
    Folgendes Ablaufdiagramm verdeutlicht die Vorgehensweise des Store-and-Forward-Verfahrens:
    Ablaufdiagramm des Switching-Verfahrens Store-and-Forward

    Adaptive-Cut-Through

    Je nach Implementierung gibt es Unterschiede bei diesem Switching-Verfahren. In jedem Fall wird auf eine Kombination aus Cut-Through und Store-and-Forward gesetzt.
    Im einen Fall werden die Frames mit Cut-Through weitergeleitet, aber anhand der Prüfsumme (CRC) geprüft. Wird eine bestimmte Fehlerrate überschritten wird automatisch auf Store-and-Forward umgeschaltet. Geht die Fehlerrate wieder zurück wird auf Cut-Through zurückgeschaltet. Mit diesem Verfahren wird in teuren Switches eine Optimierung des Datenverkehrs zwischen Schnelligkeit und Fehlerfreiheit hergestellt. Unterschiedliche Datenraten kann dieses Switching-Verfahren nicht berücksichtigen. Die Switches unterstützen nur eine Art der Datenrate (10 MBit / 100 MBit / 1 GBit).
    Eine anderen Art von Adaptive-Cut-Through entscheidet anhand der Länge des Frames welches Verfahren angewand wird. Ist keine Apassung der Datenrate nötig, werden Frames mit einer Länge über 512 Byte per Cut-Through weitergeleitet. Kürzere Frames werden vor der Weiterleitung mit Store-and-Forward analysiert. Mit diesem Switching-Verfahren optimiert man die Latenz anhand der Länge von Frames.

    FragmentFree-Cut-Through

    Dieses Verfahren stammt von Cisco und geht von einem Erfahrungswert bei fehlerhaften Frames aus. Man hat festgestellt, dass Übertragungsfehler am häufigsten innerhalb der ersten 64 Byte eines Frames auftreten. Deshalb überprüft ein, mit FragmentFree-Cut-Through arbeitender, Switch die ersten 64 Byte auf Fehler. Ist es fehlerfrei wird das Frame per Cut-Through weiterverarbeitet. Ist wider erwarten ein Fehler vorhanden wird das Frame verworfen.

    Ermittlung der Latenz von Switching-Verfahren

    Die Verzögerung, die beim Weiterleiten von Ethernet-Frames entsteht, wird Latenz genannt. Bei Store-and-Forward ist das die Zeit, die zwischen dem Empfang des letzten Bit und der Ausgabe des ersten Bit verflossen ist. Die genaue Bezeichnung lautet Last In First Out (LIFO) Latency.
    Bei Cut-Through wird die Latenz zwischen dem ersten eingegangenen Bit und dem ersten ausgegebenen Bit gemessen. Die genaue Bezeichnung lautet First In First Out (FIFO) Latency.
    Wegen der unterschiedlichen Messverfahren ist ein direkter Vergleich anhand der Latenz zwischen Cut-Through und Store-and-Forward nicht möglich.

    Switching-VerfahrenMessverfahrenLatenz
    Cut-ThroughFirst In First Out (FIFO)~ 35 µs
    Store-and-ForwardLast In First Out (LIFO)~ 18 µs
    Geht man bei einem Fast-Ethernet-Frame mit 512 Byte von etwa 41 µs Übertragungszeit aus, benötigt es mit Cut-Through etwa 76 µs, bis es weitergeleitet ist.
    Formel Cut-Through
    Weil bei Store-and-Forward das Frame vollständig empfangen und dann wieder ausgegeben wird, muss zur Latenz die zweifache Framedauer addiert werden. Das selbe Fast-Ethernet-Frame benötigt mti Store-and-Forward etwa 100 µs.
    Formel Store-and-Forward

    Funktionen im Überlastungsfall

    Müssen in einem geswitchten Netzwerk sehr viele Datenpakete auf einem einzigen Port weitergeleitet werden, passiert es sehr schnell, dass die Eingangspuffer der anderen Ports volllaufen und sich das Verwerfen von Frames nicht mehr vermeiden lässt. Für die Protokolle auf den höheren Schichten, wie z. B. TCP/IP ist das äußerst ungünstig, weil sich durch den Paketverlust dei Übertragungsleistung des Übertragungssystems verschlechtert. TCP/IP ist dann gezwungen durch geeignete Maßnahmen, z. B. Paketverkleinerung, die Übertragungsqualität zu verbessern. Zu Lasten der Übertragungsleistung. Denn kleinere Pakete bedeuten einen größeren Anteil von Steuerungsdaten gegenüber dem reinen Nutzdaten.

    Flow-Control

    Um den Worst-Case-Fall zu vermeiden steht im Standard IEEE 802.3x das Flow-Control zu Verfügung. Dieses Verfahren funktioniert grundsätzlich nur im Vollduplexmodus von Fast-Ethernet und Gigabit-Ethernet. Flow-Control komt zum Einsatz, wenn ein Puffer vor dem Überlaufen steht. Der Switch schickt dann dem angeschlossenen Gerät ein Pause-Frame. Dieses ist ein spezielles MAC-Control-Frame, welches als Multicast an die Adresse 01-80-C2-00-00-01 verschickt wird. Im Length/Typ-Feld des Frames steht der Wert 88-08.

    Back-Pressure

    Ist kein Vollduplex möglich, wird ein Verfahren namens Back-Pressure verwendet. Es simuliert Kollisionen. Dazu wird vor dem drohenden Überlauf ein JAM-Signal vom Switch gesendet. Das angeschlossene Gerät beendet daraufhin den Sendevorgang und wartet einige Zeit, bevor es erneut Frames sendet.

    Head-of-Line-Blocking

    Im Regelfall unterstützen alle Gigabit-Ethernet-Komponenten das Flow-Control-Verfahren. Bei Fast-Ethernet-Komponenten ist das nicht immer der Fall. Ob diese Funktion genutzt werden kann, wird während des Link-Aufbaus (nach dem Herstellen der Steckverbindung) mit der Auto-Negotation-Funktion ermittelt. Wenn nicht, bieten viele Switches die Head-of-Line-Blocking-Funktion. Sie prüft die Zieladresse und deren Port-Zuordnung. Ist der Ausgangspuffer des ermittelten Ports blockiert, wird das Frame verworfen, damit der Puffer des Eingangsports frei bleibt.



    IEEE 802.1d / STP - Spanning Tree Protocol

    Doppelte Frames durch mehrere parallele physikalische Verbindungen
    Das Spanning-Tree-Verfahren ist im Standard IEEE 802.1d für die MAC-Schicht spezifiziert. Es soll das Auftreten von doppelten Frames in einem geswitchten Ethernet-Netzwerk verhindern. Die doppelten Frames entstehen durch zwei oder mehrere parallele Verbindungen zwischen zwei Switches. Frames, die mehrfach beim Empfänger ankommen, können zu einem Fehlverhalten führen.
    Ports mit nichtbevorzugten Strecken werden deaktiviert.
    Spanning-Tree spannt das physikalische Netzwerk zu einem logischen Baum auf, in dem zu jedem Ziel nur ein einziger Weg existiert. Die Switches bzw. Bridges kommunizieren in einem Netzwerk mit Hilfe von BPDUs (Bridge Protocol Data Unit). Diese Konfigurationspakete werden als Multicast-Frames an die MAC-Adresse 01-80-C2-00-00-10 geschickt. Diese Frames werden alle 2 Sekunden an die nächst tiefer gelegene Station (Bridge oder Switch) übermittelt. Auf diese Weise werden parallele Strecken erkannt und die optimale Strecke ermittelt. Man spricht dann von Prioritäten bzw. Wegkosten, die die Datenrate und Entfernung berücksichtigt. Ports mit nichtbevorzugten Strecken werden dann deaktiviert.
    Fällt die bevorzugte Strecke aus, wird auf der reduntanten nichtbevorzugten Strecke die Übertragung fortgesetzt.
    Fällt die bevorzugte Strecke aus, bleibt auch das BPDU-Frame aus, was zu einer Reorganisation des Netzwerkes führt. Bei komplizierten Verschachtelungen wird der Baum (Spanning Tree) neu berechnet, was zu einer Verzögerung von bis zu 30 Sekunden oder mehr dauern kann. Erst danach kann auf der redundanten Strecke die Übertragung fortgesetzt werden.

    IEEE 802.1w / RSTP - Rapid Spanning Tree Protocol

    Die relativ lang andauernde Neuberechnung des logischen Netzwerkes ist für einen potentielle Angreifer, der ein Netzwerk lahmlegen will, ein gefundenes Fressen. Nur ein einziges gefälschtes Spanning-Tree-Frame ist in der Lage eine Reorganisation auszulösen und das gesamte Netzwerk für 30 Sekunden oder mehr lahmzulegen.
    Um dieses Szenario zu vermeiden wurde unter IEEE 802.1w das abwärtskompatible RSTP, auch Fast Spanning Tree genannt, entwickelt. Es sieht vor, dass bei einem Ausfall einer Verbindung mit der bestehenden Netzwerkstruktur weitergearbeitet wird, bis eine alternative Strecke berechnet ist. Anschließend wird ein neuer logischer Baum erstellt und erst dann, innerhalb einer Sekunde, umgestellt.

    Loop Detection

    Manche einfache Switches ohne Spanning-Tree haben eine Loop-Detection-Funktion. Dazu sendet der Switch alle paar Minuten ein Frame an eine bestimmte Adresse. Empfängt der Switch ein solches Frame mit seiner eigenen Adresse, existiert eine Schleife, die über eine LED signalisiert wird.
    Eine Schleife wird so nicht verhindert, aber der Netzwerk-Administrator kann sie zumindest optisch erkennen.



    IEEE 802.1q / VLAN - Virtual Local Area Network

    VLANs sind virtuelle lokale Netze die in IEEE 802.1q standardisiert sind und auf der Schicht 3 des OSI-Schichtenmodells arbeiten. VLANs werden mit Switches realisiert, die auf der Schicht 3 arbeiten, also die Vorteile von Switching und Routing vereinen. Es gilt die Regel: Verbleibt der Netzwerkverkehr innerhalb eines VLANs wird geswitchet andernfalls wird in ein anderes VLAN geroutet.
    Der Standard IEEE 802.1q sieht eine Veränderung von VLAN-Ethernet-Frames vor. Insgesamt wird ein Frame um 4 Byte verlängert und zusätzliche Informationen in den Header gepackt, die den Datenaustausch innerhalb des VLANs regeln (Tagging). Die Veränderung wird von den Treibern des Netzwerk-Adapters vorgenommen und von netzübergreifenden VLAN-Switches ausgewertet.

    Warum werden VLANs eingerichtet?

    Die meisten modernen Ethernet-Netze basieren auf der Stern-Topologie und werden mit Switches realisiert. Diese Switches bilden an jedem ihrer Ports eine Kollisionsdomäne, indem sie den Datenverkehr nur an den Port weiterleiten an dem sich die Ziel-MAC-Adresse befindet. Innerhalb einer Kollisionsdomäne befindet sich dann in der Regel eine einzelne Station, ein weiterer Switch oder ein Router in ein anderes Netz. Die Einrichtung von Kollisionsdomänen reduziert den Datenverlust, verursacht durch Kollisionen bei der Datenübertragung. Dieses wiederum reduziert den allgemeinen Netzwerkverkehr, der duch wiederholte Übertragungen verursacht wird.
    Neben Kollisionsdomänen gibt es auch Broadcastdomänen. Diese beziehen sich auf die Schicht 3 des OSI-Schichtenmodells und werden mit Subnetzen realisiert. Subnetze entstehen durch die Adressierung mit IP-Adressen und Subnetzmasken, die manuell oder von einem DHCP-Server an die Netzwerkstationen vergeben werden. Alle Stationen, die innerhalb eines Subnetzes liegen und nicht durch ein Gerät der Schicht 3 des OSI-Schichtenmodells getrennt sind, liegen innerhalb einer Broadcastdomäne. Von einem Subnetz in ein anderes Subnetz muss ein Datenpaket den Weg über einen Router gehen. Router arbeiten auf der Schicht 3 des OSI-Schichtenmodells. Mit Ihnen werden Kollisionsdomänen und Broadcastdomänen geschaffen. Broadcasts entstehen immer dann, wenn es für ein Datenpaket keinen bestimmten Empfänger gibt oder dessen Standort im Netz nicht bekannt ist. Switches leiten in so einem Fall dieses Datenpaket an alle Ports weiter. Router verhindern die Weiterleitung von Broadcasts in ein anderes Subnetz.

    Wie wird ein VLAN aufgebaut?

    Router verhindern wirkungsvoll Broadcasts. Viele Router in einem lokalen Netz haben jedoch den Nachteil, dass sie sehr viel Netzwerkverkehr untereinander verursachen. Protokolle, die die Routing-Tabellen zwischen den Routern untereinander austauschen sorgen für viel Netzwerkverkehr und unnötige Fehlerquellen. Eine Lösung auf Basis von Switches hat Geschwindigkeitsvorteile gegenüber dem reinen IP-Routing. Deshalb werden Layer-3-Switches eingesetzt, die wie Router verschiedene Subnetze schaffen. Die Switches werden so koniguriert, dass ihre Ports nicht nur die MAC-Adresse kennen, sondern auf ein bestimmtes Subnetz, manchmal sogar auf eine bestimmte IP-Adresse konfiguriert sind. Dies führt zur Auflösung von physikalischen Strukturen, die durch den klassischen Switch gegeben sind. Größere Netze werden so schnell unübersichtlich und schwer zu administrieren.

    Beispiel-Architektur eines lokalen Netzwerkes mit VLANs

    Beispiel-Architektur eines lokalen Netzwerkes mit VLANs
    Obwohl die Clients der VLANs 1, 2 und 3 an unterschiedlichen Switches angeschlossen sind, sind sie für unterschiedliche Subnetze adressiert. Die Layer-3-Switches achten anhand der Subnetze auf die gezielte Weiterleitung von Broadcasts. Muss ein Datenpaket das Subnetz wechseln, wird es automatisch in ein anderes VLAN geroutet und der richtigen Station zugeordnet.


    Switch

    Switch Ein Switch arbeitet auf der Sicherungsschicht (Schicht 2) des OSI-Modells und arbeitet ähnlich wie eine Bridge. Daher haben sich bei den Herstellern auch solche Begriffe durchgesetzt, wie z. B. Bridging Switch oder Switching Bridge.
    Ein Switch schaltet direkte Verbindungen zwischen den angeschlossenen Geräten. Auf dem gesamten Kommunikationsweg steht die gesamte Bandbreite des Netzwerkes zur Verfügung.
    Switches unterscheidet man hinsichtlich ihrer Leistungsfähigkeit mit folgenden Eigenschaften:

    • Anzahl der speicherbaren MAC-Adressen (Speicher)
    • Verfahren, wann ein empfangenes Datenpaket weitervermittelt wird (Switching-Verfahren)
    • Latenz (Verzögerungszeit) der vermittelten Datenpakete
    Ein Switch ist im Prinzip nichts anderes als ein intelligenter Hub, der sich merkt, über welchen Port welche Station erreichbar ist. Auf diese Weise erzeugt jeder Switch-Port eine eigene Collision Domain.
    Teure Switches arbeiten auf der Schicht 3, der Vermittlungsschicht, des OSI-Schichtenmodells (Layer-3-Switch oder Schicht-3-Switch). Sie sind in der Lage die Datenpakete anhand der IP-Adresse an die Ziel-Ports weiterzuleiten. Im Gegensatz zu normalen Switches lassen sich so, auch ohne Router, logische Abgrenzungen erreichen.


    Switching-Verfahren

    Cut-Through
    Der Switch leitet das Datenpaket sofort weiter, wenn er die Adresse des Ziels erhalten hat.
    Vorteil: Die Latenz, die Verzögerungszeit, zwischen Empfangen und Weiterleiten ist äußerst gering.
    Nachteil: Fehlerhafte Datenpakete werden nicht erkannt und trotzdem an den Empfänger weitergeleitet.

    Store-and-Forward
    Der Switch nimmt das gesamte Datenpaket in Empfang und speichert es in einen Puffer. Dort wird dann das Paket mit verschiedenen Filtern geprüft und bearbeitet. Erst danach wird das Paket an den Ziel-Port weitergeleitet.
    Vorteil: Fehlerhafte Datenpakete können so im Voraus aussortiert werden.
    Nachteil: Die Speicherung und Prüfung der Datenpakete verursacht eine Verzögerung von mehreren Millisekunden (ms), abhängig von der Größe des Datenpaketes.

    Kombination aus Cut-Through und Store-and-Forward
    Viele Switches arbeiten mit beiden Verfahren. Solange nur wenige Kollisionen auftreten wird Cut-Through verwendet. Häufen sich die Fehler schaltet der Switch auf Store-and-Forward um.

    Fragment-Free
    Der Switch empfängt die ersten 64 Byte des Daten-Paketes. Ist dieser Teil fehlerlos werden die Daten weitergeleitet.
    Vorteil: Die meisten Fehler und Kollisionen treten während den ersten 64 Byte auf.
    Nachteil: Dieses Verfahren wird trotz seiner effektiven Arbeitsweise selten genutzt.

    Switch-MAC-Tabellenverwaltung

    Switches haben den Vorteil, im Gegensatz zu Hubs, dass sie Datenpakete nur an den Port weiterleiten, an dem die Station mit der Ziel-Adresse angeschlossen ist. Als Adresse dient die MAC-Adresse, also die Hardware-Adresse einer Netzwerkkarte. Diese Adresse speichert der Switch in einer internen Tabelle. Empfängt ein Switch ein Datenpaket, so sucht er in seinem Speicher unter der Zieladresse(MAC) nach dem Port und schickt dann das Datenpaket nur an diesen Port. Die MAC-Adresse lernt ein Switch mit der Zeit kennen. Die Anzahl der Adressen, die ein Switch aufnehmen kann, hängt ab von seinem Speicherplatz.
    Ein Qualitätsmerkmal eines Switches ist es, wie viele Adresse er insgesamt und pro Port speichern kann. An einem Switch, der nur eine Handvoll Computer verbindet, spielt es keine Rolle wieviele Adressen er verwalten kann. Wenn der Switch aber in einem großen Netzwerk steht und an seinen Ports noch andere Switches und Hubs angeschlossen sind, dann muss er evt. mehrere tausend MAC-Adressen speichern und den Ports zuordnen können. Je größer ein Netzwerk ist, desto wichtiger ist es, von vornherein darauf zu achten, dass die Switches genügend Kapazität bei der Verwaltung von MAC-Adressen haben.

    Bandbreite

    Die Daten in einem Switch werden über die sogenannte Backplane übertragen. Über die Backplane werden alle Ports miteinander verbunden, die Daten miteinander austauschen müssen. Die Bandbreite muss also groß genug sein, um alle angeschlossenen Stationen mit der Netzwerkgeschwindigkeit bedienen zu können.
    Es gilt die Faustformel: Die Bandbreite der Backplane muss den doppelten der Bandbreite aller verfügbaren Ports entsprechen. Vereinfacht gilt folgende Formel:
    Formel zur Berechnung der Bandbreite einer Backplane
    Das Ergebnis muss nochmals verdoppelt werden (x2), wenn die Daten mit Vollduplex übertragen werden.
    Ein Switch mit 5 Fast-Ethernet-Anschlüssen (100 MBit/s) benötigt also eine Backplane-Bandbreite von 1 GBit/s (1000 MBit/s).
    Beispiel: Formel zur Berechnung der Bandbreite einer Backplane
    Bei kleinen Netzwerkinstallationen spielt die Backplane-Bandbreite in der Regel keine Rolle. Schon billige Switches haben eine ausreichend große Backplane-Bandbreite. Dient der Switch aber als Verteiler zwischen Stationen mit Datenbankabfragen und File-Transfers, dann spielt die Bandbreite ein größere Rolle. Die benötigten Geräte sind dann aber auch teurer.
    Einfachere Switches basieren in der Regel auf einer Busarchitektur mit hoher Bandbreite, da der Schaltungsaufwand geringer ist und sich das Gerät billiger herstellen lässt.

    Problemfall: Switch

    Switch Fließt der Traffik in einem Netzwerk ständig nur zu einer einzigen Station, kann auch der Switch wenig für die Performance tun. Eine geringe Anzahl an Datenpaketen kann ein Switch zwischenspeichern. Irgenwann verwirft er die eingehenden Datenpakete oder erzeugt Kollisionen.
    Verworfene Datenpakete werden von höheren Protokollen, wie TCP oder IPX, erneut gesendet. Bei ungesicherten Protokollen, wie z. B. UDP oder NetBIOS kann das jedoch zu Verbindungsabbrüchen führen. Kollisionen werden auf der Schicht 2 erkannt und erneut angefordert. In jedem Fall entstehen spürbare Verzögerungen im Netzwerkverkehr.


    IEEE 802.3ad / Link Aggregation

    Link Aggregation fast mehrere parallele Verbindungen zu einer logischen Verbindung zusammen. Dieses Verfahren ist auch unter dem Begriff Port Trunking oder Channel Bundling bekannt. Weil die Hersteller unterschiedliche Lösungen entwickelt haben, die zueinander inkompatibel sind, ist der Standard IEEE 802.3ad daraus entstanden.
    IEEE 802.3ad / Link Aggregation / Port Trunking / Channel Bundling
    Im Punkt-zu-Punkt-Betrieb, zwischen zwei Netzwerk-Stationen, egal ob in der Switch-Switch- oder Switch-Server-Konstellation, werden die physikalischen Leitungen zu einer logischen Verbindung zusammengefasst. Dieses Verfahren funktioniert nur bei Vollduplex-Verbindungen mit der selben Übertragungsrate.
    Auf diese Weise lässt sich zwischen zwei Stationen mit einfachen Mitteln die Bandbreite und somit die Datenrate vervielfachen. Fällt eine physikalische Verbindung aus, verläuft der Datenverkehr auf den restlichen Leitungen weiter.
    Für Link Aggregation wurde in die MAC-Schicht ein Link Aggregation Control Layer (LACL) eingefügt, der für die Verteilung des Datenstroms auf die einzelnen Ports sorgt. Der Informationsaustausch zur Steuerung zwischen den verbundenen Stationen wird vom Link Aggregation Control Protocol (LACP) vorgegeben. Die Informationen werden von speziellen Ethernet-Frames transportiert. Entweder nach jeder Veränderung oder im regelmäßigen Austausch.


     
      Verwandte Links
    · Mehr zu dem Thema Technik
    · Nachrichten von admin


    Der meistgelesene Artikel zu dem Thema Technik:
    Provider-Login mit MTU Werten


      Artikel Bewertung
    durchschnittliche Punktzahl: 0
    Stimmen: 0

    Bitte nehmen Sie sich einen Augenblick Zeit, diesen Artikel zu bewerten:

    Exzellent
    Sehr gut
    gut
    normal
    schlecht


      Einstellungen

     Druckbare Version Druckbare Version

    Vorhandene Themen

    Technik

    Sorry, kein Kommentar für diesen Artikel vorhanden.
    Erstellung der Seite: 0.12886 Sekundens (PHP: 37% - SQL: 63%) Besuche SQL: 74

    1. Disclaimer 2. Impressum