Vlan basierend auf Ports. Arten von virtuellen Netzwerken

Gebäude VLAN basierend auf Ports nur basierend auf Addition Weitere Informationen in die Adresstabellen des Switches und nutzt die nicht Einbettungen Informationen über die Zugehörigkeit zu einem virtuellen Netzwerk in der übertragenen rahmen. Seine Hauptvorteile:

1. Flexibilität und Komfort beim Einrichten und Ändern, die Möglichkeit, Tags hinzuzufügen, ermöglicht Informationen darüber VLANüber mehrere 802.1Q-kompatible Switches über eine einzige physische Verbindung verbreiten ( Trunk-Kanal, Trunk-Link);

2. Fähigkeit IEEE 802.1Q-VLANs Das Hinzufügen und Extrahieren von Tags aus Frame-Headern ermöglicht die Verwendung von Switches und Netzwerkgeräten im Netzwerk, die den Standard nicht unterstützen IEEE 802.1Q;

3. Geräte verschiedene Hersteller, die den Standard unterstützen, unabhängig von einer proprietären Lösung zusammenarbeiten können;

4. Um Subnetze auf Netzwerkebene zu verbinden, benötigen Sie einen Router oder L3-Switch. Für einfachere Fälle jedoch, um beispielsweise den Zugriff auf den Server von verschiedenen Seiten zu organisieren VLAN, ein Router ist nicht erforderlich. Sie müssen den Switch-Port, an dem der Server mit allen Subnetzen verbunden ist, und angeben Netzwerkadapter Server muss den Standard unterstützen IEEE 802.1Q.

Einige Definitionen von IEEE 802.1Q

· Taggen- Der Vorgang des Hinzufügens von 802.1Q-Mitgliedschaftsinformationen VLAN im Frame-Header.

· Markierung aufheben- Prozess zum Extrahieren von 802.1Q-Mitgliedschaftsinformationen VLAN aus dem Frame-Header.

· VLAN-ID (VID)- Kennung VLAN.

· Port-VLAN-ID (PVID)- Port-ID VLAN.

· Eingangsport- Port des Switches, an dem Frames empfangen werden und gleichzeitig eine Entscheidung über die Zugehörigkeit getroffen wird VLAN.

· Ausgangsport- Switch-Port, von dem Frames zu anderen Netzwerkgeräten, Switches oder Workstations übertragen werden, und dementsprechend sollte die Markierungsentscheidung darauf getroffen werden.

Jeder Switch-Port kann als konfiguriert werden getaggt(beschriftet) oder als ungetaggt(unmarkiert). Funktion Tag entfernen ermöglicht es Ihnen, mit den Netzwerkgeräten des virtuellen Netzwerks zu arbeiten, die die Tags im Ethernet-Frame-Header nicht verstehen. Funktion taggen ermöglicht Ihnen die Anpassung VLAN zwischen mehreren Switches, die den Standard unterstützen IEEE 802.1Q.

Abbildung - Markiert und unmarkiert VLAN-Ports

IEEE 802.1Q VLAN-Tag

Standard IEEE 802.1Q definiert Änderungen an der Ethernet-Rahmenstruktur, die Informationen darüber zulassen VLANüber das Netzwerk. Auf Abb. 6.7 zeigt das 802.1Q-Tag-Format VLAN. Dem Ethernet-Frame wurden 32 Bits (4 Bytes) hinzugefügt, was seine Größe auf 1522 Bytes erhöht. Die ersten 2 Bytes (Tag Protocol Identifier, TPID) mit einem festen Wert von 0x8100 bestimmen, dass der Frame ein 802.1Q-Protokoll-Tag enthält. Die restlichen 2 Bytes enthalten folgende Informationen:

Priorität- 3 Bits des Übertragungsprioritätsfeldes codieren bis zu acht Prioritätsstufen (von 0 bis 7, wobei 7 die höchste Priorität ist), die im 802.1p-Standard verwendet werden;

Kanonisch Format Indikator (CFI) - 1 Bit des kanonischen Formatindikators ist für die Bezeichnung von Frames anderer Netzwerktypen reserviert (Token Ring, FDDI) über das Ethernet-Backbone übertragen;

VID (VLAN ID) - 12-Bit-Identifikator VLAN bestimmt welche VLAN gehört zum Straßenverkehr. Denn unter dem Feld VID 12 Bits werden zugewiesen, dann können Sie 4094 eindeutig festlegen VLAN (VID 0 und VID 4095 reserviert).

(frame), dann können Netzwerkgeräte, die diesen Standard nicht unterstützen, Datenverkehr ohne Rücksicht auf seine Zugehörigkeit zu einem VLAN übertragen.

802.1Q-Platzierungen innerhalb eines Rahmens Schild, die Informationen darüber übermittelt, ob der Datenverkehr zu einem VLAN gehört.

Die Tag-Größe beträgt 4 Bytes. Es besteht aus folgenden Feldern:

  • Tag-Protokollkennung(TPID, Kennung des Tagging-Protokolls). Die Feldgröße beträgt 16 Bit. Gibt an, welches Protokoll für das Tagging verwendet wird. Für 802.1Q ist der Wert 0x8100.
  • Priorität(eine Priorität). Die Feldgröße beträgt 3 Bit. Wird vom IEEE 802.1p-Standard verwendet, um übertragenen Datenverkehr zu priorisieren.
  • Kanonischer Formatindikator(CFI, Canonical Format Indicator). Die Feldgröße beträgt 1 Bit. Gibt das Format der MAC-Adresse an. 0 - kanonisch, 1 - nicht kanonisch. CFI wird für die Interoperabilität zwischen Ethernet- und Token Ring-Netzwerken verwendet.
  • VLAN-Kennung(VID, VLAN-ID). Die Feldgröße beträgt 12 Bit. Gibt an, zu welchem ​​VLAN der Frame gehört. Der Bereich der möglichen Werte reicht von 0 bis 4094.

Bei Verwendung des Ethernet II-Standards fügt 802.1Q ein Tag vor dem Feld Protocol Type ein. Da sich der Rahmen geändert hat, wird die Prüfsumme neu berechnet.

Im 802.1Q-Standard gibt es das Konzept des nativen VLAN. Der Standardwert ist VLAN 1. Der Datenverkehr in diesem VLAN wird nicht gekennzeichnet.

Es gibt ein ähnliches proprietäres 802.1Q-Protokoll, das von Cisco Systems - ISL entwickelt wurde.

Rahmenformat

Einfügen eines 802.1Q-Tags in einen Ethernet-II-Frame

Verknüpfungen


Wikimedia-Stiftung. 2010 .

Sehen Sie, was "IEEE 802.1Q" in anderen Wörterbüchern ist:

    IEEE 802.11- ist eine Reihe von Standards für die Computerkommunikation in drahtlosen lokalen Netzwerken (WLAN), die vom IEEE LAN/MAN Standards Committee (IEEE 802) in den öffentlichen 5-GHz- und 2,4-GHz-Frequenzbändern entwickelt wurden. Allgemeine BeschreibungDie 802.11-Familie umfasst über… … Wikipedia

    IEEE 802.11- (auch: Wireless LAN (WLAN), Wi-Fi) Herausgeber ist das Institute of Electrical and Electronics Engineers (IEEE). Die erste Version des Standards wurde 1997 verabschiedet. Sie ... ... English Wikipedia

    IEEE 802.3

    Ieee 802

    IEEE 802.3- Es ist eine Norm für Informationsquellen, die vom Institute of Electrical and Electronics Engineers (IEEE) verfasst wurden. Cette norme est generalement connue sous le nom d Ethernet. C est a sous comité du comité IEEE 802 comprenant plusieurs… … Wikipedia en Français

    Eine Gruppe von Standards in der IEEE-Familie bezüglich Local Computernetzwerke(LAN) und Stadtnetze (MAN). Insbesondere sind die IEEE 802-Standards auf Netzwerke mit Paketen variabler Länge beschränkt. Die Nummer 802 war die nächste freie Nummer für ... ... Wikipedia

    IEEE 802.15- ist die 15. Arbeitsgruppe des IEEE 802, die sich auf Standards für Wireless PAN (Personal Area Network) spezialisiert hat. Es umfasst sechs Aufgabengruppen (nummeriert von 1 bis 6): Aufgabengruppe 1 (WPAN/Bluetooth) IEEE 802.15.1 2002 hat einen drahtlosen persönlichen Bereich abgeleitet … Wikipedia

    IEEE802- est un comité de l IEEE qui decrit une famille de normes relatives aux réseaux locaux (LAN) et metropolitains (MAN) bases sur la transmission de données numériques par le biais de liaisons filaires ou sans fil. Plus spécifiquement, les normes… … Wikipedia en Français

    IEEE802- bezieht sich auf eine Familie von IEEE-Standards, die sich mit lokalen Netzwerken und städtischen Netzwerken befassen. Genauer gesagt sind die IEEE 802-Standards auf Netzwerke beschränkt, die Pakete mit variabler Größe transportieren. (Im Gegensatz dazu sind Daten in zellbasierten Netzwerken … Wikipedia

    IEEE 802.15.4a- (formell IEEE 802.15.4a 2007 genannt) ist eine Ergänzung zu IEEE 802.15.4 (formal IEEE 802.15.4 20060 genannt), die festlegt, dass zusätzliche physikalische Schichten (PHYs) zum ursprünglichen Standard hinzugefügt werden.ÜberblickIEEE 802.15.4 2006 spezifiziert vier verschiedene… …Wikipedia

    IEEE 802.11- Beispiel-Ausrüstungsfabrikat über die Empfehlungen der Norm IEEE 802.11. Ici, ein Router mit Switch 4 Ports integriert von der Marke Linksys. IEEE 802.11 ist ein Begriff, der ein Ensemble von Normen betrifft, die les réseaux sans fil qui ont betreffen… … Wikipédia en Français


Der Artikel diskutiert die Möglichkeiten von Ethernet in Bezug auf den Einsatz in der Industrie; Das Material stellt auch spezielle Anwendungsprotokolle auf Basis von Ethernet vor.

OOO "AKOM", Tscheljabinsk

Nachdem Ethernet und TCP/IP erfolgreich die Welt der Büroautomatisierung erobert hatten, starteten sie einen Angriff auf verteilte Produktionssteuerungssysteme. Als zentrale „Waffe“ bedient sich diese der verlockenden Idee einer „nahtlosen“ Verbindung aller Ebenen der klassischen Automatisierungspyramide: von der Ebene der Automatisierung technologischer Prozesse bis hin zur Ebene der Unternehmensführung. Die Umsetzung dieser Idee erforderte eine große Anpassung von Ethernet, insbesondere in Bezug auf die Echtzeitunterstützung. Nicht deterministische Kommunikationsprotokolle wie HTTP und FTP bieten sicherlich Vielseitigkeit und Benutzerfreundlichkeit, aber für den industriellen Einsatz mussten noch spezielle Anwendungsprotokolle auf Basis von Ethernet entwickelt werden.

OSI - Verbindungsmodell für offene Systeme

Das OSI-Modell (Open System Interconnection) beschreibt und standardisiert schematisch die Verbindungen zwischen verschiedene Geräte in der Netzwerkarchitektur. Das OSI-Modell definiert sieben Ebenen der Systemvernetzung, gibt ihnen Standardnamen und spezifiziert, welche Funktionen jede Ebene ausführen soll und wie die Interaktion mit einer höheren Ebene bereitgestellt wird.

Reis. 1. OSI-Modell (Open System Interconnection)

Bevor die Nutzdaten aus Anlage 1 (Abb. 1.) über Ethernet gesendet werden können, durchlaufen diese Daten sequentiell den gesamten Kommunikationsstack von der obersten bis zur untersten Ebene. In diesem Fall wird das endgültige Paket für die Übertragung gebildet (Kapselung) - wenn ein Rahmen (Paket) gemäß den Anforderungen der aktuellen Ebene gebildet wird, wird ein Rahmen einer höheren Ebene darin eingebettet. Somit werden die Daten, die die unterste Ebene (das physikalische Übertragungsmedium) erreicht haben, an das zweite System übertragen, wo der umgekehrte Prozess der seriellen Übertragung der empfangenen Daten an die oberen Ebenen bis zum Ziel erfolgt – Anlage 2.

Ein solcher Prozess ist wie eine gut geölte Pipeline und erfordert eine klare Beschreibung des logischen Zusammenspiels der Ebenen.

Tabelle 1

Im Ethernet sind nach dem IEEE 802.1-3-Standard die Schichten 1 und 2 des OSI-Modells implementiert. Die Unterstützung für die dritte Netzwerkschicht wird durch das IP-Protokoll (Internet Protocol) bereitgestellt, das dem Ethernet überlagert ist, und die TCP- und UDP-Transportprotokolle entsprechen Schicht 4. Die Schichten 5–7 sind in der FTP-, Telnet-, SMTP- und SNMP-Anwendung implementiert Protokolle und in den unten betrachteten spezifischen Industrieprotokollen Automatisierung (Industrial Ethernet). Zu beachten ist, dass Industrial-Ethernet-Protokolle in einigen Anwendungen die Schichten 3 und 4 (IP und TCP/UDP) ersetzen oder ergänzen können.

Layer 1 (Physical) beschreibt ein Verfahren zur bitweisen seriellen Übertragung von Daten über ein physikalisches Medium. Gemäß dem IEEE 802.3-Standard sollte ein Standard-Ethernet-Frame wie folgt aussehen:

Präambel - Präambel, die zum Synchronisieren des Empfangsgeräts verwendet wird und den Beginn des Ethernet-Frames anzeigt;

Bestimmungsort - Adresse des Empfängers;

Quelle - Absenderadresse;

Typfeld – High-Level-Protokolltyp (z. B. TCP/IP);

Datenfeld - übertragene Daten;

Check - Prüfsumme (CRC).

Schicht 2 (Link) verbessert die Zuverlässigkeit der Datenübertragung über die physikalische Schicht, indem Daten in Standard-Frames gepackt und um Adressinformationen und eine Prüfsumme ergänzt werden (Fehlererkennung). Der Zugriff auf das physikalische Übertragungsmedium nach IEEE 802.3 erfolgt über den CSMA/CD-Mechanismus, was zu unvermeidlichen Kollisionen führt, wenn mehrere Geräte gleichzeitig mit der Übertragung beginnen. Die Verbindungsschicht ermöglicht die Lösung dieses Problems, indem sie die Verteilung von Zugriffsrechten für netzwerkbildende Geräte bereitstellt. Realisiert wird dies in Ethernet-Switches (Switched-Ethernet-Technologie), bei denen anhand der Daten der Verbindungsschicht alle eingehenden Daten automatisch auf Integrität und Checksummen-Einhaltung (CRC) geprüft und bei positivem Ergebnis nur an weitergeleitet werden der Port, an dem der Datenempfänger angeschlossen ist.

Schicht 3 (Netzwerk) bietet Nachrichtenübermittlung zwischen verschiedenen Netzwerken unter Verwendung des IP-Protokolls (wie es auf Ethernet angewendet wird) als Werkzeug. Von der Transportschicht empfangene Daten werden in einen Vermittlungsschichtrahmen mit IP-Headern eingekapselt und zur Segmentierung und weiteren Übertragung an die Sicherungsschicht weitergeleitet. Die aktuelle IP-Version 4 (IPv4) verwendet einen Adressraum von bis zu 32 Bit, während IPv6 den Adressraum auf 128 Bit erweitert.

Layer 4 (Transport) bietet eine Datenübertragung mit einem bestimmten Maß an Zuverlässigkeit. Die Unterstützung für diese Ebene ist in den TCP- und UDP-Protokollen implementiert. TCP (Transmission Control Protocol - Transmission Control Protocol) ist ein fortgeschrittenes Protokoll mit Mitteln zum Herstellen, Bestätigen und Beenden einer Verbindung, mit Mitteln zum Erkennen und Korrigieren von Fehlern. Eine hohe Zuverlässigkeit der Datenübertragung wird auf Kosten zusätzlicher Zeitverzögerungen und einer Erhöhung der übertragenen Informationsmenge erreicht. UDP (User Datagram Protocol - User Datagram Protocol) wurde als Gegengewicht zu TCP entwickelt und wird in Fällen verwendet, in denen Geschwindigkeit statt Zuverlässigkeit der Datenübertragung zum Hauptfaktor wird.

Die Schichten 5 - 7 sind für die endgültige Interpretation der übermittelten Nutzdaten zuständig. Beispiele aus der Welt der Büroautomation sind die Protokolle FTP und HTTP. Auch Industrial-Ethernet-Protokolle verwenden diese Schichten, aber verschiedene Wege was sie inkompatibel macht. So sind die Protokolle Modbus/TCP, EtherNet/IP, CIPsync, JetSync streng oberhalb der Schicht 4 des OSI-Modells angesiedelt, und die Protokolle ETHERNET Powerlink, PROFInet, SERCOS erweitern und ersetzen teilweise die Schichten 3 und 4.

Ethernet/IP

EtherNet/IP basiert auf den Protokollen Ethernet TCP und UDP IP und erweitert den Kommunikationsstack für den Einsatz in der industriellen Automatisierung (Bild 2.). Der zweite Teil des Namens „IP“ steht für „Industrial Protocol“. Industrial Ethernet Protocol (Ethernet/IP) wurde von der ODVA-Gruppe unter aktiver Beteiligung von Rockwell Automation Ende 2000 auf Basis des Kommunikationsprotokolls CIP (Common Interface Protocol) entwickelt, das auch in ControlNet- und DeviceNet-Netzwerken verwendet wird. Die EtherNet/IP-Spezifikation ist öffentlich und kostenlos. Neben den typischen Funktionen der Protokolle HTTP, FTP, SMTP und SNMP bietet EtherNet/IP die Übertragung zeitkritischer Daten zwischen Host und I/O-Geräten. Die Übertragungssicherheit von nicht zeitkritischen Daten (Konfiguration, Download/Unload von Programmen) wird durch den TCP-Stack gewährleistet und die zeitkritische Lieferung von zyklischen Steuerdaten über den UDP-Stack. Um den Aufbau eines EtherNet/IP-Netzwerks zu vereinfachen, werden die meisten Standard-Automatisierungsgeräte mit vordefinierten Konfigurationsdateien(EDS).

CIPsync ist eine Erweiterung des CIP-Kommunikationsprotokolls und implementiert Zeitsynchronisationsmechanismen in verteilten Systemen basierend auf dem IEEE 1588-Standard.

PROFINET

Die erste Version von PROFINET verwendete Ethernet für die zeitunkritische Kommunikation zwischen Geräten Höchststufe und Profibus-DP Feldgeräte. Die Interaktion mit Profibus-DP erfolgte ganz einfach über den im Stack eingebauten PROXY.

Die zweite Version von PROFINET stellt zwei Mechanismen für die Kommunikation über Ethernet zur Verfügung: TCP/IP wird verwendet, um nicht zeitkritische Daten zu übertragen, und Echtzeit auf dem zweiten Kanal durch ein spezielles Protokoll bereitgestellt. Dieses Echtzeitprotokoll „springt“ über die Schichten 3 und 4 und transformiert die Länge der übertragenen Daten, um Determinismus zu erreichen. Zusätzlich werden zur Optimierung der Kommunikation alle Datenübertragungen bei PROFINET nach IEEE 802.1p priorisiert. Für die Echtzeitkommunikation müssen Daten die höchste (siebte) Priorität haben.

PROFINET V3 (IRT) nutzt Hardware, um eine schnelle Verbindung mit noch besserer Performance zu schaffen. Entspricht den IRT-Anforderungen (Isochronous Real-Time) des IEEE-1588-Standards. PROFINET V3 wird hauptsächlich in Bewegungssteuerungssystemen mit dedizierten Ethernet/PROFINET V3-Switches verwendet.

Reis. 2. Der Aufbau von Ethernet/IP in den Schichten des OSI-Modells

Reis. 3. Aufbau von PROFINET in den Schichten des OSI-Modells

Reis. 4. Ethernet PowerLink-Struktur in OSI-Modellschichten

ETHERNET-Stromverbindung

Bei ETHERNET Powerlink werden die TCP/IP- und UDP/IP-Stacks (Layer 3 und 4) um den Powerlink-Stack erweitert. Basierend auf den TCP-, UDP- und Powerlink-Stacks wird sowohl eine asynchrone Übertragung zeitunkritischer Daten als auch eine schnelle isochrone Übertragung zyklischer Daten durchgeführt.

Der Powerlink-Stack verwaltet den Datenverkehr im Netzwerk vollständig für den Echtzeitbetrieb. Dazu wird die SCNM-Technologie (Slot Communication Network Management) verwendet, die für jede Station im Netzwerk das Zeitintervall und die strengen Rechte für die Datenübertragung festlegt. In jedem solchen Zeitintervall hat nur eine Station voller Zugriff an das Netzwerk, mit dem Sie Kollisionen beseitigen und den Determinismus bei der Arbeit sicherstellen können. Zusätzlich zu diesen individuellen Zeitschlitzen für die isochrone Datenübertragung stellt SCNM gemeinsame Zeitschlitze für die asynchrone Datenübertragung bereit.

In Zusammenarbeit mit der CiA-Gruppe (CAN in Automation) wurde eine Powerlink v.2-Erweiterung entwickelt, die CANopen-Geräteprofile verwendet.

Powerlink v.3 enthält Zeitsynchronisierungsmechanismen basierend auf dem IEEE 1588-Standard.

Modbus/TCP-IDA

Die neu gebildete Modbus-IDA-Gruppe schlägt eine IDA-Architektur für verteilte Steuersysteme vor, die Modbus als Nachrichtenstruktur verwenden. Modbus-TCP ist eine Symbiose aus dem Standard-Modbus-Protokoll und dem Ethernet-TCP/IP-Protokoll als Kommunikationsmedium. Das Ergebnis ist ein einfaches, strukturiertes, offenes Übertragungsprotokoll für Master-Slave-Netzwerke. Alle drei Protokolle der Modbus-Familie (Modbus RTU, Modbus Plus und Modbus-TCP) verwenden dasselbe Anwendungsprotokoll, wodurch sie auf der Ebene der Benutzerdatenverarbeitung kompatibel sind.

IDA besteht nicht nur aus Modbus-basierten Protokollen, es ist eine ganze Architektur, die Baumethoden kombiniert verschiedene Systeme Automatisierung mit verteilter Intelligenz und beschreibt sowohl die Struktur des Steuerungssystems als Ganzes als auch die Schnittstellen von Geräten und Software insbesondere. Dies ermöglicht eine vertikale und horizontale Integration aller Automatisierungsebenen mit umfassender Nutzung von Webtechnologien.

Die Datenübertragung in Echtzeit erfolgt über den IDA-Stack, der ein Add-on über TCP/UDP ist und auf dem Modbus-Protokoll basiert. Die Übertragung nicht zeitkritischer Daten und die Unterstützung von Webtechnologien erfolgt über den TCP/IP-Stack. Möglichkeit gegeben Fernbedienung Geräte und Systeme (Diagnose, Parametrierung, Programm-Download etc.) über Standardprotokolle HTTP, FTP und SNMP.

EtherCAT

EtherCAT (Ethernet for Control Automation Technology) ist ein Ethernet-basiertes Automatisierungskonzept, das von der deutschen Firma Beckhoff entwickelt wurde. Der Hauptunterschied dieser Technologie ist die Verarbeitung von Ethernet-Frames „on the fly“: Jedes Modul im Netzwerk sendet gleichzeitig mit dem Empfang der an es adressierten Daten den Frame an das nächste Modul. Beim Senden werden die Ausgangsdaten in ähnlicher Weise in den weitergeleiteten Rahmen eingefügt. Somit gibt jedes Modul im Netzwerk eine Verzögerung von nur wenigen Nanosekunden, wodurch das System als Ganzes in Echtzeit unterstützt wird. Zeitunkritische Daten werden in den Zeitintervallen zwischen Echtzeit-Datenübertragungen übertragen.

EtherCAT implementiert Synchronisationsmechanismen basierend auf dem Standard IEEE 1588. Die geringe Latenz der Datenübertragung ermöglicht den Einsatz von EtherCAT in Motion-Control-Systemen.

SERCOS III

SERCOS (SErial Real-Time Communication System) ist eine digitale Schnittstelle, die für die Kommunikation zwischen der Steuerung und VFD (Frequenzumrichtern) über einen Glasfaserring optimiert ist. In seiner ursprünglichen Form von einer Gruppe von Unternehmen in den späten 80er Jahren des letzten Jahrhunderts entwickelt. Der Echtzeitbetrieb wird unter Verwendung des TDMA-Mechanismus (Time Division Multiplex Access) erreicht – Time Division Multiplex Access. SERCOS-III ist letzte Version diese Schnittstelle und basiert auf Ethernet.

Foundation Fieldbus HSE

Bei der Entwicklung des Foundation-Fieldbus-Standards hat man versucht, ganz auf das OSI-Modell zu setzen, aber schließlich wurde das Modell aus Performance-Gründen geändert: Layer 2 wurde durch einen proprietären Data Negotiation Layer ersetzt, die Layer 3-6 wurden eliminiert und eine achte Schicht namens User . Die Benutzerebene umfasst Funktionsblöcke, die standardisierte Pakete von Steuerfunktionen sind (z. B. die Analog Eingangssignal, PID-Regelung usw.). Diese Funktionsbausteine ​​müssen den Anforderungen verschiedenster Geräte unterschiedlicher Hersteller genügen und nicht einem bestimmten Gerätetyp. Angeschlossene Geräte verwenden eine Software „Device Description“ (DD), um ihre einzigartigen Eigenschaften und Daten an das System zu übermitteln. Dadurch ist es einfach, neue Geräte per Plug-and-Play zum System hinzuzufügen.

Das zweite Markenzeichen der Foundation Fieldbus-Technologie ist die Peer-to-Peer-Kommunikation zwischen Feldgeräten. Bei der Peer-to-Peer-Kommunikation kann jedes an den Bus angeschlossene Gerät direkt mit anderen Geräten auf dem Bus kommunizieren (d. h. ohne Signalisierung durch das Steuerungssystem).

Foundation Fieldbus HSE ((High-Speed ​​Ethernet) wurde im Jahr 2000 entwickelt. Hauptmerkmale: basiert auf Ethernet, 100 MBaud Datenrate, Echtzeitunterstützung, kompatibel mit allen handelsüblichen Ethernet-Geräten, Verwendung Internetprotokolle(FTP, HTTP, SMTP, SNMP und UDP), die Möglichkeit, mit dem FF H1-Netzwerk zu kommunizieren, ohne das Hostsystem zu kontaktieren.

SicheresEthernet

Entwickelt von der deutschen Firma HIMA auf Basis von Ethernet mit Unterstützung für Internetprotokolle. Getreu dem Firmenprofil und wie der Name schon sagt, ist dieses Protokoll für den Einsatz in Sicherheitssystemen optimiert.

Einbetten von Informationen über die Zugehörigkeit zu einem virtuellen Netzwerk in den übertragenen Rahmen. Virtuell lokale Netzwerke , aufgebaut auf Basis des IEEE 802.1Q Standards, verwenden Weitere Felder ein Frame zum Speichern von VLAN-Mitgliedschaftsinformationen, während es das Netzwerk durchstreift. Vom Standpunkt der Bequemlichkeit und Flexibilität der Einstellungen ist VLAN des IEEE 802.1Q-Standards beste Lösung im Vergleich zu portbasierten VLANs. Seine Hauptvorteile:
  1. Flexibilität und Komfort beim Einrichten und Ändern - Sie können die erforderlichen Kombinationen von VLANs sowohl innerhalb eines einzelnen Switches als auch im gesamten Netzwerk erstellen, das auf Switches aufgebaut ist, die den IEEE 802.1Q-Standard unterstützen. Die Tagging-Funktion ermöglicht die Weitergabe von VLAN-Informationen über mehrere 802.1Q-kompatible Switches über eine einzige physische Verbindung ( Trunk-Kanal, Trunk-Link);
  2. ermöglicht es Ihnen, den Spanning-Tree-Algorithmus ( Spanning Tree ) auf allen Ports zu aktivieren und im normalen Modus zu arbeiten. Das Spanning-Tree-Protokoll erweist sich als sehr nützlich für große Netzwerke, das auf mehreren Switches aufgebaut ist, und ermöglicht es den Switches, die baumartige Konfiguration von Verbindungen im Netzwerk mit einer beliebigen Verbindung von Ports untereinander automatisch zu bestimmen. Für normale Operation Schalter erforderlich nein geschlossene Strecken im Netz. Diese Routen können vom Administrator speziell zum Erstellen redundanter Verbindungen erstellt werden, oder sie können zufällig auftreten, was durchaus möglich ist, wenn das Netzwerk mehrere Verbindungen hat und das Verkabelungssystem schlecht strukturiert oder dokumentiert ist. Unter Verwendung des Spanning-Tree-Protokolls blockieren Switches redundante Routen, nachdem sie ein Netzwerkdiagramm erstellt haben. Dadurch werden Schleifen im Netzwerk automatisch verhindert;
  3. die Fähigkeit von IEEE 802.1Q VLANs, Tags aus Frame-Headern hinzuzufügen und zu extrahieren, ermöglicht die Verwendung von Switches und Netzwerkgeräten im Netzwerk, die den IEEE 802.1Q-Standard nicht unterstützen;
  4. Geräte verschiedener Hersteller, die den Standard unterstützen, können unabhängig von einer proprietären Lösung zusammenarbeiten;
  5. Um Subnetze auf Netzwerkebene zu verbinden, benötigen Sie einen Router oder L3-Switch. Für einfachere Fälle, um beispielsweise den Zugriff auf den Server aus verschiedenen VLANs zu organisieren, wird jedoch kein Router benötigt. Der Switch-Port, an dem der Server angeschlossen ist, muss in allen Subnetzen enthalten sein, und der Netzwerkadapter des Servers muss den Standard IEEE 802.1Q unterstützen.


Reis. 6.5.

Einige Definitionen von IEEE 802.1Q

  • Taggen- Der Prozess des Hinzufügens von 802.1Q-VLAN-Mitgliedschaftsinformationen zum Frame-Header.
  • Markierung aufheben- der Vorgang des Extrahierens von Informationen über die Zugehörigkeit zum 802.1Q-VLAN aus dem Frame-Header.
  • VLAN-ID (VID)- VLAN-Kennung.
  • Port-VLAN-ID (PVID)- VLAN-Port-ID.
  • Eingangsport- Port des Switches, an dem Frames empfangen werden und gleichzeitig eine Entscheidung über die Zugehörigkeit zum VLAN getroffen wird.
  • Ausgangsport- Switch-Port, von dem Frames zu anderen Netzwerkgeräten, Switches oder Workstations übertragen werden, und dementsprechend sollte die Markierungsentscheidung darauf getroffen werden.

Jeder Switch-Port kann als konfiguriert werden getaggt(beschriftet) oder als ungetaggt(unmarkiert). Funktion Tag entfernen ermöglicht es Ihnen, mit den Netzwerkgeräten des virtuellen Netzwerks zu arbeiten, die die Tags im Ethernet-Frame-Header nicht verstehen. Funktion taggen ermöglicht Ihnen die Konfiguration von VLANs zwischen mehreren Switches, die den IEEE 802.1Q-Standard unterstützen.


Reis. 6.6.

IEEE 802.1Q VLAN-Tag

Der IEEE 802.1Q-Standard definiert Änderungen an der Ethernet-Rahmenstruktur, um die Übertragung von VLAN-Informationen über das Netzwerk zu ermöglichen. Auf Abb. 6.7 zeigt das 802.1Q-Tag-Format

Teil IV

Gegenwärtig hat die Zahl der Anwendungen, die verzögerungsempfindlichen Verkehr transportieren, erheblich zugenommen. Darüber hinaus hält der Wachstumstrend solcher Anwendungen und entsprechend ihrer Benutzer nicht nur an, sondern gewinnt sogar noch an Dynamik. Um die Probleme der Übertragung des spezifizierten Verkehrs anzugehen, wurden mehrere Standards und Spezifikationen entwickelt, die in diesem Artikel diskutiert werden.

IEEE 802.1Q- und IEEE 802.1p-Standards

Die Aufgabe der an den p- und Q-Standards arbeitenden Arbeitsgruppen besteht darin, der Netzwerkindustrie ein einheitliches Verfahren an die Hand zu geben, um Informationen über die Priorität eines Frames und seine Zugehörigkeit zu einem VLAN über das Netzwerk zu übertragen. Es wurden zwei Verpackuentwickelt:

  • die erste, einstufige, definiert die Interaktion virtuelle Netzwerkeüber den Fast-Ethernet-Trunk;
  • Die zweite, zweistufige, betrifft die Markierung von Paketen in gemischten Backbones, einschließlich Token Ring und FDDI.

Die erste Spezifikation von Anfang an musste nur minimal verfeinert werden, da es sich tatsächlich um eine von Cisco auf den Markt gebrachte Tag-Switching-Technologie handelt. Verzögerungen bei der Annahme des 802.1Q-Standards werden durch die Notwendigkeit einer detaillierten Ausarbeitung einer viel komplexeren "zweischichtigen" Spezifikation erklärt.

Der Standard musste die folgenden ziemlich hohen Anforderungen erfüllen:

  • Skalierbarkeit auf der Ebene des Paketaustauschs zwischen Schaltern;
  • Kontinuität auf der Ebene bestehender Endanwendungen;
  • Anpassung auf der Ebene bestehender Protokolle und Routing-Tabellen;
  • Wirtschaft in Bezug auf das Recycling von Hochgeschwindigkeitsautobahnen;
  • Kompatibilität mit ATM, insbesondere mit LAN-Emulation;
  • Verwaltbarkeit Verpackungskennzeichnungsprozess.

Der 802.1Q-Standard fügt dem Ethernet-Frame vier Bytes hinzu. Diese 32 Bit enthalten Informationen über den zum VLAN gehörenden Ethernet-Frame und dessen Priorität. Genauer gesagt, drei Bits codieren bis zu acht Prioritätsstufen, 12 Bits ermöglichen die Unterscheidung von Datenverkehr in bis zu 4096 VLANs, ein Bit ist für andere Arten von Netzwerkrahmen (Token Ring, FDDI) reserviert, die über das Ethernet-Backbone übertragen werden usw.

Das Feld Priority Level Identifier ermöglicht die Verwendung von acht solcher Ebenen, die dem 802.1p-Prioritätssystem entsprechen.

Im Header des Ethernet-Frames werden 802.1Q-Felder zwischen der Quelladresse und dem Feld für die Länge des 802.3-Nutzlast-Frames (Ethernet-Frame) oder für einen höheren Protokolltyp (Ethernet-II-Frame) platziert.

Derzeit haben fast alle Netzwerkunternehmen bereits kommerzielle Versionen von Produkten entwickelt, die die Standards 802.1p und 802.1Q unterstützen. Darüber hinaus haben viele Hersteller von Ethernet-Switches bereits proprietäre Priorisierungsdienste implementiert.

Offensichtlich bringt die Änderung der Struktur des Ethernet-Frames ernsthafte Probleme mit sich – weil dadurch die Kompatibilität zu allen traditionellen Ethernet-Geräten verloren geht, die sich am alten Frame-Format orientieren.

Da die 802.1Q-Daten vor dem Feld für die Nutzdatenlänge (oder den Protokolltyp) platziert werden, findet das herkömmliche Netzwerkprodukt diese Informationen nicht an der üblichen Stelle und „liest“ stattdessen die Zahl x8100 – den Standardwert des neuen Tag-Protokolls Kennungsfelder in 802.1Q-Frames.

Die Quelle des Problems ist nicht nur eine Änderung in der Platzierung von Ethernet-Frame-Header-Feldern, sondern auch eine Erhöhung der maximalen Länge eines gegebenen Frames. Viele Netzwerkgeräte sind nicht in der Lage, Frames zu verarbeiten, die länger als 1518 Bytes sind. Ob und ob, ist unter Experten umstritten maximale Größe Verlängern Sie den Ethernet-Frame um vier Bytes oder verkürzen Sie die maximale Nutzdatengröße um vier Bytes, um die Overhead-Erhöhung auszugleichen. Die 802.1Q-Spezifikation sieht beide Ansätze vor, sodass es Sache der Anbieter ist, sicherzustellen, dass ihre Produkte interoperabel sind.

Aus technischer Sicht ist die Interoperabilität alter Geräte mit 802.1Q-kompatiblen modernen Geräten nicht schwierig, und die meisten Hersteller werden in der Lage sein, diese Funktion in ihren Produkten auf der Ebene ihrer Ports zu implementieren. Um ein 802.1Q-kompatibles Gerät an einen alten Switch oder NIC anzudocken, müssen Sie einfach die 802.1Q-Unterstützung am gewünschten Port deaktivieren, und der gesamte Datenverkehr wird wie gewohnt an das Netzwerk gesendet.

Prioritäten und Dienstklassen

Die IEEE 802.1p-Spezifikation, die als Teil des 802.1Q-Standardisierungsprozesses erstellt wurde, definiert ein Verfahren zum Übermitteln von Prioritätsinformationen. Netzwerktraffic. Während die meisten LANs selten anhaltende Überlastung erfahren, sind gelegentliche Verkehrsspitzen üblich und können zu Verzögerungen bei der Paketübertragung führen. Dies ist für Netzwerke, die für die Übertragung von Sprache und Video ausgelegt sind, absolut inakzeptabel. Der 802.1p-Standard spezifiziert einen Warteschlangenalgorithmus, der die rechtzeitige Lieferung von zeitkritischem Datenverkehr sicherstellt.

Die Working Group on Standardization of Integrated Services in Multiple Link Layer Networks (ISSLL) hat eine Reihe von Dienstklassen definiert, die davon abhängen, welche Verzögerungszeit für die Übertragung eines Pakets eines bestimmten Verkehrstyps zulässig ist. Stellen Sie sich ein Netzwerk mit unterschiedlichen Arten von Datenverkehr vor: Latenzempfindlich in der Größenordnung von 10 ms, keine Verzögerungen von mehr als 100 ms zulassen und nahezu unempfindlich gegenüber Verzögerungen. Damit ein solches Netzwerk erfolgreich funktioniert, muss jeder dieser Verkehrstypen seine eigene Prioritätsstufe haben, die sicherstellt, dass die Anforderungen für die Verzögerungsgröße erfüllt werden. Unter Verwendung des Konzepts des R(RSVP) und des Dienstklassensystems kann ein Prioritätssteuerschema definiert werden. Das RSVP-Protokoll, das unten diskutiert wird, wird von den meisten Switching-Routern und insbesondere von Cabletrons SSR 8000/8600-Modellen unterstützt.

Neben der Priorisierung führt der 802.1p-Standard das wichtige Generic Attributes Registration Protocol (GARP) mit zwei speziellen Implementierungen ein. Das erste davon ist das GMRP (GARP Multicast Registration Protocol), mit dem Arbeitsstationen eine Verbindung zu einer Multicast-Messaging-Domäne anfordern können. Das von diesem Protokoll unterstützte Konzept wird Blatt-initiierte Verbindung genannt. Das GMRP-Protokoll stellt sicher, dass der Datenverkehr nur an die Ports übertragen wird, von denen die Anforderung für den Multicast-Datenverkehr kam, und ist gut auf den 802.1Q-Standard abgestimmt.

Die zweite Implementierung von GARP ist das GVRP (GARP VLAN Registration Protocol), ähnlich wie GMRP. Allerdings wird daran gearbeitet Arbeitsplatz Anstelle einer Verbindungsanforderung zu einer Multicast-Domäne sendet es eine Anforderung zum Zugriff auf ein bestimmtes VLAN. Dieses Protokoll verbindet die p- und Q-Standards.

Mit der Annahme der vorläufigen Versionen der Standards 802.1Q und 802.1p gibt es alle Möglichkeiten für die weit verbreitete Verwendung der Verkehrspriorisierung in Ethernet-Netzwerken. Mit Produkten, die Priorisierungsmechanismen unterstützen, können Netzwerkadministratoren die Switching-Infrastruktur ihres Netzwerks so verwalten, dass beispielsweise höchstes Level Priorität empfangener Verkehr Bürosuite Lotus Notes Und Email, und RealAudio-Audiostreams sind die niedrigste Stufe. Vbasierend auf den Spezifikationen 802.1Q und 802.1p sind zweifellos ein weiterer Trumpf der Ethernet-Technologie geworden.

Aber obwohl diese Spezifikationen Verkehrspriorisierung für die gängigsten Layer-2-Topologien bereitstellen, garantieren sie nicht, dass die gesamte Netzwerkinfrastruktur (von einem Endpunkt zum anderen) die Verarbeitung von Prioritätsverkehr unterstützt. Insbesondere die 802.1Q- und 802.1p-Spezifikationen sind nutzlos bei der Kontrolle der Priorität von IP-Verkehr (Layer-3-Verkehr), der über langsame WAN- oder Internetzugangskanäle übertragen wird, d. h. durch die wahrscheinlichsten Engpässe in der Netzwerkinfrastruktur.

Um den Datenverkehr im gesamten Netzwerk vollständig zu verwalten, müssen Sie zunächst eine effektive Priorisierung des IP-Datenverkehrs implementieren. In diesem Zusammenhang stellen sich eine Reihe von Fragen. Unterstützt das lokale Netzwerk solche Priorisierungsmechanismen? Was ist mit WAN-Geräten? Unterstützt Ihr ISP diese Mechanismen? Wie sieht es diesbezüglich mit der Infrastruktur am anderen Ende der Verbindung aus? Wenn mindestens ein Gerät, das sich zwischen zwei Systemen befindet, keine Priorisierungsmechanismen unterstützt, ist es unmöglich, die Übertragung von Prioritätsverkehr von einem Netzwerkendknoten zu einem anderen zu implementieren.

Im Gegensatz zur Ethernet-Technologie gibt es IP schon seit langem, um den Netzwerkverkehr zu priorisieren, erstmals eingeführt in einer 1981 veröffentlichten Version. Jedes IP-Paket hat ein Acht-Bit-Type-of-Service-Feld (ToS), das aus zwei Teilfeldern besteht (siehe Struktur des IP-Paket-Headers):

  • Drei-Bit - um die Prioritätsstufe des Pakets festzulegen;
  • Vier-Bit – um die Dienstklasse (Typ) anzuzeigen, die für dieses Paket bevorzugt wird (das verbleibende achte Bit wird nicht verwendet).

Die ersten drei Bits des ToS-Felds ermöglichen es, den IP-Verkehr auf die gleichen acht Prioritätsstufen (von 0 bis 7) wie die 802.1Q- und 802.1p-Spezifikationen sowie die meisten anderen LAN-Technologien einzustellen. Daher ist es möglich, Informationen über die Prioritäten von Ethernet-Frames und IP-Paketen eins zu eins anzuzeigen, was bedeutet, dass eine Ende-zu-Ende-Verarbeitung des Prioritätsverkehrs von einem übertragen wird Ethernet-Netzwerke zu einem anderen über ein verteiltes IP-Netzwerk oder eine ISP-Infrastruktur.

Die vier anderen verwendeten Bits des ToS-Felds ermöglichen es dem Netzwerkmanager, jedes Paket gemäß der Art der darin enthaltenen Daten individuell zu routen. Zum Beispiel können NNTP-Pakete (Network News Transfer Protocol), die UseNet-Nachrichten transportieren, auf eine Dienstklasse mit niedrigen Kosten eingestellt werden, und Telnet-Pakete können auf eine Dienstklasse mit niedriger Latenz eingestellt werden.

Anfänglich definierte RFC 791 (die ursprüngliche Version des IP-Protokolls) nur drei Dienstklassen, von denen jede einem separaten Bit zugeordnet war, das je nach Bedarf für einen bestimmten Diensttyp auf „1“ oder „0“ gesetzt wurde. Mit der Einführung des RFC 1349-Standards wurde eine weitere Klasse hinzugefügt, und nun wurden die zuvor getrennten vier Bits als eine Einheit betrachtet. Daher können Sie heute mit ihrer Hilfe maximal 16 Werte (von 0 bis 15) einstellen.

Netzwerkadministratoren, die komplexe Netzwerke mit vielen Routen verwalten, können Type-of-Service-Bits in Verbindung mit Routing-Protokollen wie OSPF verwenden, um benutzerdefinierte Routing-Dienste zu erstellen. Beispielsweise können Pakete mit einer "markierten" niedrigen Latenz (geringe Verzögerung) nicht über eine Satellitenverbindung, sondern über eine Hochgeschwindigkeitsverbindung gesendet werden optische Leitung, während "unprätentiöser" Verkehr (Serviceklasse "niedrige Kosten") über das Internet und nicht über ein verteiltes Unternehmensnetzwerk gesendet wird.

Durch die Kombination der Diensttyp-Set-Bits mit den Prioritäts-Bits können Sie sehr genau festlegen, wie Pakete mit bestimmten Datentypen behandelt werden, z. B. Regeln für Netzwerkfilter definieren, um allen Lotus Notes-Anwendungspaketen eine mittlere Prioritätsstufe zuzuweisen und eine niedrige Latenzklasse zuzuweisen Nutzungsbedingungen, Geschäftsbedingungen. Gleichzeitig werden Notes-Benutzer gegenüber Benutzern anderer, weniger wichtiger Anwendungen bevorzugt behandelt. Sie können einen anderen Filtersatz definieren, der den gesamten RealAudio-Audioanwendungsdatenverkehr mit niedriger Priorität markiert und seine Dienstklasse auf hoch setzt. Durchsatz(hoher Durchsatz).

Wenn Sie eine eigene Ende-zu-Ende-Verbindung zwischen dem Senderknoten und dem Zielknoten haben, können Sie die Pakete nach Belieben entsorgen. Aber in den meisten ISP-Netzwerken werden Pakete mit festgelegten Prioritätsstufen und Pakete ohne Tag auf die gleiche Weise behandelt. Daher in Bezug auf die Priorisierung des Datenverkehrs und die Zuweisung verschiedener Dienstklassen Die beste Option ist die Verwendung eines privaten Weitverkehrsnetzes. Wenn Sie über das Internet arbeiten, können Sie hier eingehenden Filtern zuweisen globales Netzwerk Datenverkehr, um zumindest seinen Fortschritt in Ihrem eigenen Netzwerk zu kontrollieren.

Allerdings hängt nicht alles von der Netzwerkinfrastruktur ab. Derzeit gibt es erhebliche Probleme beim Setzen der Priorität und Art von Dienstbits in IP-Paketen. Diese Bits können sowohl von der Anwendung selbst gesetzt werden, wenn Pakete generiert und gesendet werden, als auch von einem Netzwerkgerät, das spezielle Filter verwendet. In beiden Fällen hängt die Unterstützung dieser Funktionen vollständig von den Anwendungsanbietern, Betriebssystemen und Netzwerkgeräten ab.

Überraschenderweise verwenden jedoch nur wenige Betriebssysteme Mechanismen in ihren IP-Stacks, um Informationen über die Prioritätsstufe und die dafür erforderliche Dienstklasse in das Paket zu schreiben. Die WINSOCK.DLL-API, die mit Windows 95 und Windows NT ausgeliefert wird, verfügt überhaupt nicht über diese Funktion, sodass Versuche, die Funktion "setsockopt (IP_TOS)" aufzurufen, zu einer Diagnosemeldung "ungültiger Vorgang" führen. Andere Betriebssysteme wie Irix, HP-UX und Solaris unterstützen diese Funktionen nur teilweise.

Unter allen Betriebssystemen haben nur Linux und Digital UNIX starke Unterstützung für ToS-Funktionen. Darüber hinaus ist es sowohl direkt in den Systemen selbst als auch in deren Sets erhältlich. Standardanwendungen. Beispielsweise bieten beide Systeme Telnet-Clients und -Server, die in der Lage sind, das Low-Latency-Bit des ToS-Felds einzustellen – keines der anderen von uns getesteten Betriebssysteme verfügt über solch wichtige Fähigkeiten. Kunde u FTP-Server, die unter Linux und Digital UNIX laufen, sind in der Lage, das Bit für niedrige Latenz in Paketen zu setzen, die über den Steuerkanal übertragen werden, und das Bit für hohen Durchsatz in Paketen, die über den Datenkanal übertragen werden. Infolgedessen wird ein solcher FTP-Befehl als Abbruchvorgang (Befehl unterbrechen) auf dem schnellsten Weg und dementsprechend in kürzester Zeit an den Server übertragen (schneller Abbruch des Downloads der Datei vom Server).

Warum unterstützen nur wenige Anwendungen die ToS-Byte-Funktionalität? Ja, denn die meisten Betriebssysteme, in denen sie funktionieren, bieten keine angemessene Unterstützung für diese Funktionen. Und bis Microsoft die WINSOCK.DLL-API ändert Windows-Systeme NT, Anwendungsanbieter wie Lotus Development, Netscape Communications und Oracle sind nicht in der Lage, Prioritätsverwaltungsmechanismen in ihren Anwendungen zu implementieren.

Es gibt jedoch Möglichkeiten, die Probleme zu umgehen, die Betriebssystem- und Anwendungsanbieter nur langsam angehen. Am sichersten ist es, IP-Verkehrspriorisierungsdienste nicht in Anwendungen und Betriebssystemen, sondern in Netzwerkinfrastrukturgeräten zu implementieren. Administratoren vieler großer und stark belasteter Netzwerke priorisieren seit mehreren Jahren mithilfe von Filtern, die in Routern auf Anwendungsbasis installiert sind.



Wird geladen...
Spitze