Rechnernetze
Kapitel 1-6 aus dem Buch Computernetze kompakt von Christian Baum
Kapitel 1-6 aus dem Buch Computernetze kompakt von Christian Baum
Kartei Details
Karten | 95 |
---|---|
Sprache | Deutsch |
Kategorie | Informatik |
Stufe | Universität |
Erstellt / Aktualisiert | 06.08.2025 / 06.08.2025 |
Weblink |
https://card2brain.ch/box/20250806_rechnernetze
|
Einbinden |
<iframe src="https://card2brain.ch/box/20250806_rechnernetze/embed" width="780" height="150" scrolling="no" frameborder="0"></iframe>
|
Lernkarteien erstellen oder kopieren
Mit einem Upgrade kannst du unlimitiert Lernkarteien erstellen oder kopieren und viele Zusatzfunktionen mehr nutzen.
Melde dich an, um alle Karten zu sehen.
Nennen Sie die Hauptunterschiede zwischen Lichtwellenleitern (Glasfaserkabeln) und Kupferkabeln als Übertragungsmedium.
Glasfaserkabel übertragen Daten mittels Licht (Laser oder LED), während Kupferkabel elektrische Signale nutzen. Daraus ergeben sich mehrere Unterschiede: Glasfasern bieten wesentlich höhere Bandbreiten und ermöglichen deutlich größere Distanzen ohne Verstärkung als Kupfer (mehrere Kilometer gegenüber oft nur Hunderten von Metern bei Kupfer). Außerdem sind Lichtwellenleiter unempfindlich gegenüber elektromagnetischen Störungen und strahlen selbst keine elektromagnetischen Wellen ab – es gibt also kein Übersprechen oder Interferenzen von außen. Kupferkabel hingegen können als Antennen wirken (Störeinstrahlung und Abstrahlung) und erfordern ggf. Abschirmung. Auf der anderen Seite sind Kupferkabel und die zugehörigen Transceiver meist kostengünstiger und leichter zu handhaben (z. B. Stromversorgung von Endgeräten über Power over Ethernet). Zusammengefasst: Glasfaser eignet sich für sehr hohe Datenraten und lange Strecken (z. B. Backbone-Verbindungen) mit hoher Abhörsicherheit und Störfestigkeit, während Kupfer für kürzere Distanzen und moderate Datenraten aufgrund geringerer Kosten und einfacherer Installation verbreitet bleibt.
Kap. 5.2.3 Lichtwellenleiter; Kap. 5.2.2 Twisted-Pair-Kabel
Was ist Manchester-Kodierung und warum wird sie in Netzwerken eingesetzt?
Die Manchester-Kodierung ist ein Leitungscode zur Bitübertragung, bei dem in jedem Bit-Zeitschlitz eine Peggeländerung (Spannungswechsel) erfolgt. Konkret wird jeder Bitwert durch zwei Signal-Halbbits dargestellt: z. B. bei klassischer Manchester-Kodierung “0” als Übergang von High nach Low und “1” als Low nach High in der Bitmitte (oder umgekehrt, je nach Definition). Dadurch enthält jedes Bit garantiert mindestens eine Flanke. Der Vorteil dieser Kodierung ist, dass der Empfänger aus den regelmäßigen Pegelwechseln leicht den Taktsignal synchronisieren kann – die Taktinformation ist im Signal enthalten (Taktrückgewinnung). So wird verhindert, dass lange Folgen gleicher Bits (z. B. viele 0en oder 1en) zu einem konstanten Pegel ohne Flanken führen. Manchester-Kodierung bietet also eine robuste Synchronisation zwischen Sender und Empfänger. Nachteil: Da pro Bit zwei Signalzustandswechsel verwendet werden, verdoppelt sich die benötigte Bandbreite gegenüber einem NRZ-Signal. Manchester wird beispielsweise bei klassischem 10 Mbit/s Ethernet (10BASE-T) verwendet, um die Synchronisation auf dem Übertragungsmedium sicherzustellen.
Kap. 5.5.8 Manchester
Worin unterscheidet sich ein Hub von einem Switch?
Ein Hub (Multiport-Repeater) arbeitet auf der Bitübertragungsschicht. Er erhält eingehende Signale (Bits) und sendet sie unverändert an alle seine Ausgänge weiter. Ein Hub kennt keine Adressen und segmentiert das Netzwerk nicht – alle daran angeschlossenen Geräte teilen sich eine Kollisionsdomäne. Dadurch können an einem Hub Kollisionen auftreten, und die Netzwerklast wird an alle Teilnehmer weitergereicht (Broadcast aller Daten). Ein Switch hingegen arbeitet auf der Sicherungsschicht. Er ist eine intelligente Bridge mit vielen Ports. Der Switch liest die MAC-Adresse des Empfängers aus jedem Frame und leitet den Frame nur an den entsprechenden Port weiter, an dem der Zielrechner hängt (statt an alle). Dazu führt er eine MAC-Adresse-zu-Port-Tabelle (Lernbrücken-Funktion). Frames an unbekannte oder Broadcast-Adressen werden an alle Ports geflutet, aber bekannte Ziele werden selektiv bedient. Vorteile des Switches: Er trennt die Kollisionsdomänen – jeder Port bildet eine eigene Kollisionsdomäne, was das Kollisionsaufkommen drastisch senkt – und erhöht insgesamt den Durchsatz im Netzwerk (gleichzeitige Übertragungen an verschiedenen Ports). Außerdem prüft ein Switch eingehende Frames oft auf Fehler (Prüfsumme) und kann defekte Frames verwerfen. Kurz gesagt: Ein Hub ist ein „dumme“ Verteiler (alles an alle), ein Switch ist ein „smarter“ Verteiler, der den Datenverkehr zielgerichtet und effizient weiterleitet
Kap. 3.5 Geräte in Computernetzen; Kap. 5.4.1 Auswirkungen von Repeatern und Hubs auf die Kollisionsdomäne; Kap. 6.1.1 Lernende Bridges
Wie lernt ein Switch (Bridge) die MAC-Adressen und entscheidet, wohin er einen Frame weiterleitet?
Ein Switch arbeitet als lernende Bridge: Er beginnt mit einer leeren Weiterleitungstabelle (MAC-Liste) und lernt im Betrieb automatisch die Zuordnung von MAC-Adressen zu Ports. Immer wenn ein Frame einen Switch-Port erreicht, schaut der Switch sich die Quell-MAC-Adresse des Frames an. Er trägt diese Adresse mit dem entsprechenden Empfangs-Port in seine Tabelle ein (bzw. aktualisiert den Eintrag), denn daraus schließt der Switch: „Diese MAC-Adresse ist über diesen Port erreichbar.“ Anschließend prüft der Switch die Ziel-MAC-Adresse des Frames:
Findet er die Zieladresse in seiner Tabelle, leitet er den Frame genau an den Port weiter, der dieser MAC-Adresse zugeordnet ist (uniCAST).
Ist die Ziel-MAC noch unbekannt (kein Eintrag) oder handelt es sich um eine Broadcast- oder Multicast-Adresse, sendet der Switch den Frame an alle Ports außer dem Empfangsport (Flooding).
Durch dieses Lernverfahren füllt sich nach und nach die interne Tabelle. So erreicht der Switch, dass Datenpakete nur dorthin gehen, wo sie hin sollen. Bekannte Stationen werden direkt und selektiv angesprochen, was unnötigen Traffic auf anderen Segmenten vermeidet. Für den Endnutzer passiert dies alles transparent – der Switch bildet letztlich eine gemeinsame Broadcast-Domäne, filtert aber den Verkehr innerhalb dieser Domain auf MAC-Ebene. Fehlerhafte Frames (z. B. mit falscher Prüfsumme) werden vom Switch meist erkannt und nicht weitergeleitet.
Kap. 6.1.1 Lernende Bridges; Kap. 6.1.4 Auswirkungen von Bridges und Switches auf die Kollisionsdomäne
Welche Probleme treten auf, wenn in einem Layer-2-Netz (Bridged/Switch-Netz) Schleifen existieren, und wie verhindert das Spanning Tree Protocol (STP) diese?
Netzwerkschleifen auf Schicht 2 (z. B. durch parallel verbundene Switches/Bridges) führen zu gravierenden Problemen: Es können Broadcast-Stürme entstehen – ein Broadcast-Frame würde endlos im Kreis gesendet und immer wieder vervielfacht, da Bridges ihn mehrfach weiterleiten. Das kann das Netz mit Traffic fluten. Auch Duplikate von Frames und unstabile MAC-Tabellen treten auf: Durch die Schleife sehen Switches dieselbe MAC-Adresse an verschiedenen Ports und überschreiben ständig ihre Einträge, sodass Frames im Kreis wandern. Insgesamt bricht in einem Loop die sinnvolle Weiterleitung zusammen. – Das Spanning Tree Protocol (STP) löst dieses Problem, indem es auf Bridges einen logischen Baum ohne Schleifen aufspannt. Alle Switches/Bridges verständigen sich über BPDU-Nachrichten und berechnen, welche Verbindungen redundant sind. STP schaltet dann redundante Ports in den Blocking-Status, sodass pro Netzwerk nur noch genau ein einziger Pfad zwischen zwei Segmenten aktiv bleibt (dies bildet einen Spannbaum). Damit wird jede physische Schleife in eine baumförmige Topologie ohne Schleifen überführt. Die abgeschalteten Verbindungen dienen nur als Reserve: Fällt eine aktive Verbindung aus, kann STP die zuvor blockierten Ports wieder aktivieren und so den Baum neu konfigurieren. Auf diese Weise können redundante Leitungen vorhanden sein (für Ausfallsicherheit), ohne dass schleifenbedingte Broadcast-Stürme auftreten – STP sorgt stets für eine loop-freie Baumstruktur im laufenden Betrieb.
Kap. 6.1.2 Kreise auf der Sicherungsschicht; Kap. 6.1.3 Spanning Tree Protocol (STP)
Wie ist eine MAC-Adresse aufgebaut und was bedeuten ihre Teile?
Eine klassische MAC-Adresse (nach IEEE 802) ist 48 Bit lang und wird meist hexadezimal dargestellt (z. B. 00:1A:2B:3C:4D:5E). Die MAC-Adresse besteht aus zwei Hauptteilen: Die ersten 24 Bit stellen die OUI (Organizationally Unique Identifier) dar – das ist ein vom IEEE vergebenes Herstellerkennzeichen. Jedes Gerätehersteller-Unternehmen bekommt eine oder mehrere OUIs, die seine Prefixe darstellen. Die darauf folgenden 24 Bit werden vom Hersteller für jede einzelne Schnittstelle individuell vergeben (laufende Nummer, oft NIC Specificgenannt). Somit sollte weltweit jede MAC-Adresse einzigartig sein. Zusätzlich enthalten bestimmte Bits der ersten Bytes besondere Bedeutungen: Das niedrigst-wertige Bit des ersten Bytes kennzeichnet, ob es sich um eine unicast (0) oder multicast (1) Adresse handelt. Das zweitniedrigste Bit zeigt an, ob die Adresse lokal verwaltet wird (1) oder global einzigartig vom Hersteller vergeben wurde (0). In der Regel sind MAC-Adressen global eindeutig ab Werk eingestellt (Hersteller-OUI + Gerät-ID). Zusammengefasst: Eine MAC-Adresse identifiziert eine Netzwerkhardware eindeutig; der vordere Teil verrät den Hersteller (OUI), der hintere Teil ist die vom Hersteller vergebene spezifische Nummer.
Kap. 6.2.1 Format der MAC-Adressen; Kap. 6.2.2 Eindeutigkeit von MAC-Adressen
Nennen Sie zwei Methoden, wie Protokolle die Grenzen von Datenrahmen kennzeichnen können (Framing).
Es gibt mehrere etablierte Methoden zur Rahmenbegrenzung:
Durch Längenangabe im Header – z. B. enthält ein Feld im Frame-Header die Länge des Nutzdatenfelds. Der Empfänger weiß dadurch, wie viele Bytes zum Rahmen gehören. Ethernet II z. B. nutzt indirekt die Länge (über EtherType/Len-Feld in IEEE 802.3) oder Protokolle wie TCP in höheren Schichten.
Durch besondere Start/Stopp-Markierungen und Stuffing – z. B. bei byteorientierten Protokollen fügt man spezielle Steuerbytes wie SOH/STX (Start of Header/Text) und ETX (End of Text) ein, oder verwendet Flag-Sequenzen wie 0x7E (01111110 in Bitfolge) bei bitorientierten Protokollen (HDLC). Tauchen solche Marker in den Nutzdaten auf, werden sie durch Stopfverfahren entschärft: bei Zeichenstopfen wird vor zufällig auftretenden Steuerzeichen ein Escape-Zeichen (DLE) eingefügt; bei Bitstopfen wird nach einer Folge von z. B. fünf 1-Bits automatisch eine 0 eingefügt, damit das Flag-Muster nicht als Teil der Daten vorkommt. Der Empfänger entfernt diese eingefügten Bits/Bytes wieder.
Durch Codierungsverstöße – Manche Übertragungsverfahren reservieren bestimmte physikalische Signalcodes, die im normalen Datenstrom nicht vorkommen, und verwenden diese als Rahmenbegrenzung (Beispiel: bestimmte 4B/5B-Blöcke oder spezielle Symbolsequenzen auf dem Medium markieren Ende).
Zwei der obigen Methoden genügen als Antwort, z. B.: „Rahmenbegrenzung durch Längenfeld im Header oderdurch spezielle Start-/Ende-Bytes mit entsprechender Byte-Stuffing- bzw. Bit-Stuffing-Technik.“
Kap. 6.3.1 Längenangabe im Header; Kap. 6.3.2 Zeichenstopfen; Kap. 6.3.3 Bitstopfen; Kap. 6.3.4 Verstöße gegen Regeln des Leitungscodes
Was ist eine Frame Check Sequence (FCS) und wie wird sie verwendet?
Die Frame Check Sequence (FCS) ist ein Fehlererkennungswert (Prüfsumme), der am Ende eines Datenrahmens mitgesendet wird, um Übertragungsfehler zu erkennen. Bei Ethernet und vielen anderen Protokollen handelt es sich dabei um einen CRC-Wert (Cyclic Redundancy Check), typischerweise 32 Bit lang (CRC-32). Der Sender berechnet aus dem gesamten Frame-Inhalt (Header + Nutzdaten) diesen Prüfsummenwert nach einem festen Polynom-Verfahren und hängt ihn als FCS ans Ende des Frames. Der Empfänger führt die gleiche CRC-Berechnung bei Empfang durch und vergleicht das Ergebnis mit der empfangenen FCS. Stimmen die Werte nicht überein, ist zumindest ein Bit im Frame verfälscht (Übertragungsfehler); der Frame wird dann verworfen. Ist die FCS gleich, gilt der Frame mit hoher Wahrscheinlichkeit als korrekt übertragen (Restfehler-Wahrscheinlichkeit sehr gering). Die FCS ermöglicht also die Erkennung von Bitfehlernwährend der Übertragung, jedoch keine automatische Korrektur. Bei Ethernet führt ein fehlerhafter Frame (FCS Mismatch) zum Verwerfen des Frames; höhere Protokolle müssen dann ggf. einen erneuten Versand veranlassen. Kurz: Die FCS ist eine redundante Prüfsumme zur Fehlererkennung im Datenrahmen.
Kap. 6.6.2 Zyklische Redundanzprüfung
Erläutern Sie den Unterschied zwischen Fehlererkennung und Fehlerkorrektur in Netzwerkprotokollen.
Fehlererkennung bedeutet, dass das Empfängersystem feststellen kann, dass während der Übertragung ein Fehler im Datenstrom aufgetreten ist (z. B. Bitfehler), ohne ihn selbst zu beheben. Typische Mechanismen zur Fehlererkennung sind Paritätsbits, Prüfsummen oder CRC-Codes, die Ungereimtheiten im empfangenen Datenblock aufdecken. Wird ein Fehler erkannt, müssen höhere Protokollebenen oder Anwendungen entscheiden, wie damit umzugehen ist (oft durch erneutes Senden). Fehlerkorrektur hingegen bedeutet, dass das System in der Lage ist, aufgetretene Fehler selbständig zu korrigieren, sodass der ursprüngliche Dateninhalt wiederhergestellt wird. Fehlerkorrektur kann auf zwei Arten erfolgen: entweder durch Rückfragen (ARQ) – z. B. Senden eines NACK/kein ACK und erneutes Übertragen des betroffenen Datenpakets durch den Sender (dies nutzt die Fehlererkennung und ergänzt sie mit Wiederholungsmechanismen) – oder durch Forward Error Correction (FEC) – dabei werden bereits redundant kodierte Daten übertragen (z. B. Hamming-Code, Reed-Solomon-Code), sodass der Empfänger innerhalb gewisser Grenzen Bitfehler selbst rekonstruieren kann, ohne eine Neuanforderung. Zusammengefasst: Fehlererkennungsverfahren (wie CRC) melden nur, dass ein Fehler vorliegt, während Fehlerkorrekturverfahren (ARQ oder FEC) dafür sorgen, dass der Empfänger die richtigen Daten erhält, sei es durch erneutes Anfordern oder durch mathematische Rekonstruktion der fehlerhaften Bits.
Kap. 6.6 Fehlererkennung; Kap. 6.7 Fehlerkorrektur
Was ist das Address Resolution Protocol (ARP) und wie funktioniert es?
ARP ist ein Protokoll, das in IPv4-Netzwerken die Zuordnung zwischen IP-Adressen (Schicht 3) und MAC-Adressen (Schicht 2) erledigt. Wenn ein Rechner ein IP-Paket an eine Ziel-IP-Adresse in seinem lokalen Netzwerk senden möchte, benötigt er die MAC-Adresse des Zielgeräts (für den Ethernet-Frame). ARP läuft wie folgt ab: Der Sender schickt eine ARP-Request-Nachricht als Broadcast ins lokale Netz, die etwa fragt: „Wer hat die IP-Adresse X.Y.Z.W? Bitte antworten mit deiner MAC-Adresse.“ Alle Knoten im LAN empfangen diese Anfrage, aber nur derjenige mit der angefragten IP-Adresse reagiert. Dieser antwortet mit einer ARP-Reply (unicast zum Anfrager) und teilt darin seine MAC-Adresse mit. Der anfragende Rechner empfängt die Antwort und kann nun die IP-Adresse X.Y.Z.W mit der erhaltenen MAC-Adresse verknüpfen. Sowohl der Sender als auch typischerweise alle Empfänger aktualisieren ihre ARP-Cache-Tabellen mit dieser Zuordnung, um sie für künftige Kommunikation zwischenzuspeichern. Auf diese Weise stellt ARP sicher, dass IP-Pakete im lokalen Netz richtig an die Hardwareadresse des Empfängers zugestellt werden können. ARP ist unsauber(nicht über Router hinweg) – es funktioniert nur innerhalb eines Broadcast-domänen Localnetz. Bei IPv6 übernimmt das Neighbor Discovery Protocol (NDP) eine ähnliche Funktion.
Kap. 6.10 Adressauflösung mit dem Address Resolution Protocol
Wie wird eine IPv4-Adresse in Netzanteil und Hostanteil unterteilt?
Bei IPv4 erfolgt die Aufteilung einer Adresse in Netz- und Host-Anteil mithilfe der Subnetzmaske (oder Prefix-Länge). Eine IPv4-Adresse besteht binär aus 32 Bit. Die Subnetzmaske – ebenfalls 32 Bit lang – hat eine Folge von 1-Bits, gefolgt von 0-Bits. Die „1“-Bits geben den Netzwerkanteil an, die „0“-Bits den Hostanteil. Zum Beispiel bedeutet die Maske 255.255.255.0 (in Bits: 11111111.11111111.11111111.00000000) für eine Adresse, dass die ersten 24 Bit zur Netzadresse gehören und die letzten 8 Bit den Host innerhalb dieses Netzes definieren. Alternativ wird das in CIDR-Notation als “/24” angegeben. Um die Netzadresse zu erhalten, führt man eine bitweise UND-Operation zwischen IP-Adresse und Maske durch; der Hostanteil ergibt sich aus den restlichen Bits. Beispiel: IP 192.168.5.130 mit /24-Maske -> Netzanteil 192.168.5.0, Hostanteil .130. Anders formuliert: Die Netzpräfix-Länge (z. B. /k) bestimmt, wie viele der vordersten Bits zur Netzwerkkennung gehören. Alle Geräte im selben Netz haben diesen Präfix identisch, während die verbleibenden Bits bei jedem Host unterschiedlich sind. Die spezielle “Hostnummer” aus allen 0-Bits (im Hostteil) steht für das Netzwerk selbst, und alle 1-Bits (Hostteil) ergeben die Broadcast-Adresse des Netzes.
Kap. 7.2.2 Subnetze im IPv4-Adressraum
Sie die wichtigsten Unterschiede zwischen IPv4 und IPv6
IPv6 ist der Nachfolger von IPv4 und bringt mehrere wesentliche Unterschiede und Verbesserungen:
Adressgröße: IPv4 verwendet 32-Bit-Adressen (ca. 4,3 Milliarden Adressen), während IPv6 128-Bit-Adressen nutzt (sehr viel größerer Adressraum, praktisch erschöpfend für alle Bedürfnisse). Dadurch entfällt bei IPv6 der Adressmangel, und Techniken wie NAT sind für Adressknappheit nicht mehr nötig.
Adressnotation: IPv4-Adressen schreibt man in vier Dezimalblöcken (z. B. 192.168.0.1). IPv6-Adressen werden in acht Gruppen hexadezimaler 16-Bit-Werte geschrieben, getrennt durch Doppelpunkte (z. B. 2001:0db8:...); führende Nullen und lange Nullsequenzen können dabei abgekürzt werden.
Header-Aufbau: Der IPv6-Header wurde gegenüber IPv4 vereinfacht. Viele optionale Felder wurden entfernt oder in Extensions ausgelagert. Es gibt kein Header-Prüfsummenfeld mehr (die Fehlerkontrolle erfolgt durch obere Schichten wie TCP/UDP), was die Verarbeitung in Routern beschleunigt. Dafür enthält der IPv6-Header z. B. das Flow Label für Quality of Service.
Zusätzliche Funktionen: IPv6 beinhaltet standardmäßig Funktionen, die bei IPv4 erst nachträglich hinzugefügt wurden: z. B. Pflichtunterstützung für IPsec (Authentifizierung/Verschlüsselung auf Netzwerkschicht), Autokonfiguration von Adressen (SLAAC) – ein Host kann sich selbst in einem Netz eine gültige IPv6-Adresse geben, eingebaute Mechanismen für Multicast (statt Broadcast) und die Klassifizierung von Adressen in Typen (Link-Local, Unique Local, Global Unicast, etc.).
Keine Fragmentierung durch Router: Bei IPv4 dürfen Router zu große Pakete fragmentieren. In IPv6 hingegen fragmentiert nur der Absender, falls nötig (Path MTU Discovery wird vorausgesetzt). Router schicken bei zu großen Paketen eine ICMPv6-Fehlermeldung Packet Too Big zurück.
Insgesamt bietet IPv6 einen größeren Adressraum, moderneren Header, bessere Unterstützung für Sicherheit und Autokonfiguration, während IPv4 einfacher gehalten ist, aber durch Adressmangel und Notlösungen (NAT) geprägt wird.
Wie werden IP-Pakete in einem Router weitergeleitet (Routing-Prinzip)?
Ein Router verbindet mehrere Netzwerke und trifft für eingehende IP-Pakete die Weiterleitungsentscheidung anhand der Ziel-IP-Adresse jedes Pakets. Vereinfacht läuft das Routing so ab: Wenn ein IP-Paket eintrifft, untersucht der Router dessen Zieladresse und gleicht sie gegen seine Routing-Tabelle ab. Diese Tabelle enthält Einträge, die Netzwerkpräfixe (Zielnetze) und die zugehörigen nächsten Hops bzw. Ausgangsschnittstellen angeben. Der Router bestimmt den am besten passenden Eintrag (Longest Prefix Match – das spezifischste zutreffende Netz) und leitet das Paket über die angegebene Schnittstelle weiter in Richtung Ziel. Dabei schreibt er seine eigene Absender-MAC-Adresse als Source in den neuen Frame (Layer-2) und die MAC-Adresse des nächsten Hops (entweder des Zielsystems im selben Netz oder des nächsten Routers) als Destination hinein. Zudem dekrementiert er das TTL-Feld (Time To Live) im IP-Header um 1, um endlose Schleifen zu verhindern – ist der TTL-Wert danach 0, verwirft er das Paket und schickt eine ICMP-Zeitüberschritten-Meldung zurück. Falls das Paket größer ist als die MTU des nächsten Netzes und Fragmentierung erlaubt ist (IPv4), kann der Router es in kleinere Fragmente aufteilen. In IPv6 wird statt Fragmentierung eine ICMP-Fehlermeldung an den Sender geschickt. Jeder Router hopweise wiederholt diesen Prozess: Adresse prüfen, Weiterleitungsentscheidung, TTL verringern, neu verpacken und weitersenden, bis das Paket das Zielnetz erreicht. Dort wird es anhand der Ziel-IP an den richtigen Endknoten zugestellt. Dieser Prozess – lokal beste Routenwahl an jedem Knoten – ist das grundlegende Weiterleitungsprinzip im Internet.
Erklären Sie den Unterschied zwischen Distance-Vector-Routing und Link-State-Routing (mit je einem Beispiel für ein Protokoll).
Distance-Vector-Routing und Link-State-Routing sind zwei Ansätze für Routing-Protokolle:
Beim Distance-Vector-Routing kennt jeder Router zunächst nur Informationen über die direkten Nachbarn und tauscht regelmäßig seine Sicht der Entfernungen (Metriken) zu allen Zielen mit den Nachbarn aus. Jeder Router hält also eine Tabelle („Vektor“) mit Entfernungsangaben zu bekannten Netzen und dem nächsten Hop dorthin. Er aktualisiert seine Routeinträge basierend auf den Vektoren, die er von Nachbarn erhält (nach dem Bellman-Ford-Algorithmus). Distance-Vector ist einfach in der Implementation, skaliert aber schlechter: Änderungen propagieren sich schrittweise durch das Netz, was zu langsameren Anpassungen führt und Probleme wie Count-to-Infinity(Endlosschleifen bei Routenupdates) mit sich bringt. Ein bekanntes Distanzvektor-Protokoll ist RIP – es zählt Hops als Distanzmetrik und sendet alle 30 Sekunden komplette Routingtabellen an Nachbarn. RIP ist einfach, hat aber Begrenzungen (max. 15 Hops Reichweite).
Beim Link-State-Routing dagegen ermittelt jeder Router aktiv die gesamte Netzwerktopologie in seinem Bereich. Jeder Router entdeckt seine direkten Nachbarn und verschickt dann Link-State-Advertisements (LSAs)an alle anderen Router (Flooding). Darin teilt er mit, welche Nachbarn er hat und mit welcher Metrik (Kosten) die Verbindungen verbunden sind. Am Ende besitzt jeder Router eine vollständige Karte des Netzes. Anschließend berechnet jeder Router mit einem Algorithmus (meist Dijkstra) den kürzesten Weg zu allen Zielen (d. h. baut seine Routing-Tabelle selbst auf, indem er den kürzesten Pfadbaum vom sich selbst als Wurzel aus berechnet). Link-State-Routing konvergiert in der Regel schneller und kann komplexe Metriken berücksichtigen, benötigt aber mehr Rechenleistung und Speicher, und die Protokolle sind aufwändiger. Ein Beispiel ist OSPF jeder OSPF-Router floodet Link-State-Infos innerhalb seiner Area; alle Router haben somit die gleiche Sicht und berechnen unabhängig die besten Routen. OSPF unterstützt außerdem Hierarchien (Areas) für bessere Skalierung.
Kap. 7.4 Routing Information Protocol (RIP); Kap. 7.5 Open Shortest Path First (OSPF)
Wozu dient das ICMP-Protokoll? Nennen Sie zwei Beispiele für ICMP-Nachrichten.
ICMP (Internet Control Message Protocol) ist ein Begleitprotokoll zu IP und dient dazu, Fehlermeldungen und Kontrollinformationen über das Netzwerk zu transportieren. Router und Hosts verwenden ICMP, um sich gegenseitig Zustandsinformationen mitzuteilen, z. B. wenn ein Paket nicht zugestellt werden konnte. ICMP wird auch von Netzwerk-Diagnosetools genutzt. Zwei bekannte Beispiele:
ICMP Echo Request & Echo Reply: Dies ist der Mechanismus hinter dem Ping-Befehl. Ein Echo Request (Typ 8) wird an einen Host geschickt, der Host antwortet mit Echo Reply (Typ 0). Damit lässt sich prüfen, ob ein Host erreichbar ist und wie lange Pakete zu ihm brauchen.
Destination Unreachable: Wenn ein Router ein IP-Paket nicht weiterleiten kann – z. B. weil kein passender Routeintrag existiert oder das Zielnetz hinter einer Firewall unzugänglich ist – sendet er an den Absender eine ICMP-Nachricht Destination Unreachable (Ziel unerreichbar, Typ 3) mit einem Code, der den Grund angibt (z. B. Netzwerk/Host/Port unreachable, administratively prohibited etc.). So erfährt der sendende Host, dass seine Sendung nicht ankam.
Weitere wichtige ICMP-Meldungen sind z. B.: Time Exceeded (Typ 11) – gesendet, wenn die TTL eines Pakets abläuft; dies nutzt Traceroute aus, um Hops auf dem Weg zu ermitteln. Oder Redirect Message (Typ 5), womit Router einem Host mitteilen können, dass ein besserer Weg zu einem Ziel existiert (um Routingpfade zu optimieren).
Zusammengefasst: ICMP ist für die Kommunikation von Fehlerzuständen und Diagnoseinformationenzuständig. Es arbeitet eng mit IP zusammen (ICMP-Nachrichten werden in IP-Paketen transportiert) und hat keine Transportports, da es nicht der Datenübertragung, sondern der Netzsteuerung dient.
Kap. 7.8 Diagnose und Fehlermeldungen mit ICMP
Ein Byte besteht aus 8 Bit.
Kap. 2.3 Datei- und Speichergrössen
ASCII verwendet eine 7-Bit-Zeichenkodierung mit insgesamt 128 darstellbaren Zeichen.
Kap. 2.4.1 ASCII-Kodierung
Im Hexadezimalsystem gibt es zehn verschiedene Ziffern.
Falsch. (Es gibt 16 Ziffern: 0–9 und A–F). Kap. 2.2.4 Hexadezimalsystem
Mit jedem zusätzlichen Bit verdoppelt sich die Anzahl der darstellbaren Zustände.
Kap. 2.1 Bit
Ein LAN (Local Area Network) erstreckt sich über ein größeres geografisches Gebiet als ein WAN (Wide Area Network).
Kap. 3.3 Räumliche Ausdehnung von Computernetzen (LANs sind lokal begrenzt, WANs decken grössere Distanzen ab.)
Bei Halbduplex können zwei Stationen nicht gleichzeitig, sondern nur abwechselnd senden.
Kap. 3.4.3 Richtungsabhängigkeit der Übertragung
In drahtlosen Netzwerken (WLAN) ist eine zuverlässige Kollisionserkennung wie bei Ethernet nicht möglich.
Kap. 3.12 Kollisionsdomäne (Kollisionsgemeinschaft)
Das Token-Passing-Zugriffsverfahren (z. B. im Token Ring) ist deterministisch.
Kap. 3.11.1 Deterministisches Zugriffsverfahren
CSMA/CD (Ethernet) gewährt den Stationen abwechselnd in fester Reihenfolge das Senderecht.
Kap. 3.11.2 Nicht-deterministisches Zugriffsverfahren (CSMA/CD ist ein nicht-deterministisches Verfahren ohne feste Sende-Reihenfolge.)
Jede Schicht eines Netzwerkmodells fügt den Nutzdaten einen eigenen Header hinzu.
Alle an einen Hub angeschlossenen Geräte befinden sich in derselben Kollisionsdomäne.
Ethernet nach IEEE 802.3 verwendet ein deterministisches Zugriffsverfahren
Kap. 5.1.1 Ethernet; Kap. 3.11.2 Nicht-deterministisches Zugriffsverfahren
Ethernet nutzt das nicht-deterministische CSMA/CD-Verfahren.
-
- 1 / 95
-