DE69820084T2 - Netzwerkvorrichtung und Verfahren zur Reduzierung der System-Latenz - Google Patents

Netzwerkvorrichtung und Verfahren zur Reduzierung der System-Latenz Download PDF

Info

Publication number
DE69820084T2
DE69820084T2 DE69820084T DE69820084T DE69820084T2 DE 69820084 T2 DE69820084 T2 DE 69820084T2 DE 69820084 T DE69820084 T DE 69820084T DE 69820084 T DE69820084 T DE 69820084T DE 69820084 T2 DE69820084 T2 DE 69820084T2
Authority
DE
Germany
Prior art keywords
packet
data
memory
cell
module
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69820084T
Other languages
English (en)
Other versions
DE69820084D1 (de
Inventor
Tim Wright
Peter Marconi
Richard Conlin
Zbigniew Opalka
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nexabit Networks Inc
Original Assignee
Nexabit Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nexabit Networks Inc filed Critical Nexabit Networks Inc
Application granted granted Critical
Publication of DE69820084D1 publication Critical patent/DE69820084D1/de
Publication of DE69820084T2 publication Critical patent/DE69820084T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L49/00Packet switching elements
    • H04L49/10Packet switching elements characterised by the switching fabric construction
    • H04L49/104Asynchronous transfer mode [ATM] switching fabrics
    • H04L49/105ATM switching elements
    • H04L49/108ATM switching elements using shared central buffer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5638Services, e.g. multimedia, GOS, QOS
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L12/00Data switching networks
    • H04L12/54Store-and-forward switching systems 
    • H04L12/56Packet switching systems
    • H04L12/5601Transfer mode dependent, e.g. ATM
    • H04L2012/5678Traffic aspects, e.g. arbitration, load balancing, smoothing, buffer management
    • H04L2012/5681Buffer or queue management

Description

  • Die Erfindung betrifft Netzwerksysteme und das Weitergeben und Routen von Informationen in diesen Systemen, und richtet sich insbesondere auf die Probleme der Latenz eines Systems, die bei einem Konkurrenzbetrieb für einen Zugriff zu einem zeitanteiligen Speicher und aufgrund der Zeit, die für die Entscheidungen zum Weitergeben und Routen benötigt wird, auftreten – die Erfindung ist, neben anderen Faktoren, darauf gerichtet, eine solche Latenz zu minimieren.
  • Hintergrund der Erfindung
  • Zwei der primären Faktoren und Belange, die die Leistung des Systems bei Netzwerksystemen maßgeblich bestimmen, sind die Bandbreiten-Fähigkeit und die System-Betriebs-Latenz. Die Bandbreite reflektiert die Menge an Daten, die durch das System übertragen werden können und die Latenz umfasst die Menge an Zeit, die die Daten in dem System "verweilen".
  • Vorliegende Erfindung betrifft die Minimierung der Latenz. In der anhängigen US-Patentanmeldung Nr. 581 467, eingereicht am 29. Dezember 1995 mit dem Titel "High Performance Universal Multi-Port internally Cached Dynamic Random Access Memory System, Architecture and Method" des gemeinsamen Anmelders wird eine vielsprechende Lösung für die Maximierung der Bandbreite vorgeschlagen.
  • Die Latenz des Netzwerksystems wird durch verschiedene Faktoren bestimmt; ein primärer Faktor ist die Zeitdauer, die erforderlich ist, um eine Weitergabe- oder Routen-Entscheidung als Resultat einer Prüfung der Steuer-Information zu Beginn eines Datenpaketes oder einer Datenzelle vorzunehmen. Die Steuerinformation ist unterschiedlich, je nach dem, ob es sich um eine Zelle oder ein Paket handelt. Für eine Zelle wird eine Schalt-Entscheidung durchgeführt, die auf der BCI/VPI-Information basiert, die verwendet werden kann, um die Zelle auf eine Ausgangs-Interface innerhalb des Systems abzubilden. Andererseits wird für ein Paket eine Routen-Entscheidung durchgeführt, die auf der Bestimmungsadresse basiert, die verwendet werden kann, um das Paket in eine Ausgangs-Interface abzubilden. Für ein Paket kann ferner die Quellen-Adresse auch verwendet werden, um einen Filterungspegel zu erzielen, die auf Quellen- und Bestimmungs-Adressenpaaren beruht, bei denen eine Anzahl von Regeln aufgestellt werden, um zu definieren, welche Quellen-/Bestimmungs-Paare miteinander kommunizieren können. Wenn ein Paket aufgenommen wird, das nicht solchen Regeln entspricht, wird es fallen gelassen. Typischerweise haben z. B. die Daten entweder 54 Bytes für Zellen oder 64 bis 64K Bytes für Pakete in Netzwerken dieser Art.
  • Bei traditionellen Systemen wird die Verarbeitung von Steuerinformationen durch eine zentrale Verarbeitungseinheit (CPU) durchgeführt und kann solange nicht beginnen, bis die gesamte Zelle/das gesamte Paket aufgenommen ist. Beispielsweise wird als repräsentativ für den Stand der Technik auf die EP-A- 0 692 893 verwiesen, die sich auf ein Verfahren zum Weitergeben und Routen von Daten in einer CPU oder einem ähnlichen Daten-Steuersystem bezieht, bei dem die Daten auf einem gemeinsamen Bus kommunizieren, der mit einem gemeinsamen Speicher und mit einer Vielzahl von I/O-Moduln verbunden ist, die Daten empfangen und in den Speicher einschreiben sowie aus den Speicher-Paketen oder Zellen entfernen. Die Latenz eines solchen Systems hängt von der Übertragung von Daten aus einem I/O-Port in den Speicher, dem Zugriff der Steuerinformation, die zu Beginn der Daten angeordnet ist, der Fortschaltung dieser Steuerinformation und der Übertragung von Daten aus dem Speicher in einen I/O-Port ab. Alle diese Zugriffe zu dem zeitanteiligen Speicher führen zu einem Bus- und Speicher-Konkurrenzbetrieb, der die Latenz vergrößert. Die Latenz ist bei dieser Art von Architektur groß, weil die Verarbeitung der Steuerinformation so lange nicht beginnen kann, bis das gesamte Paket/die gesamte Zelle aufgenommen ist. Andere Posten, die zu einer Erhöhung der Latenz führen, weisen eine unterstützende Service-Qualität (QOS) und eine Mehrfach- Benachrichtigung auf. QOS macht die Aufrechterhaltung von Mehrfach-Schleifen für jeden I/O-Port erforderlich, wodurch die Anzahl von Zugriffen zu einem bereits überlasteten Speicher vergrößert wird. Die Mehrfach-Benachrichtigung macht das Senden des gleichen Paketes/der gleichen Zelle zu Mehrfach-I/O-Ports erforderlich und dies wiederum vergrößert die Anzahl von Zugriffen zu einem überlasteten Speicher.
  • Ein weiterer Faktor in der Bestimmung der Latenz eines Systems ist der Durchsatz des zeitanteiligen Speichers. Wenn der Durchsatz des zeitanteiligen Speichers nicht sehr hoch ist, wird die Latenz entsprechend vergrößert. Im allgemeinen soll zur Stützung der vollen Bandbreite der Speicher-Durchsatz gleich dem Zweifachen der Port-Geschwindigkeit multipliziert mit der Anzahl von Ports sein. Dies gilt jedoch nicht für alle anderen Zugriffe, die an dem gleichen zeitanteiligen Speicher durchgeführt werden, wodurch der Speicherdurchsatz sogar noch höher werden muss, um eine Latenz zu minimieren und um eine hohe Bandbreite durch das System zu erzielen. Wenn mehr Ports hinzugefügt werden und die Geschwindigkeit eines jeden Ports vergrößert wird, wird ferner die Latenz proportional vergrößert. Die Vergrößerung des Durchsatzes des zeitanteiligen Speichersystems wird deshalb ein sehr schwieriges Problem.
  • Wie nachstehend gezeigt wird, verbieten die meisten konventionellen Netzwerksystem-Operationen zwangsweise die Erzielung einer Null- oder Nahe-Null-Latenz. Gemäß der Erfindung kann andererseits über die Verwendung von neuartigen Doppelpfad-Datenverarbeitungs- und Management von Paket/Zellen-Architektur eine optimal minimierte Latenz erzielt werden.
  • Aufgabe der Erfindung
  • Aufgabe der Erfindung ist, eine neuartige System-Architektur für ein Verfahren zur Doppelpfad-Datenverarbeitung und Management von Datenpaketen und/oder Zellen und dergl. vorzuschlagen, die die Latenz entscheidend reduziert.
  • Eine weitere Aufgabe der Erfindung besteht darin, dieses neue Resultat zur Minimierung der Latenz ohne konkurrierenden Betrieb mit anderen Resourcen zu erreichen, während die Steuerinformationen eines jeden Paketes/einer jeden Zelle verarbeitet werden.
  • Andere und weitere Ziele der Erfindung werden nachstehend erläutert und ergeben sich insbesondere in Verbindung mit den Patentansprüchen.
  • Beschreibung der Erfindung
  • Nach einem Aspekt der Erfindung wird ein Verfahren vorgeschlagen, mit dem ein Speicher- und Bus-Zugriffs-Konkurrenzbetrieb und eine sich daraus ergebende System-Latenz in einer CPU oder ähnlichen Daten-Steuerungssystemen nach Anspruch 1 erzielt wird.
  • Nach einem weiteren Aspekt der Erfindung wird eine Einrichtung vorgeschlagen, mit der ein Speicher- und Bus-Zugriffs-Konkurrenzbetrieb reduziert wird und eine daraus resultierende System-Latenz in der CPU oder ähnlichen Datensteuerungs-Systemen nach Anspruch 11 erhalten wird.
  • Nachstehend wird die Erfindung in Verbindung mit den Zeichnungen erläutert, die zeigen:
  • 1 ein Blockschaltbild einer beispielsweisen Paket-/Zellen-Struktur bekannter Art und derzeitigen Netzwerksystemen;
  • 2 ein ähnliches Blockschaltbild eines beispielhaften typischen bekannten Netzwerksystems;
  • 3 ein Schaltbild, das zeigt, wie ein Konkurrenzbetrieb zum Auftreten einer Latenz führt;
  • 4 ein typisches bekanntes zeitanteiliges Speichersystem mit vielen I/O-Ports;
  • 5 ein modifiziertes, zeitanteiliges Speichersystem mit einem "Kopfzeilen"-Cache-Speicher;
  • 6 ein ähnliches Schaltbild eines typischen verteilten Speichersystems bei bekannten und derzeitigen Netzwerkanordnungen;
  • 7 ein typisches Kreuzschienensystem zur Verwendung in Netzwerken;
  • 8 ein Schaltbild einer bevorzugten Doppelpfad-Datenverarbeitungs- und – Management-Architektur für Pakete/Zellen gemäß der Erfindung, und
  • 9 ein Schaltbild, das zeigt, wie die Latenz gemäß der Erfindung reduziert wird.
  • Latenz-Beschränkungen bei bekannten und derzeitigen Netzwerk-Systemen
  • Wie vorstehend erwähnt, sind in einer typischen Paket-/Zellen-Konfiguration zur Verwendung bei Netzwerksystemen die Steuerinformationen am Beginn des Paketes oder der Zelle positioniert, wie schematisch in 1 gezeigt. Die Schaltungs-Entscheidung für Zellen ist dort auf die VCI/VPI-Informationen basierend dargestellt, die dazu dienen, die Zelle auf eine Ausgangs-Interface innerhalb des Systems abzubilden, wie vorher bereits beschrieben. Die Routen-Entscheidung für ein Paket basiert auf der Bestimmungsadresse, die verwendet wird, um das Paket auf eine Ausgangs-Interface abzubilden.
  • Bei dem traditionellen System nach 2 kommuniziert eine CPU über einen gemeinsamen Bus mit Speicherzugriff mit einer Vielzahl von Daten aufnehmenden und abführenden I/O-Ports #1, #2, etc., wobei die verschiedenen gepunkteten und gestrichelten Linien die kommunizierenden Pfade und den zeitanteiligen Speicher zeigen, wie dies bekannt ist. Wie bereits ausgeführt, ergeben die verschiedenen Zugriffe des zeitanteiligen Speichers einen erheblichen Konkurrenzbetrieb, der die Latenz vergrößert, was bei dieser Art von Architektur bereits entscheidend ist, weil die Verarbeitung der Steuerinformationen solange nicht beginnen kann, bis das vollständige Paket/die vollständige Zelle aufgenommen ist.
  • Wie 3 zeigt, gilt, dass der Konkurrenzbetrieb in dem Maße erhöht wird, wie die Zugriffe zu den zeitanteiligen Speicher vergrößert werden; wird der Konkurrenzbetrieb erhöht, ergibt dies eine Erhöhung der Latenz des Systems. In 3 (in der die Zugriffszeit pro Lese- oder Schreib-Vorgang zum Speicher gleich M ist und die Anzahl von Bits für einen Speicherzugriff W ist) werden die folgenden Funktionen gezeigt:
    • A. Einschreiben von Daten aus dem Empfangs-Port #1 in den zeitanteiligen Speicher. Die Zeitdauer zur Übertragung eines Paketes oder einer Zelle ist gleich ((B*8)/W)*M, wobei B gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wird das Paket größer, wächst die Zeitdauer an, in der dieses Paket in den Speicher eingeschrieben wird.
    • B. Einschreiben von Daten von dem Empfangs-Port #2 in den zeitanteiligen Speicher. Die Zeitdauer zur Übertragung eines Paketes oder einer Zelle beträgt ((B*8)/W)*M, wobei B gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wenn das Paket größer wird, wächst auch die Zeitdauer, um das Paket in den Speicher einzuschreiben.
    • C. Lesen der Steuerinformationen aus dem Paket/der Zelle, die gerade in den zeitanteiligen Speicher eingeschrieben worden sind, aus dem Port #1. Die Zeitdauer, die hierfür benötigt wird, hängt von der Menge an Steuerinformationen ab, die ausgelesen werden sollen. Diese beträgt etwa 24 bis 28 Bytes für Pakete und 5 Bytes für Zellen. Die Anzahl von auszulesenden Bytes ist gleich N; deshalb beträgt die Auslesezeit ((N*8)/W)*M. Da andere Schnittstellen im Konkurrenzbetrieb für den gleichen zeitanteiligen Speicher stehen, ergibt sich, dass dieser Zugriff längere Zeit in Anspruch nimmt, weil der Port #2 gerade Daten in den Speicher einschreibt. Dies erhöht die Latenz des Paketes/der Zelle, die gerade aufgenommen worden ist.
    • D. Einschreiben einer Pufferadresse eines Pakets/einer Zelle, die gerade von dem Port #1 aufgenommen worden ist, in eine entsprechende Schleife. Diese hat typischerweise 8 bis 12 Bytes. Die Zeitdauer zum Fortschalten der Schleife ist ((P*8)/W)*M, wobei P die Länge der Schleifeninformation ist, die in die entsprechende Schleife eingeschrieben werden soll. Da andere Schnittstellen einen Konkurrenzbetrieb für den gleichen zeitanteiligen Speicher ergeben können, nimmt dieser Zugriff längere Zeit in Anspruch, wobei wiederum die Latenz des Paketes/der Zelle, die gerade an dem Port #1 aufgenommen worden ist, vergrößert wird.
    • E. Dies bedeutet das Auslesen der unterschiedlichen Schleifen, um zu bestimmen, welche Schleifen Daten besitzen, die zur Übertragung zur Verfügung stehen. Dies würde das Auslesen von Mehrfach-Schleifen bedeuten, bis die Puffer-Adresse des Paketes/der Zelle aus dem Port #1 bereit ist, übertragen zu werden. Jeder Schleifen-Eingang, der ausgelesen wird, hat typischerweise 8 bis 12 Bytes. Die Zeitdauer bis zum Fortschalten der Schleife ist (Q + 1)(((P*8)/W)*M), wobei Q die Anzahl von Schleifen ist, die ausgelesen werden, bevor das Paket vollständig ausgeschleift ist. Da andere Schnittstellen für den gleichen zeitanteiligen Speicher miteinander konkurrieren können, nimmt dieser Zugriff länger in Anspruch, wobei wiederum die Latenz des Pakets/der Zelle, das bzw. die gerade am Port #1 aufgenommen wurde, vergrößert wird.
    • F. Auslesen von Daten aus dem zeitanteiligen Speicher zur Aufnahme eines Ports #2. Die Zeitdauer zur Übertragung eines Pakets oder einer Zelle beträgt ((B*8)/W)*M, wobei B gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wird das Paket größer, nimmt auch die Zeitdauer zu, um das Paket aus dem Speicher auszulesen.
  • Ziel eines solchen Systems ist natürlich, eine Null-Latenz (oder eine Latenz nahe bei Null) zu erreichen. Würde eine Null-Latenz erzielt werden, würde dies zur Folge haben, dass keine Zeit zwischen dem Einschreiben eines Paketes/einer Zelle in den Speicher aus der Eintritts-Schnittstelle und aus dem Auslesen des Speichers für die Ausgangs-Schnittstelle verstreicht. Tatsächlich könnte sich eine Laufbedingung ergeben, wenn die Austritts-Schnittstelle bestimmt werden könnte und die Puffer-Adresse, die vor dem Paket/der Zelle ausgeschleift wurde, vollständig in den Speicher eingeschrieben wäre. Die Laufbedingung würde dazu führen, dass begonnen wird, die Daten auszulesen, bevor sie vollständig in den Speicher eingeschrieben wären, wodurch unrichtige Daten übertragen würden. Bei dem zeitanteiligen Speichersystem ist es, wie vorstehend erläutert, nicht möglich, eine Null-Latenz zu erzielen, da die Verarbeitung der Steuerinformation und die Schleifenbildung nicht beginnen können, solange das Paket/die Zelle vollständig in den Speicher eingeschrieben ist.
  • Heutige typische Systeme versuchen, die Latenz in dem System dadurch zu verkleinern, dass ein höherer Durchsatz des Systems erzielt wird, der Zuwachs-Erhöhungen bei abnehmender Latenz ergibt. Die Erzielung eines höheren Durchsatzes innerhalb des Systems kann jedoch nur auf Kosten des Preises und der Komplexität erzielt werden. Die untere Grenzlinie ist die, wenn Datengeschwindigkeiten und Dichte von I/O-Ports vergrößert werden, wobei die Latenzen dieses Systems sich im Maßstab nicht vergrößern, und sie werden tatsächlich vergrößert.
  • Der Typ von Netzwerkbetrieb nach 4
  • Typische Netzwerk-Einrichtungen, z. B. Schalter, Wegverfolger, Brücken, Naben, Routenschalter, Schalt-Wegverfolger usw. verbinden Mehrfach-Netzwerke miteinander, z. B. ATM, Token Ring, FDDI, Ethernet, Sonet, usw., wie in 4 gezeigt. Das Miteinanderverbinden dieser Netzwerke macht erforderlich, dass die CPU oder der Weitergabe-Antrieb (FE) auf jedes Paket oder jede Zelle schaut, das bzw. die das System aufnimmt und festlegt, aus welchem Port das Paket/die Zelle übertragen werden soll. Wie bereits erwähnt, muss die CPU/FE den Beginn eines jeden Paketes /einer jeden Zelle zugreifen, um zu bestimmen, um welchen Datentyp es sich handelt und wo er sein Ziel hat. Wenn die Datengeschwindigkeiten und I/O-Ports zunehmen, nimmt der konkurrierende Betrieb für die gleiche Speicher-Resource zu, wodurch die Latenz des Systems vergrößert wird, wie vorstehend erläutert. Die einzige Möglichkeit, um die Latenz zu reduzieren, besteht darin, die Speicher-Zugriffsdauer zu verringern, dies führt jedoch zu höheren Kosten und einer größeren Komplexität. Für zeitanteilige Speichersysteme muss die Leistung des Speichersystems mindestens größer sein als das Zweifache der Bandbreite aller Ports. Wenn beispielsweise ein System N Ports hat und jeder Port eine Datengeschwindigkeit von V besitzt, muss die gesamte Bandbreite des Speichersystems größer sein als 2 NV. Sie muss größer sein als 2 NV, weil das Speichersystem auch Nachschlagungen und Modifikationen der Steuerinformationen wie auch mögliches Schleifen-Management, Routen-Tabellen-Nachschlagungen usw. unterstützen muss. Da das Speichersystem größer als 2 NV sein muss, wird dadurch die Skalierfähigkeit in der Leistung gesperrt, die zu einer Begrenzung der Skalierbarkeit bei der Reduzierung der Latenz ergibt.
  • Wenn eine Service-Qualität (QOS) geboten wird, die die Aufrechterhaltung einer Anzahl von Schleifen per Port erforderlich macht, führt diese Architektur zu einer erhöhten Latenz aufgrund der vergrößerten Konkurrenz für den Zugriff zu den Schleifen. Dies macht dann natürlich einen höheren Speicherdurchsatz erforderlich, was zusätzlich zu erhöhten Kosten und erhöhter Komplexität führt.
  • Wenn Multirast-Unterstützung vorliegt, erhöht dies ganz entscheidend die Anzahl von Zugriffen zu dem zeitanteiligen Speicher, wobei die Konkurrenz und die Latenz wesentlich erhöht werden und erforderlich wird, dass das Speichersystem mit einem noch höheren Durchsatz ausgelegt wird.
  • Bei dieser Art von System ist es auch möglich, Null-Latenz zu erreichen, da die Verarbeitung der Steuerinformation und die Schleifenbildung solange nicht beginnen kann, bis das Paket/die Zelle vollständig in den Speicher eingeschrieben ist.
  • Der Typ von Netzwerkbetrieb nach 5
  • Die Anordnung nach 5 ist ähnlich der nach 4, es ist jedoch vor der CPU/FE ein Header-Cache-Speicher eingesetzt. Wenn Pakete/Zellen an jeder Schnittstelle übertragen/empfangen werden, werden sie in die zeitanteilige Speicherstruktur gelesen/geschrieben, jetzt aber werden die ersten 64 Bytes des Paketes innerhalb des Header/Cache-Speichers "gespiegelt". Da die ersten 64 Bytes in den Header-Cache-Speicher kopiert werden und eine Zelle 53 Bytes umfasst, ist eine solche Architektur nur für ein System auf Paket-Basis anwendbar. Wenn die CPU/FE die Steuerinformation des Pakets zugreift, findet sie die Daten aus dem Header-Cache-Speicher wieder und nicht aus dem zeitanteiligen Speicher. Dadurch wird das Konkurrenzverhalten zu dem zeitanteiligen Speicher reduziert, jedoch nur für Zugriffe zu der Steuerinformation. Diese Architektur ergibt somit eine stufenweise Verbesserung gegenüber dem vorausgehenden Architektur-Beispiel nach 4.
  • Wie bei der vorausgehend beschriebenen Architektur ist es jedoch immer noch erforderlich, dass das Speichersystem um das Doppelte größer ist als der Durchsatz für jeden Port. Es handelt sich immer noch um einen sequentiellen Satz von Zugriffen von Schreibdaten in den zeitanteiligen Speicher, die Verarbeitung der Steuerinformation, das Einrichten und Aufrechterhalten der Schleifen für jeden Port und das Auslesen der Daten aus dem zeitanteiligen Speicher. Wenn Ports und Datengeschwindigkeiten erhöht werden, muss der Speicherdurchsatz immer noch entsprechend maßstäblich verändert werden, damit die gleiche Latenz erzielt wird. Dies kann nur dadurch geschehen, dass die Kosten und die Komplexität erhöht werden, wodurch ein Punkt erreicht wird, zu dem die Kosten für eine Realisierung zu hoch werden.
  • Wenn ein QOS vorgesehen wird, was die Aufrechterhaltung einer Anzahl von Schleifen pro Port erforderlich macht, ergibt diese Architektur eine erhöhte Latenz aufgrund einer zunehmenden Konkurrenz für den Zugriff zu den Schleifen – dies macht wiederum einen höheren Speicherdurchsatz erforderlich, was die Kosten und die Komplexität erhöht.
  • Wenn eine Multicast-Stützung vorgesehen wird, erhöht dies ebenfalls die Anzahl von Zugriffen zu dem zeitanteiligen Speicher, vergrößert die Konkurrenz und die Latenz entscheidend und macht es erforderlich, dass das Speichersystem mit einem noch höheren Durchsatz ausgelegt wird.
  • Bei diesem System ist es auch nicht möglich, eine Null-Latenz zu erzielen, da die Verarbeitung der Steuerinformationen und die Schleifenbildung solange nicht beginnen können, bis das Paket/die Zelle vollständig in den Speicher eingeschrieben ist.
  • Der Typ des Netzwerkbetriebes 6
  • Dieses System arbeitet ähnlich dem System nach 4. In diesem System nach 6 werden die Pakete/Zellen nach ihrer Aufnahme im Speicher auf jedem f/O-Modul wie auch in dem CPU/FE-Speicher gespeichert. Sobald die Daten in dem Speicher aufgenommen worden sind, der durch die CPU/FE zugänglich ist, liest er die Steuerinformationen aus, um den Port festzulegen, für den die Daten bestimmt sind. Ist dies festgestellt, schreibt er an jedes I/O-Modul, um anzugeben, ob die Daten fallen gelassen oder aufrecht erhalten werden sollen. Während diese Architektur einige Konkurrenz für Zugriffe zu dem CPU/FE-Speicher abschwächt, wodurch ein Teil der Latenz vermindert wird, erzeugt sie andererseits eine hohe Konkurrenz in dem Hauptsystem-Bus, da jedes I/O-Modul Daten für das andere I/O-Modul übertragen muss, gleichgültig, ob sie benötigt werden oder nicht. Da Ports und Datengeschwindigkeiten erhöht werden, muss der Speicherdurchsatz des CPU/FE-Moduls größer sein als die Geschwindigkeit aller Ports in dem System. Während dies die Kosten und die Komplexität des Speichersystems im Vergleich zu den vorausgehenden beiden Beispielen nach den 4 und 5 reduziert, ist ein komplizierterer und kostspieliger "Modul"-Verbindungs-Bus und Speicher an jedem I/O-Modul erforderlich, der die Kosten und die Komplexität des Gesamtsystems vergrößert. Ein anderer Faktor, der die Kosten und die Komplexität erhöht, ist darin zu sehen, dass jedes I/O-Modul ausreichenden Speicherraum haben muss, damit es in der Lage ist, Daten von jedem anderen I/O-Modul aufzunehmen. Typischerweise braucht der Speicher-Durchsatz am I/O-Modul nur die doppelte Datengeschwindigkeit seines (seiner) Ports zu unterstützen, wie vorstehend erwähnt, und das Management seiner Schleifen. Bei dieser Architektur muss die Datengeschwindigkeit der Ports und das Management der Schleifen doppelt unterstützt werden und zusätzlich die Datengeschwindigkeit aller anderen Ports innerhalb des Systems und das Managen von zusätzlichen Aufnahmeschleifen für diese Daten. Wenn die Ports und Datengeschwindigkeiten vergrößert werden, muss der Durchsatz des Speichersystems bei jedem I/O-Modul und CPU/FE-Modul entsprechend vergrößert werden, wodurch die Skalabilität dieser Art von Architektur begrenzt wird.
  • Wenn eine QOS vorgesehen wird, die erforderlich macht, dass eine Anzahl von Schleifen per Port aufrecht erhalten werden, führt diese Architektur auch zu einer erhöhten Latenz aufgrund der vergrößerten Konkurrenz im Zugang zu den Schleifen.
  • Wenn eine Multicast-Unterstützung vorgesehen ist, ist diese Architektur besser als die vorausgehenden Ausführungsbeispiele insoferne, als das gleiche Paket auf jedes I/O-Modul gleichzeitig übertragen werden kann; da das gesamte Paket jedoch nicht in einem Zugriff übertragen werden kann, wird die Latenz entsprechend erhöht.
  • Während die Architektur eine stufenweise Reduzierung der Latenz ergibt, geht dies auf Kosten eines höheren Speicherdurchsatzes und zusätzlicher Kosten und Komplexität für jeden I/O-Modul.
  • Bei diesem System ist es ebenfalls nicht möglich, eine Null-Latenz zu erzielen, da die Verarbeitung der Steuerinformationen und die Schleifenbildung nicht beginnen können, bis das Paket/die Zelle vollständig in den Speicher eingeschrieben ist.
  • Der Typ von Netzwerkbetrieb 7
  • Wenn eine Kreuzschiene verwendet wird, wie in 7 dargestellt, werden die Zellen typischerweise am Eingang verarbeitet und es wird ihnen eine neue interne Kopfzeile gegeben, die der Zelle ermöglicht, dass sie innerhalb der Kreuzschiene effizient geschaltet werden kann. Die Kreuzschiene benutzt die interne Kopfzeile, um zu bestimmen, mit welchem Ausgangs-Port die Zelle geschaltet werden soll. Für Vielfach-Zellen, die für den gleichen Ausgang bestimmt sind, kann eine zusätzliche Pufferung entweder am Ausgang, innerhalb der Kreuzschiene oder am Eingang erforderlich werden. Die meisten Kreuzschienen-Architekturen werden nur in Verbindung mit Zellen verwendet, aufgrund der Tatsäche, dass sie typischerweise Blockierprobleme aufgrund der verschiedenen Faktoren haben, die Mehrfach-Eingangs-Ports umfassen, welche für einen einzelnen Ausgangsport und für Multicast bestimmt sind. Wenn Pakete verwendet werden, die in der Größe von 64 Bytes bis 64000 Bytes variieren, können diese Blockiereinrichtungen größere Probleme verursachen und generell die Architektur unbrauchbar machen.
  • Das anfängliche Nachschlagen am Eingangs-Port führt zu den Konkurrenzproblemen, die in Verbindung mit 4 erörtert worden sind, und muss darauf warten, dass die gesamte Zelle aufgenommen wird, bevor der Nachschlagevorgang ausgeführt wird, wobei wiederum die Latenz des Systems vergrößert wird. Wenn die Zelle in den Schalter eingebracht wird, hängt die Latenz von der Art von Querschiene ab, die implementiert ist; im allgemeinen jedoch besteht sie aus dem Durchqueren vieler Sprünge in einer Querschiene auf Silikonbasis oder einer Konkurrenz mit zeitanteiligem Speicher in einer Querschiene auf Speicherbasis. Eine zusätzliche Latenz kann auftreten, wenn ein internes Blockieren innerhalb der Kreuzschiene auftritt.
  • Wenn eine QOS vorgesehen wird, sind Schleifen typischerweise entweder an dem Eingangs- oder dem Ausgangs-Port vorgesehen. Da die Schleifen nicht für jeden Port erforderlich sind, kann die konkurrierende Anforderung und die Anzahl von Schleifen zur Aufrechterhaltung reduziert werden, was ebenfalls die Latenz reduziert.
  • Wenn eine Multicast-Unterstützung vorgesehen wird, werden Zellen in typischer Weise innerhalb der Kreuzschiene dupliziert, was zu Blockier-Situationen (und zu einer erhöhten Latenz) innerhalb oder am Ausgangs-Port und auch zu einem Gegendruck auf den Eingangs-Port führen kann, was dazu führt, dass der Eingangs-Port die Bereitstellung von zusätzlichem Pufferraum erforderlich macht. Wenn Ports und Datengeschwindigkeiten zunehmen, wird diese Architektur keine maßstäbliche Veränderung vornehmen, weil der Multicast-Betrieb das Blockierproblem erhöht und die Kosten und die Komplexität des Systems noch weiter vergrößert.
  • Bei diesem System ist es nicht möglich, eine Null-Latenz zu erzielen, da die Verarbeitung der Steuerinformationen und die Schleifenbildung erst dann beginnen können, wenn das Paket/die Zelle vollständig in den Speicher eingeschrieben ist.
  • Bevorzugte Ausführungsformen) der Erfindung
  • Vorliegende Erfindung ist beispielsweise in 8 dargestellt und unterscheidet sich von allen vorbekannten Systemen, optimiert das Netzwerksystem auf minimale Latenz und kann eine Null-Latenz erreichen, selbst wenn Datengeschwindigkeiten und Port-Dichten erhöht werden. Sie erreicht dies ferner in gleicher Qualität für alle 53 Byte-Zellen oder 64 Byte- bis 64K Byte-Pakete. Die wird dadurch erreicht, dass die Steuerinformationen aus dem Paket/der Zelle extrahiert werden, wenn sie in den Speicher eingeschrieben werden und dadurch, dass die Steuerinformationen an eine Weitergabe-Einrichtung FE gegeben werden, die Schalt-, Routen- und/oder Filterungs-Entscheidungen vornimmt, wenn die Daten in den Speicher eingeschrieben werden.
  • Nachdem die Weitergabe-Einrichtung FE ihre Aufgaben abgeschlossen hat, werden die Resultate in einen Schleifen-Manager QM gegeben, damit diese Resultate in die Warteschlange eingeschleift und aus der Warteschlange ausgeschleift werden. All dies geschieht gemäß der Erfindung, bevor das Paket/die Zelle vollständig in den Speicher eingeschrieben wird, wodurch das Lesen der Daten unmittelbar nachdem das Paket/ die Zelle vollständig in den Speicher eingeschrieben ist, beginnen kann. Tatsächlich ist es möglich, das Auslesen des Paketes zu beginnen, bevor es vollständig in den Speicher eingeschrieben ist, was bisher nicht möglich war, wenn aus dem Speicher ausgelesen wird, da unrichtige Daten aus dem Speicher gelesen würden. Eine Synchronisierung S zwischen dem Eingangs- und dem Ausgangs-Port ist erforderlich, um sicher zu stellen, dass das Lesen des Paketes/der Zelle nicht zu früh beginnt, wie in 8 dargestellt, was erreicht wird, wenn die Weitergabe-Einrichtung FE detektiert, dass die letzten Daten im Speicher vorhanden sind und dann Schleifen-Adressen-Informationen an den Schleifen-Manager QM in bezug auf den beabsichtigten Ausgangs-Port führt. Dies ist ein wichtiges Unterscheidungsmerkmal zwischen vorliegender Erfindung und allen anderen Netzwerk-Architekturen. Bei manchen Architekturen existiert diese Wettlaufbedingung nicht und deshalb ist es, wie früher ausgeführt, nicht möglich, eine Null-Latenz mit ihnen zu erzielen.
  • Um die Wettlauf-Bedingung zu verhindern, wird eine Synchronisierung S zwischen den Eingangs- und den Ausgangs-Ports am Ausgang der Weitergabe-Einrichtung vorgenommen; die Weitergabe-Einrichting hält die Resultate an ihrem Ausgang, bis das Paket/die Zelle vollständig in den Speicher eingeschrieben ist, und dann kann die Weitergabe-Einrichtung die Resultate an den Schleifen-Manager führen, wie dies durch die strichpunktierte Flusslinie angedeutet ist.
  • Ein getrennter oder Doppelpfad wird in vorliegender Erfindung für die Steuerinformationen verwendet, wodurch es möglich ist, dass jedes I/O-Modul (#1– #n) Daten nur für seine Ports verarbeitet, gleichtgültig, ob es sich um Übertragungs- oder Empfangs-Daten handelt, wodurch eine weniger komplexe Logik erforderlich wird, die einfacher und billiger als vorhandene Systeme implementierbar ist. Wie bereits erwähnt, machen die meisten Systeme die Speicher-Architekturen erforderlich, die verwendet werden, um die Steuerinformationen zu speichern, damit innerhalb des Systems wesentlich mehr als das Doppelte der Datengeschwindigkeit eines jeden Ports gestützt werden kann. Andererseits reduziert vorliegende Erfindung diese Forderung nach Datengeschwindigkeit eines jeden Ports aus dem I/O-Modul, eine entscheidende Reduzierung. Dadurch wird auch das System in die Lage versetzt, eine Zunahme in den Ports und der Datengeschwindigkeit zu erzielen, ohne dass kostspielige und komplizierte Lösungen erforderlich sind.
  • Bei den meisten anderen Architekturen werden der FE und Schleifen-Manager benötigt, wie bereits ausgeführt, um den gleichen Speicher zuzugreifen, der zum Speichern des Pakets oder der Zelle vorwendet wird, was zu einer zunehmenden Latenz führt, da der FE und Schleifen-Manager mit jedem Port für Speicher-Zugriffe konkurrieren muss. Mit vorliegender Erfindung jedoch hat der FE und der Schleifen-Manager einen getrennten Pfad P zur Verfügung, um die Steuerinformationen zu verarbeiten, wodurch diese beiden Einheiten in die Lage versetzt werden, mit maximaler Leistung und ohne Interferenz aus den Paket/Zellen-Übertragungen in den und von dem Speicher zu arbeiten. Dies muss tatsächlich eintreten, damit eine Null-Latenz erzielt wird.
  • Wie der 9 entnommen werden kann, kann die Latenz des Systems nach der Erfindung auf Null reduziert werden, wenn die Verarbeitung der Steuerinformationen und die Schleifenbildung unabhängig von dem Einschreiben der Daten in den Speicher vorgenommen wird. In 9 (bei der die Zugriffszeit pro Lese- oder Schreibvorgang in den Speicher gleich M ist und die Anzahl von Bits für einen Speicherzugriff W beträgt) tritt Folgendes bei der Doppelpfad-Verarbeitung entsprechend der in 8 dargestellten Anordnung nach der Erfindung ein, wie auch insbesondere im Gegensatz zu den A-E-Operationen der 3, auf die weiter oben eingegangen ist:
    • A. Einschreiben von Daten aus dem Empfangs-Port #1 in den Speicher. Die Zeitdauer zur Übertragung eines Pakets oder einer Zelle ist gleich ((B*8)/W)*M, wobei B gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wird das Paket größer, vergrößert sich gleichzeitig auch die Zeitdauer zum Einschreiben in den Speicher.
    • B. Einschreiben von Daten aus dem Empfangs-Port #2 in den Speicher. Die Zeit zur Übertragung eines Pakets oder einer Zelle ist gleich ((C*8)/W)*M, wobei C gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wenn das Paket größer wird, gilt dies in gleicher Weise auch für die Zeitdauer zum Einschreiben in den Speicher.
    • C. Die Steuerinformationen werden aus dem Paket oder der Zelle extrahiert, wenn sie in den Speicher eingeschrieben werden. Die Verarbeitung der Steuerinformation beginnt unmittelbar. Die Resultate aus der Verarbeitung werden an den Schleifen-Manager gegeben. Da die Steuerinformationen aus der Kopfzeile des Pakets/der Zelle extrahiert werden, wird nur die gewünschte Information extrahiert. Dies ist typischerweise 4 bis 10 Bytes für jedes Paket oder jede Zelle. Die Zeitdauer, die benötigt wird, um die Steuerinformation zu extrahieren, hängt von der Speicher-Zugriffszeit und der Breite ab. Die Zeit zum Extrahieren der Steuerinformationen ist ((Y*8)/W)*M, wobei Y die Anzahl von Bytes ist, die die Steuerinformationen innerhalb der Kopfzeile (typischerweise 4 bis 24 Bytes) überspannt. Da die Weitergabe-Einrichtung nicht mit anderen Vorrichtungen konkurrieren muss, treten keine Verzögerungen beim Beginn der Verarbeitung der Steuerinformationen ein. Dies führt dazu, dass die Latenz des gerade empfangenen Pakets/Zelle nicht beaufschlagt wird.
    • D. Die gerade aufgenommene Pufferadresse von Paket/Zelle aus Port #1 wird Ausgangs-I/O-Modul zugeführt. Am I/dem entsprechenden O-Modul gibt der Schleifen-Manager die Pufferadresse an die entsprechende Schleife und extrahiert sie, wenn sie an der Top-Seite der Schleife auftritt. Die Weitergabe-Resultate sind typischerweise 4 bis 10 Bytes. Die Zeitdauer, die erforderlich ist, um die Resultate dem Schleifen-Manager zuzuführen, ist ((Z*8)/R)*S, wobei Z die Länge der Weitergabe-Resultate ist. R ist die Breite des Bus, der verwendet wird, um die Resultate aus der FE an den Schleifen-Manager zu senden, und S ist die Taktgeschwindigkeit des gleichen Bus. Wie zu entnehmen ist, beeinflusst die Übertragung von Paketen/Zellen in den/aus dem Speicher nicht den Durchgang der Weitergabe-Resultate nachteilig. Dies hat keinen Einfluss auf die Latenz des gerade empfangenen Pakets/der Zelle.
    • E. Die unterschiedlichen Schleifen werden gelesen, um zu bestimmen, welche Schleifen Daten aufweisen, die für die Übertragung verfügbar sind. Dieser Vorgang besteht aus dem Lesen mehrfacher Schleifen, bis die Pufferadresse des Pakets/der Zelle aus dem Port #1 zur Übertragung bereit ist. Jedes Auslesen des Schleifeneingangs beträgt typischerweise 8 bis 12 Bytes. Die Zeitdauer, um die Schleife fortzuschalten, beträgt (F + 1)(((P*8)/R)*S), wobei F die Anzahl von Schleifen ist, die ausgelesen werden, bevor das Paket endgültig ausgeschleift ist. Die Schleifen werden erteilt und die Anzahl von zu lesenden Schleifen wird auf die Anzahl von Schleifen reduziert, um das bestimmte I/O-Modul (und nicht das gesamte System) zu stützen. Dadurch wird die Zeitdauer, die für eine Abtastung der unterschiedlichen Schleifen erforderlich ist, reduziert, so dass dies das Erzielen einer Null-Latenz unterstützt. Wie entnommen werden kann, beeinflusst die Übertragung von Paketen/Zellen in den/aus dem Speicher das Entschleifen der Pufferadresse nicht nachteilig. Dies führt dazu, dass die Latenz des gerade aufgenommenen Pakets/der Zelle nicht beeinflusst wird.
    • F. Lesen von Daten aus dem Speicher zur Aufnahme des Ports #2. Die Zeitdauer zur Übertragung eines Pakets oder einer Zelle ist gleich ((B*8)/W)*M, wobei B gleich der Anzahl von Bytes für das Paket oder die Zelle ist. Wenn das Paket größer ist, wird die Zeitdauer zum Auslesen aus dem Speicher vergrößert.
  • Wenn eine QOS vorgesehen wird, was, wie weiter oben ausgeführt, die Aufrechterhaltung einer Menge von Schleifen pro Port erforderlich macht, ermöglicht diese Architektur dem Schleifen-Manager, dass er in N unabhängige Teil-Schleifen-Manager aufgeteilt wird, wobei jeder Teil-Schleifen-Manager für die Verarbeitung der Schleifen seines zugeordneten I/O-Moduls zuständig ist. Dies ermöglicht eine einfachere und billigere Implementation, die maßstabsgetreu umgesetzt werden kann, wenn die Ports und die Datengeschwindigkeit des Systems erhöht werden, wobei das System eine Null-Latenz erzielen kann.
  • Wenn eine Multicast-Unterstützung vorgesehen wird, ergibt diese Architektur nach der Erfindung die optimale Lösung insoferne, als die minimale Menge an Informationen passieren kann, um Weitergabe- und Schleifen-Entscheidungen vorzunehmen, so dass einfache und billige Implementationen verwendet werden können. Da der Schleifen-Manager aus Teil-Schleifen-Managern besteht, können die Multicast-Informationen an jeden Teil-Schleifen-Manager gleichzeitig weitergegeben werden, wodurch ein Konkurrenzbetrieb eliminiert und eine Null-Latenz erreicht wird.
  • Vorliegende Erfindung ergibt somit eine optimale Lösung; um die Latenz so gering wie möglich zu halten und ferner eine Lösung, die maßstabsgetreu mit einer Erhöhung von Ports und Datengeschwindigkeiten Hand in Hand geht, während nur einfache und preiswerte Implementationen erforderlich sind.
  • Das mit der Erfindung erreichbare Endresultat besteht darin, dass die Weitergabe-Einrichtung nicht mit anderen Resourcen zu konkurrieren braucht, während die Steuerinformationen eines jeden Pakets/einer jeden Zelle verarbeitet werden: Da diese Einrichtung nur die Daten innerhalb des eigenen I/O-Moduls verarbeiten muss, kann sie einfacher und weniger komplex ausgeführt werden. Der Schleifen-Manager braucht ebenfalls nicht mit anderen Resourcen zu konkurrieren, während die Aufnahme- und Übertragungs-Schleifen eines jeden Pakets/einer jeden Zelle verarbeitet werden; da er nur die Daten innerhalb des eigenen I/O-Moduls zu verarbeiten hat, kann er ebenfalls einfacher und weniger komplex ausgelegt sein.
  • Des weiteren besteht kein Konkurrenzbetrieb nach der Erfindung zwischen den Daten und den Steuerinformationen, und Schleifen werden effizient gehandhabt und ergeben ferner eine Multicast-Unterstützung. Das Endergebnis besteht in einer Architektur, die die Latenz dramatisch reduziert. In Verbindung mit der Bandbreiten-Optimierungs-Struktur nach der gleichlaufenden Anmeldung werden Netzwerke mit optimaler Bandbreite und minimaler Latenz erzielt.

Claims (20)

  1. Verfahren zum Reduzieren des konkurrierenden Betriebes für den Speicher- und Bus-Zugriff und der sich daraus im System ergebenden Wartezeit in einer zentralen Verarbeitungseinheit (CPU) oder einer entsprechenden Datensteuereinrichtung, bei der Daten auf einem gemeinsamen Bus kommunizieren, der mit einem gemeinsamen Speicher und mit einer Vielzahl von I/O-Moduln verbunden ist, die ein Paket/Zellen von Daten aufnehmen und in den Speicher einschreiben sowie daraus entfernen, dadurch gekennzeichnet, dass jedes I/O-Modul (#1–#n) mit einer entsprechenden Übermittlungsvorrichtung (FE) und einer Übertragungs-Warteschlangen-Eigenschaft sowie einem getrennten Pfad zum Extrahieren der Steuerinformationen aus dem Paket/der Zelle, die von diesem I/O-Modul aufgenommen werden, ausgestattet wird, die Steuerinformationen an die Übertragungsvorrichtung (FE) gegeben werden, die extrahierten Paket/Zellen-Informationen in die Übertragungsvorrichtung (FE) zur Durchführung von Schalt-Routen- und/oder Filter-Entscheidungen verarbeitet werden, während die Daten in den Speicher eingeschrieben werden, die Resultate der Übertragungsvorrichtung einem Warteschlangen-Manager (QM) zum Einschleifen und Ausschleifen von Aufnahme- und Übertragungs-Warteschlangen eines jeden Pakets/Zelle zugeführt werden und über die entsprechende I/O-Übertragungs-Warteschlangen-Eigenschaft das Kommunizieren mit dem entsprechenden Austritts-I/O-Modul gesteuert wird, auf das die Paket-/Zellen-Daten übertragen werden, und zwar ohne konkurrierenden Betrieb mit einer unabhängigen Übertragung von Paket-/Zellen-Daten in den Speicher und aus dem Speicher.
  2. Verfahren nach Anspruch 1, bei dem die Steuerinformation aus einem Kopfteil des Pakets/Zelle extrahiert wird und die Puffer-Adressen-Information durch den Warteschlangen-Manager (QM) verarbeitet wird.
  3. Verfahren nach Anspruch 2, bei dem die Resultate der Übertragungsvorrichtung an den Wartenschlangen-Manager (QM) gegeben werden, bevor die Paket/Zellen- Daten vollständig in den Speicher eingeschrieben sind, wodurch das Auslesen der Daten unmittelbar beginnen kann, nachdem die Paket-Zellendaten vollständig in den Speicher eingeschrieben sind.
  4. Verfahren nach Anspruch 2, bei dem mit dem Start des Auslesens der Paket/Zellen-Daten begonnen wird, bevor die Daten vollständig in den Speicher eingeschrieben sind.
  5. Verfahren nach Anspruch 4, bei dem die Synchronisierung zwischen dem Dateneintritt und dem Datenaustritt vorgenommen wird, um sicher zu stellen, dass das Auslesen des Pakets/Zelle nicht zu früh beginnt.
  6. Verfahren nach Anspruch 5, bei dem der Vorwärtsantrieb (FE) seine Resultate an den Warteschlangen-Manager (QM) aufgrund der Meldung gibt, dass alle Paket/Zellendaten in den Speicher eingeschrieben sind.
  7. Verfahren nach Anspruch 2, bei dem die Pufferadresse des aufgenommenen Paketss/Zelle an das entsprechende Austritts-IO-Modul geführt worden ist.
  8. Verfahren nach Anspruch 7, bei dem die Warteschlangen verteilt werden, wobei die Anzahl von Warteschlagen, die durch den Warteschlagen-Manager (QM) bereit ist, auf die Anzahl von Wartenschlangen reduziert wird, die erforderlich ist, um das jeweilige I/O-Modul und das Gesamtsystem zu unterstützen.
  9. Verfahren nach Anspruch 7, bei dem Mehrfach-Warteschlagen für jeden I/O-Port aufrecht erhalten werden, und der Warteschlangen-Manager (QM) in eine Vielzahl von unabhängigen Teil-Warteschlagen-Managern unterteilt werden, deren jeder die Warteschlangen des zugeordneten I/O-Moduls verarbeitet.
  10. Verfahren nach Anspruch 9, bei dem Multicast-Informationen jedem Teil-Warteschlangen-Manager gleichzeitig zugeführt werden.
  11. Einrichtung zum Reduzieren des konkurrierenden Betriebes für den Speicher- und Bus-Zugriff und der sich daraus im System ergebenden Wartezeit in einer zentralen Verarbeitungseinheit (CPU) oder einer entsprechenden Datensteuereinrichtung, bei der Daten auf einem gemeinsamen Bus kommunizieren, der mit einem gemeinsamen Speicher und mit einer Vielzahl von I/O-Moduln verbunden ist, die ein Paket/Zellen von Daten aufnehmen und in den Speicher einschreiben sowie daraus entfernen, dadurch gekennzeichnet, dass jede einer Vielzahl von Übertragungsvorrichtungen (FE) und Übertragungs-Warteschlangen-Vorrichtungen in jedem I/O-Modul, zusammen mit einem getrennten Pfad zum Extrahieren von Steuerinformationen aus dem Paket/Zelle vorgesehen ist, die von ihrem I/O-Modul aufgenommen werden und diese Steuerinformationen an die Übertragungsvorrichtung (FE) weitergeben, jede Übertragungsvorrichtung (FE) die extrahierten Steuerinformationen aus dem Paket/Zelle verarbeitet, die durch das entsprechende I/O-Modul aufgenommen werden, um Schalt-, Routen- und/oder Filter-Entscheidungen durchzuführen, während die Daten in den Speicher eingeschrieben werden, eine Vorrichtung die Resultate der Übertragungs-Verarbeitung an einen Warteschlangen-Manager (QM) weiterleitet, um Aufnahme- und Übertragungs-Warteschlangen eines jeden Pakets/Zelle einzuschleifen und auszuschleifen, um über die entsprechende I/O-Modul-Übertragungs-Warteschlangen-Vorrichtung ein Kommunizieren mit dem entsprechenden Austritts-I/O-Modul, auf das die Paket/Zellen-Daten übertragen werden, ohne Konkurrenzbetrieb mit und unabhängig von der Übertragung der Paket/Zellen-Daten in den und aus dem Speicher zu steuern.
  12. Einrichtung nach Anspruch 11, bei der die Steuerinformationen aus einem Kopfteil der Paket/Zellendaten extrahiert werden.
  13. Einrichtung nach Anspruch 12, bei der die Übertragungsvorrichtung (FE) Puffer-Adressen-Informationen an den Warteschlangen-Manager (QM) liefert.
  14. Einrichtung nach Anspruch 13, bei der eine Vorrichtung vorgesehen ist, die die Resultate der Übertragungsvorrichtung (FE) an den Warteschlagen-Manager (QM) leitet, bevor die Paket/Zellen-Daten vollständig in den Speicher eingeschrieben sind, wodurch das Auslesen der Daten beginnen kann, unmittelbar nachdem die Paket/Zellen-Daten vollständig in den Speicher eingeschrieben sind.
  15. Einrichtung nach Anspruch 13, bei der eine Vorrichtung zum Starten des Auslesens der Paket/Zellen-Daten vorgesehen ist, bevor die Daten vollständig in den Speicher eingeschrieben sind.
  16. Einrichtung nach Anspruch 15, bei der eine Vorrichtung zum Synchonisieren von Daten-Eintritten und -Austritten vorgesehen ist, um sicher zu stellen, dass das Auslesen des Pakets/Zelle nicht zu früh beginnt.
  17. Einrichtung nach Anspruch 16, bei der eine Vorrichtung vorgesehen ist, die die Übertragungsvorrichtung (FE) so beaufschlagt, dass die Resultate in den Warteschlangen-Manager (QM) übergeführt werden, sobald feststeht, dass das letzte Bit der Paket/Zellen-Daten in den Speicher eingeschrieben worden ist.
  18. Einrichtung nach Anspruch 13, bei der die Puffer-Adresse des aufgenommenen Pakets/Zelle an das entsprechende Austritts-I/O-Modul geführt worden ist.
  19. Einrichtung nach Anspruch 18, bei der die Warteschlangen verteilt sind, wobei die Anzahl von Warteschlangen, die von dem Warteschlangen-Manager (QM) ausgelesen werden, auf die Zahl von Warteschlangen reduziert worden ist, die erforderlich ist, um das jeweilige I/O-Modul und nicht das gesamte System zu unterstützen.
  20. Einrichtung nach Anspruch 18, bei der die Mehrfach-Warteschlangen (RCU) für jeden I/O-Port aufrecht erhalten werden und der Warteschlangen-Manager (QM) in eine Vielzahl von unabhängigen Teil-Wartenschlangen-Managern unterteilt ist, deren jeder die Warteschlangen des zugeordneten I/O-Moduls verarbeitet.
DE69820084T 1997-07-25 1998-07-21 Netzwerkvorrichtung und Verfahren zur Reduzierung der System-Latenz Expired - Fee Related DE69820084T2 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US900757 1997-07-25
US08/900,757 US5918074A (en) 1997-07-25 1997-07-25 System architecture for and method of dual path data processing and management of packets and/or cells and the like
PCT/IB1998/001117 WO1999005826A1 (en) 1997-07-25 1998-07-21 Networking systems

Publications (2)

Publication Number Publication Date
DE69820084D1 DE69820084D1 (de) 2004-01-08
DE69820084T2 true DE69820084T2 (de) 2004-09-02

Family

ID=25413044

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69820084T Expired - Fee Related DE69820084T2 (de) 1997-07-25 1998-07-21 Netzwerkvorrichtung und Verfahren zur Reduzierung der System-Latenz

Country Status (10)

Country Link
US (1) US5918074A (de)
EP (1) EP1016246B1 (de)
JP (1) JP4334760B2 (de)
CN (1) CN1151639C (de)
AU (1) AU738983B2 (de)
CA (1) CA2297650C (de)
DE (1) DE69820084T2 (de)
HK (1) HK1031058A1 (de)
IL (1) IL134221A (de)
WO (1) WO1999005826A1 (de)

Families Citing this family (122)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6160811A (en) * 1997-09-12 2000-12-12 Gte Internetworking Incorporated Data packet router
US6259699B1 (en) * 1997-12-30 2001-07-10 Nexabit Networks, Llc System architecture for and method of processing packets and/or cells in a common switch
US6138219A (en) * 1998-03-27 2000-10-24 Nexabit Networks Llc Method of and operating architectural enhancement for multi-port internally cached dynamic random access memory (AMPIC DRAM) systems, eliminating external control paths and random memory addressing, while providing zero bus contention for DRAM access
WO2000003516A1 (en) 1998-07-08 2000-01-20 Broadcom Corporation Network switching architecture with multiple table synchronization, and forwarding of both ip and ipx packets
US6430188B1 (en) * 1998-07-08 2002-08-06 Broadcom Corporation Unified table for L2, L3, L4, switching and filtering
US6876653B2 (en) * 1998-07-08 2005-04-05 Broadcom Corporation Fast flexible filter processor based architecture for a network device
US6272567B1 (en) * 1998-11-24 2001-08-07 Nexabit Networks, Inc. System for interposing a multi-port internally cached DRAM in a control path for temporarily storing multicast start of packet data until such can be passed
US6765911B1 (en) * 1999-02-03 2004-07-20 International Business Machines Corporation Communications adapter for implementing communications in a network and providing multiple modes of communications
US6498782B1 (en) 1999-02-03 2002-12-24 International Business Machines Corporation Communications methods and gigabit ethernet communications adapter providing quality of service and receiver connection speed differentiation
US7120117B1 (en) 2000-08-29 2006-10-10 Broadcom Corporation Starvation free flow control in a shared memory switching device
US7366171B2 (en) * 1999-03-17 2008-04-29 Broadcom Corporation Network switch
DE60031515T2 (de) * 1999-03-17 2007-08-23 Broadcom Corp., Irvine Netzwerkvermittlung
US6952401B1 (en) 1999-03-17 2005-10-04 Broadcom Corporation Method for load balancing in a network switch
US7643481B2 (en) 1999-03-17 2010-01-05 Broadcom Corporation Network switch having a programmable counter
US6813268B1 (en) 1999-05-21 2004-11-02 Broadcom Corporation Stacked network switch configuration
US6879588B1 (en) 1999-05-21 2005-04-12 Broadcom Corporation Address resolution snoop support for CPU
US7031302B1 (en) 1999-05-21 2006-04-18 Broadcom Corporation High-speed stats gathering in a network switch
WO2000072533A1 (en) * 1999-05-21 2000-11-30 Broadcom Corporation Stacked network switch configuration
US6842457B1 (en) 1999-05-21 2005-01-11 Broadcom Corporation Flexible DMA descriptor support
US7315552B2 (en) * 1999-06-30 2008-01-01 Broadcom Corporation Frame forwarding in a switch fabric
US6859454B1 (en) 1999-06-30 2005-02-22 Broadcom Corporation Network switch with high-speed serializing/deserializing hazard-free double data rate switching
US7295552B1 (en) 1999-06-30 2007-11-13 Broadcom Corporation Cluster switching architecture
AU7053400A (en) 1999-09-03 2001-04-10 Broadcom Corporation Apparatus and method for enabling voice over ip support for a network switch
US7131001B1 (en) 1999-10-29 2006-10-31 Broadcom Corporation Apparatus and method for secure filed upgradability with hard wired public key
US7143294B1 (en) 1999-10-29 2006-11-28 Broadcom Corporation Apparatus and method for secure field upgradability with unpredictable ciphertext
US7539134B1 (en) * 1999-11-16 2009-05-26 Broadcom Corporation High speed flow control methodology
EP1232604B1 (de) * 1999-11-16 2003-10-15 Broadcom Corporation Verfahren und netzwerkvermittlungsstelle mit datenserialisierung durch gefahrlose mehrstufige störungsfreie multiplexierung
DE60031712T2 (de) 1999-11-18 2007-09-06 Broadcom Corp., Irvine Tabellen-nachschlage-mechanismus zur adressauflösung in einer paket-netzwerkvermittlung
US6839349B2 (en) * 1999-12-07 2005-01-04 Broadcom Corporation Mirroring in a stacked network switch configuration
US6463067B1 (en) * 1999-12-13 2002-10-08 Ascend Communications, Inc. Submission and response architecture for route lookup and packet classification requests
US7009973B2 (en) * 2000-02-28 2006-03-07 Broadcom Corporation Switch using a segmented ring
US6810031B1 (en) 2000-02-29 2004-10-26 Celox Networks, Inc. Method and device for distributing bandwidth
US6678678B2 (en) * 2000-03-09 2004-01-13 Braodcom Corporation Method and apparatus for high speed table search
US7103053B2 (en) * 2000-05-03 2006-09-05 Broadcom Corporation Gigabit switch on chip architecture
US7111053B1 (en) 2000-05-20 2006-09-19 Ciena Corporation Template-driven management of telecommunications network via utilization of operations support services clients
US7225244B2 (en) 2000-05-20 2007-05-29 Ciena Corporation Common command interface
US7240364B1 (en) 2000-05-20 2007-07-03 Ciena Corporation Network device identity authentication
US7266595B1 (en) 2000-05-20 2007-09-04 Ciena Corporation Accessing network device data through user profiles
US7222147B1 (en) 2000-05-20 2007-05-22 Ciena Corporation Processing network management data in accordance with metadata files
US6880086B2 (en) 2000-05-20 2005-04-12 Ciena Corporation Signatures for facilitating hot upgrades of modular software components
US7143153B1 (en) 2000-11-09 2006-11-28 Ciena Corporation Internal network device dynamic health monitoring
US6671699B1 (en) 2000-05-20 2003-12-30 Equipe Communications Corporation Shared database usage in network devices
US7280529B1 (en) 2000-05-20 2007-10-09 Ciena Corporation Providing network management access through user profiles
US6639910B1 (en) 2000-05-20 2003-10-28 Equipe Communications Corporation Functional separation of internal and external controls in network devices
US6934749B1 (en) 2000-05-20 2005-08-23 Ciena Corporation Tracking distributed data retrieval in a network device
US7062642B1 (en) * 2000-05-20 2006-06-13 Ciena Corporation Policy based provisioning of network device resources
US6760339B1 (en) 2000-05-20 2004-07-06 Equipe Communications Corporation Multi-layer network device in one telecommunications rack
US7039046B1 (en) 2000-05-20 2006-05-02 Ciena Corporation Network device including central and distributed switch fabric subsystems
US7020696B1 (en) 2000-05-20 2006-03-28 Ciena Corp. Distributed user management information in telecommunications networks
US6601186B1 (en) 2000-05-20 2003-07-29 Equipe Communications Corporation Independent restoration of control plane and data plane functions
US7054272B1 (en) 2000-07-11 2006-05-30 Ciena Corporation Upper layer network device including a physical layer test port
US6715097B1 (en) 2000-05-20 2004-03-30 Equipe Communications Corporation Hierarchical fault management in computer systems
US7349960B1 (en) 2000-05-20 2008-03-25 Ciena Corporation Throttling distributed statistical data retrieval in a network device
US6876652B1 (en) 2000-05-20 2005-04-05 Ciena Corporation Network device with a distributed switch fabric timing system
US6708291B1 (en) 2000-05-20 2004-03-16 Equipe Communications Corporation Hierarchical fault descriptors in computer systems
US6658579B1 (en) 2000-05-20 2003-12-02 Equipe Communications Corporation Network device with local timing systems for automatic selection between redundant, synchronous central timing systems
US7051097B1 (en) 2000-05-20 2006-05-23 Ciena Corporation Embedded database for computer system management
US6654903B1 (en) 2000-05-20 2003-11-25 Equipe Communications Corporation Vertical fault isolation in a computer system
US6742134B1 (en) 2000-05-20 2004-05-25 Equipe Communications Corporation Maintaining a local backup for data plane processes
US7225240B1 (en) 2000-05-20 2007-05-29 Ciena Corporation Decoupling processes from hardware with logical identifiers
US6332198B1 (en) 2000-05-20 2001-12-18 Equipe Communications Corporation Network device for supporting multiple redundancy schemes
US6868092B1 (en) 2000-05-20 2005-03-15 Ciena Corporation Network device with embedded timing synchronization
US6826561B2 (en) 2000-05-22 2004-11-30 Broadcom Corporation Method and apparatus for performing a binary search on an expanded tree
EP1162788B1 (de) * 2000-06-09 2012-11-21 Broadcom Corporation "Trunking" und "Mirroring" über "stacked gigabit" Vermittlungsstellen
DE60126533T2 (de) 2000-06-19 2007-11-22 Broadcom Corp., Irvine Vermittlungsstelle mit einer Speicherverwaltungeinheit zur Verbesserung der Flusssteurung
US7126947B2 (en) * 2000-06-23 2006-10-24 Broadcom Corporation Switch having external address resolution interface
US6999455B2 (en) * 2000-07-25 2006-02-14 Broadcom Corporation Hardware assist for address learning
US7330877B2 (en) * 2000-09-18 2008-02-12 Sharp Laboratories Of America Devices, softwares and methods for rescheduling multi-party sessions upon premature termination of session
US7227862B2 (en) * 2000-09-20 2007-06-05 Broadcom Corporation Network switch having port blocking capability
US7420977B2 (en) * 2000-10-03 2008-09-02 Broadcom Corporation Method and apparatus of inter-chip bus shared by message passing and memory access
US7274705B2 (en) * 2000-10-03 2007-09-25 Broadcom Corporation Method and apparatus for reducing clock speed and power consumption
US7120155B2 (en) * 2000-10-03 2006-10-10 Broadcom Corporation Switch having virtual shared memory
US6851000B2 (en) * 2000-10-03 2005-02-01 Broadcom Corporation Switch having flow control management
US6988177B2 (en) * 2000-10-03 2006-01-17 Broadcom Corporation Switch memory management using a linked list structure
US7020166B2 (en) * 2000-10-03 2006-03-28 Broadcom Corporation Switch transferring data using data encapsulation and decapsulation
US6850542B2 (en) 2000-11-14 2005-02-01 Broadcom Corporation Linked network switch configuration
US7424012B2 (en) * 2000-11-14 2008-09-09 Broadcom Corporation Linked network switch configuration
US7035255B2 (en) * 2000-11-14 2006-04-25 Broadcom Corporation Linked network switch configuration
US7035286B2 (en) * 2000-11-14 2006-04-25 Broadcom Corporation Linked network switch configuration
US6647443B1 (en) * 2000-12-28 2003-11-11 Intel Corporation Multi-queue quality of service communication device
US7042843B2 (en) * 2001-03-02 2006-05-09 Broadcom Corporation Algorithm for time based queuing in network traffic engineering
US6976072B2 (en) * 2001-03-30 2005-12-13 Sharp Laboratories Of America, Inc. Method and apparatus for managing job queues
US7263597B2 (en) 2001-04-19 2007-08-28 Ciena Corporation Network device including dedicated resources control plane
US20020184381A1 (en) * 2001-05-30 2002-12-05 Celox Networks, Inc. Method and apparatus for dynamically controlling data flow on a bi-directional data bus
US7187685B2 (en) * 2001-08-09 2007-03-06 International Business Machines Corporation Multi-module switching system
US7274692B1 (en) * 2001-10-01 2007-09-25 Advanced Micro Devices, Inc. Method and apparatus for routing packets that have multiple destinations
US7221678B1 (en) * 2001-10-01 2007-05-22 Advanced Micro Devices, Inc. Method and apparatus for routing packets
US7295563B2 (en) * 2001-10-01 2007-11-13 Advanced Micro Devices, Inc. Method and apparatus for routing packets that have ordering requirements
US7355970B2 (en) * 2001-10-05 2008-04-08 Broadcom Corporation Method and apparatus for enabling access on a network switch
US20030074473A1 (en) * 2001-10-12 2003-04-17 Duc Pham Scalable network gateway processor architecture
US7283538B2 (en) * 2001-10-12 2007-10-16 Vormetric, Inc. Load balanced scalable network gateway processor architecture
US7424019B1 (en) 2001-11-27 2008-09-09 Marvell Israel (M.I.S.L) Ltd. Packet header altering device
US20030105830A1 (en) * 2001-12-03 2003-06-05 Duc Pham Scalable network media access controller and methods
KR100428773B1 (ko) * 2002-01-21 2004-04-28 삼성전자주식회사 라우터 시스템과 이를 이용한 포워딩 엔진 이중화 방법
US7804785B2 (en) * 2002-04-19 2010-09-28 Avaya Inc. Network system having an instructional sequence for performing packet processing and optimizing the packet processing
US7197553B2 (en) * 2002-04-19 2007-03-27 Nortel Networks Limited Network system having a virtual-service-module
US7246178B2 (en) * 2002-05-07 2007-07-17 Nortel Networks Limited Methods and systems for changing a topology of a network
US7386628B1 (en) 2002-05-08 2008-06-10 Nortel Networks Limited Methods and systems for processing network data packets
CN100354843C (zh) * 2002-05-24 2007-12-12 皇家飞利浦电子股份有限公司 具有停顿装置的伪多端口数据存储器
US6931530B2 (en) 2002-07-22 2005-08-16 Vormetric, Inc. Secure network file access controller implementing access control and auditing
US7334124B2 (en) * 2002-07-22 2008-02-19 Vormetric, Inc. Logical access block processing protocol for transparent secure file storage
US6678828B1 (en) * 2002-07-22 2004-01-13 Vormetric, Inc. Secure network file access control system
US6754744B2 (en) 2002-09-10 2004-06-22 Broadcom Corporation Balanced linked lists for high performance data buffers in a network device
JP4023281B2 (ja) * 2002-10-11 2007-12-19 株式会社日立製作所 パケット通信装置及びパケットスイッチ
US20040114536A1 (en) * 2002-10-16 2004-06-17 O'rourke Aidan Method for communicating information on fast and slow paths
US7143288B2 (en) * 2002-10-16 2006-11-28 Vormetric, Inc. Secure file system server architecture and methods
JP4157403B2 (ja) * 2003-03-19 2008-10-01 株式会社日立製作所 パケット通信装置
US8103800B2 (en) * 2003-06-26 2012-01-24 Broadcom Corporation Method and apparatus for multi-chip address resolution lookup synchronization in a network environment
US7697432B2 (en) * 2003-06-27 2010-04-13 Broadcom Corporation Equal and weighted cost multipath load balancing in a network device
US7904584B2 (en) * 2004-02-12 2011-03-08 Broadcom Corporation Source identifier-based trunking for systems of network devices
JP4008911B2 (ja) * 2004-09-29 2007-11-14 株式会社東芝 制御装置
US20060114907A1 (en) * 2004-11-30 2006-06-01 Broadcom Corporation Cut-through switching in a network device
US7733868B2 (en) 2005-01-26 2010-06-08 Internet Broadcasting Corp. Layered multicast and fair bandwidth allocation and packet prioritization
US8228932B2 (en) * 2005-02-18 2012-07-24 Broadcom Corporation Layout architecture for expandable network device
US20060294317A1 (en) * 2005-06-22 2006-12-28 Berke Stuart A Symmetric multiprocessor architecture with interchangeable processor and IO modules
JP4974078B2 (ja) * 2007-07-26 2012-07-11 Necアクセステクニカ株式会社 データ処理装置
DE112009002695B4 (de) * 2008-11-04 2015-07-02 Autonetworks Technologies, Ltd. Weiterleitungsvorrichtung, Kommunikationssystem und Kommunikationsverfahren
CN102582269A (zh) * 2012-02-09 2012-07-18 珠海天威技术开发有限公司 存储芯片及其数据通讯方法、耗材容器、成像设备
US11275632B2 (en) 2018-09-14 2022-03-15 Advanced Micro Devices, Inc. Broadcast command and response
CN113010173A (zh) 2019-12-19 2021-06-22 超威半导体(上海)有限公司 并行处理中矩阵数据广播的方法
CN113094099A (zh) 2019-12-23 2021-07-09 超威半导体(上海)有限公司 矩阵数据广播架构
US11403221B2 (en) 2020-09-24 2022-08-02 Advanced Micro Devices, Inc. Memory access response merging in a memory hierarchy

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5313582A (en) * 1991-04-30 1994-05-17 Standard Microsystems Corporation Method and apparatus for buffering data within stations of a communication network
US5715407A (en) * 1992-03-06 1998-02-03 Rambus, Inc. Process and apparatus for collision detection on a parallel bus by monitoring a first line of the bus during even bus cycles for indications of overlapping packets
US5309432A (en) * 1992-05-06 1994-05-03 At&T Bell Laboratories High-speed packet switch
JPH07321815A (ja) * 1994-05-24 1995-12-08 Nec Corp 共有バッファ型atmスイッチおよびその同報制御方法
DE59507871D1 (de) * 1994-07-12 2000-04-06 Ascom Ag Vorrichtung zur Vermittlung in digitalen Datennetzen für asynchronen Transfermodus
US5513134A (en) * 1995-02-21 1996-04-30 Gte Laboratories Incorporated ATM shared memory switch with content addressing
US5752078A (en) * 1995-07-10 1998-05-12 International Business Machines Corporation System for minimizing latency data reception and handling data packet error if detected while transferring data packet from adapter memory to host memory
US5799209A (en) * 1995-12-29 1998-08-25 Chatter; Mukesh Multi-port internally cached DRAM system utilizing independent serial interfaces and buffers arbitratively connected under a dynamic configuration

Also Published As

Publication number Publication date
EP1016246A1 (de) 2000-07-05
AU738983B2 (en) 2001-10-04
JP4334760B2 (ja) 2009-09-30
EP1016246B1 (de) 2003-11-26
HK1031058A1 (en) 2001-05-25
CA2297650A1 (en) 1999-02-04
DE69820084D1 (de) 2004-01-08
IL134221A0 (en) 2001-04-30
CN1267418A (zh) 2000-09-20
JP2001511575A (ja) 2001-08-14
US5918074A (en) 1999-06-29
IL134221A (en) 2004-06-01
CN1151639C (zh) 2004-05-26
CA2297650C (en) 2007-11-27
AU8236698A (en) 1999-02-16
WO1999005826A1 (en) 1999-02-04

Similar Documents

Publication Publication Date Title
DE69820084T2 (de) Netzwerkvorrichtung und Verfahren zur Reduzierung der System-Latenz
DE69637462T2 (de) ATM-Vermittlungsstelle mit Eingangs- und Ausgangsanschlussstellen
DE60203057T2 (de) Effizienter Optimierungsalgorithmus für Speichergebrauch in Netzwerkanwendungen
DE69737361T2 (de) Schnelle vermittlungsvorrichtung
DE69834823T2 (de) Paketvermittlungsvorrichtung und -verfahren mit zentraler Speicherarchitektur
DE69817328T2 (de) Warteschlangenstruktur und -verfahren zur prioritätszuteilung von rahmen in einem netzwerkkoppelfeld
DE69915704T2 (de) Ampic dram
DE69630084T2 (de) Anlage und Verfahren zur Paketierung und Segmentierung von MPEG-Paketen
DE69906604T2 (de) Rechnersystem und Verfahren zur Zuordnung von Speicherraum zu Kommunikationsportpuffern
DE60030737T2 (de) Hochleistungs-Vermittlungselement und -Vermittlungssystem
DE3728805C2 (de)
DE60119866T2 (de) Vermittlungseinrichtung und verfahren mit getrennten Ausgangspuffern
DE69720417T2 (de) Ringförmiges atm-netz
DE69832149T2 (de) ATM-Zellenübermittlungssystem
DE60031596T2 (de) Zeitmultiplex-Vermittlungssystem (TDM) mit sehr breitem Speicher
DE69631265T2 (de) Vermittlungssystem
DE19531749A1 (de) Verkehrsgestaltungseinrichtung und Paket-Kommunikationsgerät
DE2620220B2 (de) Schaltungsanordnung zum Übertragen von Datenpaketen über einen Zwischenspeicher
EP0692893B1 (de) Vorrichtung zur Vermittlung in digitalen Datennetzen für asynchronen Transfermodus
DE3823878A1 (de) Koppelfeld fuer ein vermittlungssystem
DE69534171T2 (de) Verfahren und Vorrichtung für verbesserten Durchfluss in einem Vielfachknoten-Kommunikationssystem mit einem gemeinsamen Betriebsmittel
DE60014178T2 (de) Vorrichtung und verfahren zur speicherteilung in einer konfiguration mit einzelring-datenbusverbindung
EP0471051B1 (de) Steuereinheit für den zentralspeicher eines atm-knotens
DE102021213414A1 (de) Routing mit einem switch mit festen zuordnungen
DE69633781T2 (de) Vermittlungsnetz zur Übertragung von Datenzellen

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee