Thursday 23 November 2017

Cisco Trading System


OPTIMIERENDE HANDELSLEISTUNG MIT UNIFIED COMMUNICATIONS. Financial Trading-Profis in Banken, Broker, Rohstoffe, Börsen und Investment Management rms oft auf eigenständige Revolver und Telekom-Systeme für entscheidende Kommunikation und Informationen verlassen Aber Standalone-Systeme isolieren Händler von den Vermögenswerten, die sie benötigen, um erfolgreich zu handeln Ein flüchtiger globaler Markt. In der Tat zeigt die Forschung, dass Händler gezwungen sind, ein komplexes Netz von IT, Streaming-Medien und Telekommunikation zu jonglieren, um die Arbeit zu erledigen. Für mehr über den Zustand des Marktes und warum Revolver-Systeme nicht mehr den Bedürfnissen der Händler entsprechen. Fund Management. Hedge Funds. Online Markets. Proprietary Trading. Download der White Paper. Trader mit isolierten Revolver-Systeme Gesicht viele laufende Herausforderungen einschließlich. Instant access. Turret-Systeme auf eigene Faust kann nicht bohren in Trading-Daten, Analyse oder brechende Nachrichten Trader sind gezwungen Um eine Reihe von anderen Technologien zu nutzen. Kollaboration und Leistung. Analysts und Back-Office-Personal können aus dem Amt oder auf der anderen Seite der Welt basieren Intelligente Ressourcen müssen sofort verfügbar sein, auf oder aus jedem Revolver, um zur Entscheidungsfindung beitragen. Produktivität, Wettbewerbsvorteil und Gewinne. Turret-Systeme fehlt Agilität, um sich ständig verändernden globalen Marktbedingungen gerecht zu werden. Händler werden getrieben, um neue Lösungen zu finden, um Produktivität, Wettbewerbsvorteil und Gewinn zu maximieren. Lesen Sie die Übersicht. IP HANDEL VERSTÄNDNIS TRADING WORKFLOWS. IP Handel zentralisiert vital Informationen durch die Vereinheitlichung von Sprach-, Daten - und Videokommunikation zu einer einzigen, flexiblen Plattform Auf der Basis modernster Session Initiation Protocol SIP-, VoIP - und IP-Technologien ermöglicht IP Trade den Händlern den direkten Zugriff auf globale Kollegen, die sich überall befinden, Daten und Analysen auf IT-Systemen, Echtzeit-Streaming-Medien und anderen wichtigen Informationen. IP Trade ermöglicht es Händlern, Produktivität, Effizienz und überlegenen Handel zu steigern, indem sie die Leistung durch einheitliche Kommunikation optimieren. Und weil wir verstehen, dass ein Trading-Floor nicht eine Einheitsgröße für alle Umgebungen ist , Eine Reihe von Trading-Anwendungen und Revolver Formfaktoren zur Verfügung stehen für jede Art von Benutzer. News Events. Cisco Systems, Inc CSCO After Hours Trading. Real-Time nach Stunden Pre-Market News. Flash Zitat Zusammenfassung Zitat Interaktive Charts Standard-Einstellung. Bitte beachten Sie, dass, sobald Sie Ihre Auswahl treffen, gilt es für alle zukünftigen Besuche zu Wenn Sie jederzeit daran interessiert sind, auf unsere Standardeinstellungen zurückzukehren, wählen Sie bitte die Standardeinstellung oben. Wenn Sie Fragen haben oder Probleme beim Ändern haben Ihre Standardeinstellungen, bitte mailen. Bitte bestätigen Sie Ihre Auswahl. Sie haben ausgewählt, um Ihre Standardeinstellung für die Zitat-Suche zu ändern Dies ist nun Ihre Standard-Zielseite, es sei denn, Sie ändern Ihre Konfiguration wieder, oder Sie löschen Ihre Cookies Sind Sie sicher, dass Sie wollen Ändern Sie Ihre Einstellungen. Wir haben einen Gefallen zu fragen. Bitte deaktivieren Sie Ihre Anzeigenblocker oder aktualisieren Sie Ihre Einstellungen, um sicherzustellen, dass Javascript und Cookies aktiviert sind, so dass wir weiterhin bieten Ihnen die erstklassigen Marktnachrichten und Daten, die Sie zu kommen Erwarten von uns. Trading Floor Architecture. Trading Floor Architecture. Executive Überblick. Erhöhte Konkurrenz, höhere Marktdatenvolumen und neue regulatorische Anforderungen sind einige der treibenden Kräfte hinter den Industrieveränderungen Unternehmen versuchen, ihre Wettbewerbsfähigkeit zu halten, indem sie ständig ihre Handelsstrategien ändern Und die Erhöhung der Handelsgeschwindigkeit. Eine tragfähige Architektur muss die neuesten Technologien aus Netzwerk - und Anwendungsdomänen beinhalten. Es muss modular sein, um einen verwaltbaren Weg zu schaffen, um jede Komponente mit minimaler Störung des Gesamtsystems zu entwickeln. Daher ist die von diesem Papier vorgeschlagene Architektur Basiert auf einem Service-Framework Wir untersuchen Dienstleistungen wie Ultra-Low Latency Messaging, Latenz-Monitoring, Multicast-, Computing-, Speicher-, Daten-und Anwendungs-Virtualisierung, Trading Resiliency, Trading Mobility und Thin Client. Die Lösung für die komplexen Anforderungen der nächsten - Generationsplattform muss mit einer ganzheitlichen Denkweise gebaut werden, die die Grenzen der traditionellen Silos wie Business und Technologie oder Anwendungen und Networking überbrückt. Ziel dieses Dokuments ist es, Leitlinien für den Aufbau einer hochkarätigen Latenz-Handelsplattform zu schaffen und gleichzeitig den Rohdurchsatz zu optimieren Und Meldungsrate für Marktdaten und FIX-Handelsaufträge. Um dies zu erreichen, schlagen wir die folgenden Latenzreduktionstechnologien vor. High-Speed-Inter-Connect InfiniBand oder 10 Gbit / s Konnektivität für den Trading-Cluster. High-Speed-Messaging-Bus. Anwendungsbeschleunigung über RDMA ohne Applikations-Re-Code. Echtzeit-Latenzüberwachung und Re-Richtung des Handelsverkehrs auf den Weg mit minimaler Latenz. Industrie Trends und Herausforderungen. Next-Generation Handelsarchitekturen müssen auf erhöhte Anforderungen an Geschwindigkeit, Volumen und Effizienz reagieren Zum Beispiel das Volumen der Optionen Markt Daten werden voraussichtlich nach der Einführung von Optionen Penny Trading im Jahr 2007 verdoppeln Es gibt auch regulatorische Anforderungen für die beste Ausführung, die Handling Preis-Updates mit Raten, die 1M msg sec für den Austausch Ansatz Sie benötigen auch Sichtbarkeit in die Frische der Daten und Beweis, dass Der Klient hat die bestmögliche Ausführung erhalten. Kurzfristig sind die Handels - und Innovationsgeschwindigkeiten die wichtigsten Unterscheidungsmerkmale Eine zunehmende Anzahl von Trades wird durch algorithmische Trading-Applikationen behandelt, die so nah wie möglich an den Trade-Execution-Ort gestellt werden. Eine Herausforderung mit diesem Black-Box-Handel Motoren ist, dass sie die Volumenerhöhung durch die Erteilung von Aufträgen nur, um sie zu stornieren und sie erneut einzureichen. Die Ursache für dieses Verhalten ist der Mangel an Sichtbarkeit, in welchen Veranstaltungsort bietet die beste Ausführung Der menschliche Händler ist jetzt ein Finanz-Ingenieur, ein Quant Quantitative Analytiker mit Programmierung Fähigkeiten, die Handelsmodelle auf der Fliege anpassen können Unternehmen entwickeln neue Finanzinstrumente wie Wetterderivate oder Cross-Asset-Klassenhandels und müssen die neuen Applikationen schnell und skalierbar einsetzen. Langfristig sollte die Wettbewerbsdifferenzierung aus der Analyse kommen , Nicht nur Wissen Die Star-Trader von morgen übernehmen das Risiko, erzielen wahre Klienteneinsicht und konsequent schlagen die Marktquelle IBM. Business Resilience war ein wichtiges Anliegen der Handelsfirmen seit 11. September 2001 Lösungen in diesem Bereich reichen von redundanten Rechenzentren In verschiedenen geografien und verbunden mit mehreren handelsplätzen zu virtuellen trader-lösungen mit power-trader die meisten der funktionalität eines handels-bodens an einem entfernten standort. Die finanzdienstleistungs-industrie ist eine der anspruchsvollsten in punkt der IT-anforderungen Die industrie erlebt ein architektonisches Umstellung auf serviceorientierte Architektur SOA, Web Services und Virtualisierung von IT-Ressourcen SOA nutzt die Steigerung der Netzwerkgeschwindigkeit, um eine dynamische Bindung und Virtualisierung von Softwarekomponenten zu ermöglichen. Dies ermöglicht die Erstellung neuer Applikationen, ohne die Investition in bestehende Systeme und Infrastrukturen zu verlieren Das Konzept hat das Potenzial, die Art und Weise, wie die Integration durchgeführt wird, zu revolutionieren, was eine deutliche Reduzierung der Komplexität und der Kosten einer solchen Integration ermöglicht. Ein weiterer Trend ist die Konsolidierung von Servern in Rechenzentrums-Server-Farmen, während Trader-Tische nur KVM-Erweiterungen und ultradünne Clients haben ZB SunRay - und HP-Blade-Lösungen High-Speed-Metro-Area-Netzwerke ermöglichen es, dass Marktdaten Multicast zwischen verschiedenen Standorten sind und die Virtualisierung des Trading-Floor ermöglichen. High-Level Architecture. Figure 1 zeigt die High-Level-Architektur eines Handelsumfeldes Die Ticker-Anlage Und die algorithmischen Handelsmotoren befinden sich im Hochleistungs-Handelscluster im Firmen-Rechenzentrum oder an der Börse. Die menschlichen Händler befinden sich im Bereich der Endbenutzeranwendungen. Funktionell gibt es zwei Anwendungskomponenten in der Unternehmenshandelsumgebung, Verlage und Abonnenten Der Messaging-Bus stellt den Kommunikationspfad zwischen Verlagen und Abonnenten zur Verfügung. Es gibt zwei Arten von Verkehrsspezifisch für eine Handelsumgebung. Marktdaten liefert Preisinformationen für Finanzinstrumente, Nachrichten und andere wertschöpfende Informationen wie analytics Es ist unidirektional und sehr latenzempfindlich, typischerweise über UDP-Multicast geliefert. Es wird in Updates sek und in Mbps gemessen Marktdaten fließen von einem oder mehreren externen Feeds, die von Marktdatenanbietern wie Börsen, Datenaggregatoren und ECNs kommen. Jeder Anbieter hat ein eigenes Marktdatenformat. Die Daten werden von Feed Handlern, spezialisierten Anwendungen empfangen, die die Daten normalisieren und reinigen und dann an Datenverbraucher senden Pricing-Engines, algorithmische Trading-Anwendungen oder menschliche Händler Sell-Side-Unternehmen senden auch die Marktdaten an ihre Kunden, Buy-Side-Unternehmen wie Investmentfonds, Hedgefonds und andere Vermögensverwalter Einige Buy-Side-Unternehmen können entscheiden, direkte Feeds zu erhalten Aus dem Austausch, reduzieren Latenz. Figure 1 Trading-Architektur für eine Buy-Side-Sell Side Firm. There ist kein Industriestandard für Marktdaten-Formate Jeder Austausch hat ihre proprietären Format Finanz-Content-Anbieter wie Reuters und Bloomberg aggregieren verschiedene Quellen von Marktdaten, normalisieren sie , Und fügen Sie Neuigkeiten oder Analysen hinzu. Beispiele für konsolidierte Feeds sind RDF Reuters Data Feed, RWF Reuters Wire Format und Bloomberg Professional Services Data. To liefern niedrigere Latenz Marktdaten, haben beide Anbieter Echtzeit-Markt Daten-Feeds, die weniger verarbeitet und haben Weniger analytik Bloomberg B-Pipe Mit B-Pipe verbindet Bloomberg ihre Marktdaten-Feeds von ihrer Distributionsplattform, weil ein Bloomberg-Terminal nicht benötigt wird, um B-Pipe Wombat und Reuters zu bekommen. Feed Handler haben Unterstützung für B-Pipe angekündigt. Eine Firma kann entscheiden Um Feeds direkt von einem Austausch zu erhalten, um die Latenz zu reduzieren Die Gewinne in der Übertragungsgeschwindigkeit können zwischen 150 Millisekunden bis 500 Millisekunden liegen. Diese Feeds sind komplexer und teurer und die Firma muss ihre eigene Tickeranlage aufbauen und pflegen. Trading Orders Diese Art von Traffic trägt die tatsächlichen Trades Es ist bidirektional und sehr latenzempfindlich Es wird in Nachrichten sek und Mbps gemessen Die Aufträge stammen aus einer Kaufseite oder verkaufen Seite Firma und werden an Handelsplätze wie ein Exchange oder ECN für geschickt Ausführung Das gängigste Format für den Auftragstransport ist FIX Financial Information Die Applikationen, die FIX-Meldungen behandeln, heißen FIX-Engines und sie stellen sich mit den Bestellmanagementsystemen OMS zusammen. Eine Optimierung auf FIX heißt FAST Fix Adapted for Streaming, bei der ein Komprimierungsschema reduziert wird Nachrichtenlänge und in Wirklichkeit reduzieren Latenz FAST ist mehr auf die Bereitstellung von Marktdaten ausgerichtet und hat das Potenzial, ein Standard-FAST geworden kann auch als Kompression Schema für proprietäre Marktdaten-Formate verwendet werden. Um Latenz zu reduzieren, können Unternehmen entscheiden, Etablieren direkten Marktzugang DMA. DMA ist der automatisierte Prozess der Weiterleitung eines Wertpapierauftrags direkt an einen Ausführungsort und damit die Vermeidung der Intervention durch ein Drittanbieter-GlossarId 383 DMA erfordert eine direkte Verbindung zum Ausführungsort. Der Messaging-Bus ist Middleware-Software von Hersteller wie Tibco, 29West, Reuters RMDS oder eine Open Source Plattform wie AMQP Der Messaging Bus verwendet einen zuverlässigen Mechanismus, um Nachrichten zu liefern Der Transport kann über TCP IP TibcoEMS, 29West, RMDS und AMQP oder UDP Multicast TibcoRV, 29West durchgeführt werden , Und RMDS Ein wichtiges Konzept in der Nachrichtenverteilung ist der Themenstrom, der eine Teilmenge von Marktdaten ist, die durch Kriterien wie Tickersymbol, Industrie oder einen bestimmten Korb von Finanzinstrumenten definiert werden. Abonnenten verbinden Themengruppen, die einem oder mehreren Unterthemen zugeordnet sind Um nur die relevanten Informationen zu erhalten In der Vergangenheit haben alle Händler alle Marktdaten erhalten. Bei den aktuellen Verkehrsmengen wäre das suboptimal. Das Netzwerk spielt eine wichtige Rolle im Handelsumfeld. Die Marktdaten werden auf den Handel getragen Wo sich die menschlichen Händler über ein Campus - oder Metro-Bereichs-Hochgeschwindigkeitsnetz befinden. Hochverfügbarkeit und niedrige Latenz sowie hoher Durchsatz sind die wichtigsten Kennzahlen. Die hochleistungsfähige Handelsumgebung hat die meisten Komponenten in der Data Center Serverfarm Um die Latenz zu minimieren, müssen sich die algorithmischen Handelsmotoren in der Nähe der Feed-Handler, FIX-Engines und Order-Management-Systeme befinden. Ein alternatives Deployment-Modell verfügt über die algorithmischen Handelssysteme, die sich an einer Börse oder einem Dienstanbieter mit schneller Konnektivität zu mehreren Börsen befinden. Deployment Models. Es gibt zwei Deployment-Modelle für eine leistungsstarke Handelsplattform Unternehmen können wählen, um eine Mischung aus den beiden haben. Rechenzentrum des Handelsunternehmens Abbildung 2 Dies ist das traditionelle Modell, in dem eine vollwertige Handelsplattform von der Firma mit Kommunikationsverbindungen zu allen Handelsplätzen entwickelt und gepflegt wird. Latenzzeit variiert mit der Geschwindigkeit der Links und der Anzahl der Hopfen zwischen Die Firma und die Veranstaltungsorte. Bild 2 Traditionelles Einsatzmodell. Co-Standort am Handelsplatzaustausch, Finanzdienstleister FSP Abbildung 3.Die Handelsfirma entfaltet ihre automatisierte Handelsplattform so nah wie möglich an die Ausführungsorte, um die Latenz zu minimieren. Figure 3 Hosted Deployment Model. Services-orientierte Trading Architecture. We sind Schlägt ein dienstleistungsorientiertes Framework für den Aufbau der Handelsarchitektur der nächsten Generation vor. Dieser Ansatz bietet einen konzeptionellen Rahmen und einen Implementierungspfad, der auf Modularisierung und Minimierung von Inter-Abhängigkeiten basiert. Dieses Framework bietet Unternehmen eine Methodik an. Bewerten Sie ihren aktuellen Stand in Bezug auf Dienstleistungen. Priorisierung von Dienstleistungen auf der Grundlage ihres Wertes für das Geschäft. Entwickeln Sie die Handelsplattform mit einem modularen Ansatz in den gewünschten Zustand. Die Hochleistungshandelsarchitektur beruht auf den folgenden Services, wie sie in dem in Abbildung 4 dargestellten Dienstleistungsarchitektur-Framework definiert sind. Abbildung 4 Service Architecture Framework für High Performance Trading. Ultra-Low Latency Messaging Service. Dieser Service wird durch den Messaging-Bus, die ein Software-System, das das Problem der Verbindung von vielen zu vielen Anwendungen Das System besteht aus. Eine Reihe von vordefinierten Meldungsschemata. Eine Reihe von gemeinsamen Befehlsnachrichten. Eine gemeinsame Anwendungsinfrastruktur zum Versenden der Nachrichten an Empfänger Die freigegebene Infrastruktur kann auf einem Nachrichtenbroker oder einem Publish-Abonnement-Modell basieren. Die Schlüsselanforderungen für den Nachrichtenbus der nächsten Generation sind Quelle 29West. Niedrigste Latenz e g weniger als 100 Mikrosekunden. Stabilität unter Schwerlast e g mehr als 1 4 Mio. msg sec. Kontrolle und Flexibilität Ratensteuerung und konfigurierbare Transporte. Es gibt Bemühungen in der Branche zu standardisieren die Messaging-Bus Advanced Message Queuing Protocol AMQP ist ein Beispiel für eine offene Standard von JP Morgan Chase und unterstützt von einer Gruppe von Anbietern wie Cisco, Envoy Technologies , Red Hat, TWIST Process Innovations, Iona, 29West und iMatix Zwei der Hauptziele sind es, einen einfacheren Weg zur Interoperabilität für Anwendungen zu schaffen, die auf verschiedenen Plattformen und Modularitäten geschrieben sind, so dass die Middleware leicht weiterentwickelt werden kann Begriffe ist ein AMQP-Server analog zu einem E-Mail-Server mit jedem Austausch, der als Nachrichtenübertragungsagent fungiert, und jede Nachrichtenwarteschlange als Postfach. Die Bindungen definieren die Routingtabellen in jedem Übertragungsagenten. Veröffentlichen senden Nachrichten an einzelne Übertragungsagenten, die dann weiterleiten Die Nachrichten in Postfächern Die Konsumenten nehmen Nachrichten aus Postfächern, die ein leistungsfähiges und flexibles Modell erstellen, das eine einfache source. Latency Monitoring Service ist. Die wichtigsten Voraussetzungen für diesen Service sind. Sub-Millisekunden-Granularität von Messungen. Echtzeit-Sichtbarkeit ohne Hinzufügen von Latenz zum Handelsverkehr. Fähigkeit, die Latenz der Anwendungsverarbeitung von der Netzwerk-Transit-Latenz zu unterscheiden. Fähigkeit, hohe Nachrichtenraten zu behandeln. Stellen Sie eine programmatische Schnittstelle für Handelsanwendungen bereit, um Latenzdaten zu empfangen, so dass algorithmische Handelsmotoren sich an veränderte Bedingungen anpassen können. Verknüpfen Sie Netzwerkereignisse mit Anwendungsereignissen für Fehlerbehebungszwecke. Die Latenzzeit kann als das Zeitintervall definiert werden, wenn ein Handelsauftrag gesendet wird und wenn die gleiche Reihenfolge von der empfangenden Partei quittiert und bearbeitet wird. Die Anpassung der Latenzproblematik ist ein komplexes Problem Ein ganzheitlicher Ansatz, der alle Latenzquellen identifiziert und unterschiedliche Technologien auf verschiedenen Ebenen des Systems anwendet. Figur 5 zeigt die Vielfalt der Komponenten, die Latenz auf jeder Schicht des OSI-Stapels einführen können. Außerdem gibt es jede Latenzquelle mit einer möglichen Lösung und Eine Monitoring-Lösung Dieser Layer-Ansatz kann Unternehmen eine strukturierte Art, das Latenz-Problem anzugreifen, wobei jede Komponente als Service gedacht und konsequent über die Firma hinweg behandelt werden kann. Ein genauer Maßstab für den dynamischen Zustand dieses Zeitintervalls gegenüber der Alternative Routen und Destinationen können bei taktischen Handelsentscheidungen von großer Unterstützung sein. Die Fähigkeit, den genauen Standort von Verzögerungen zu identifizieren, sei es im Kundennetzwerk, im zentralen Bearbeitungszentrum oder auf der Transaktionsanwendungsebene, bestimmt die Fähigkeit der Dienstleister, sich zu treffen Ihre Handels-Service-Level-Vereinbarungen SLAs Für Buy-Side - und Sell-Side-Formulare sowie für Marktdaten-Syndikatoren führt die schnelle Identifizierung und Beseitigung von Engpässen direkt zu verbesserten Handelsmöglichkeiten und Umsatz. Figure 5 Latency Management Architecture. Cisco Low - Latency Monitoring Tools. Traditionelle Netzwerk-Monitoring-Tools arbeiten mit Minuten oder Sekunden Granularität Next-Generation-Handelsplattformen, vor allem diejenigen, die algorithmischen Handel, verlangen Latenzen weniger als 5 ms und extrem niedrigen Puffer Verlust auf einem Gigabit LAN, ein 100 ms microburst kann Verursachen 10.000 Transaktionen verloren gehen oder übermäßig verzögert. Cisco bietet seinen Kunden eine Auswahl an Werkzeugen zur Messung der Latenz in einer Handelsumgebung. Bandbreite Qualitätsmanager BQM OEM von Corvil. Cisco AON-basierte Financial Services Latency Monitoring-Lösung FSMS. Bandwidth Quality Manager. Bandwidth Quality Manager BQM 4 0 ist ein Netzwerk-Netzwerk-Performance-Management-Produkt der nächsten Generation, das es Kunden ermöglicht, ihr Netzwerk für kontrollierte Latenz - und Verlustleistung zu überwachen und bereitzustellen. Während BQM Ist nicht ausschließlich auf Trading-Netzwerke ausgerichtet, seine Mikrosekunden-Sichtbarkeit kombiniert mit intelligenten Bandbreiten-Provisioning-Funktionen machen es ideal für diese anspruchsvollen Umgebungen. Cisco BQM 4 0 implementiert eine breite Palette von patentierten und zum Patent angemeldete Verkehrsmessung und Netzwerk-Analyse-Technologien, die dem Anwender beispiellose geben Sichtbarkeit und Verständnis für die Optimierung des Netzwerks für maximale Anwendungsleistung. Cisco BQM wird nun auf der Produktfamilie von Cisco Application Deployment Engine ADE unterstützt Die Cisco ADE Produktfamilie ist die Plattform der Wahl für Cisco Netzwerkmanagement Anwendungen. BQM Benefits. Cisco BQM Mikro-Sichtbarkeit ist die Fähigkeit, Latenz, Jitter und Verlust zu ermitteln, zu messen und zu analysieren, um Verkehrsereignisse bis hin zu Mikrosekunden der Granularität mit pro Paketauflösung zu veranlassen. Dies ermöglicht es Cisco BQM, die Auswirkungen von Verkehrsereignissen auf Netzwerklatenz, Jitter zu erkennen und zu bestimmen , Und Verlust Critical für Handelsumgebungen ist, dass BQM Latenz-, Verlust - und Jitter-Messungen einsetzen kann, sowohl für TCP - als auch für UDP-Multicast-Verkehr. Dies bedeutet, dass es sowohl für den Trading - als auch für den Marktdaten-Feeds nahtlos berichtet wird. BQM ermöglicht es dem Benutzer, Umfassender Satz von Schwellenwerten gegen Microburst-Aktivität, Latenz, Verlust, Jitter, Auslastung usw. auf allen Schnittstellen BQM betreibt dann eine Hintergrund-Rolling-Paket-Capture Wenn ein Schwellenwertverletzung oder ein anderes potentielles Leistungsverschlechterungsereignis auftritt, löst es Cisco BQM aus, die Paket-Capture zu speichern Festplatte für die spätere Analyse Dies ermöglicht es dem Benutzer, sowohl den Anwendungsverkehr, der von der Leistungsverschlechterung der Opfer betroffen war, als auch auf den Verkehr, der die Leistungsverschlechterung der Täter verursacht hat, genau zu untersuchen. Dies kann die Zeit für die Diagnose und die Behebung von Netzwerkleistungsproblemen erheblich reduzieren Ist auch in der Lage, detaillierte Bandbreite und Qualität der Service QoS Politik Bereitstellung Empfehlungen, die der Benutzer direkt anwenden können, um gewünschte Netzwerkleistung zu erreichen. BQM Messungen Illustrated. To verstehen den Unterschied zwischen einigen der herkömmlicheren Messtechniken und die Sichtbarkeit von BQM zur Verfügung gestellt , Können wir uns einige Vergleichsgraphen anschauen Im ersten Satz von Graphen Abbildung 6 und Abbildung 7 sehen wir den Unterschied zwischen der Latenz, gemessen durch den BQM s Passive Network Quality Monitor PNQM und die Latenz, gemessen durch Injizieren von Ping-Paketen alle 1 Sekunde in den Verkehr Stream. In Abbildung 6 sehen wir die Latenz, die von 1-Sekunden-ICMP-Ping-Pakete für echten Netzwerkverkehr gemeldet wird, wird durch 2 geteilt, um eine Schätzung für die Einwegverzögerung zu geben. Es zeigt die Verzögerung bequem unter etwa 5ms für fast die ganze Zeit. Figure 6 Latenz, die von 1-Sekunden-ICMP-Ping-Paketen für realen Netzwerkverkehr gemeldet wird. In Abbildung 7 sehen wir die Latenz, die von PNQM für denselben Verkehr zur gleichen Zeit gemeldet wird. Hier sehen wir, dass durch Messung der Einweg-Latenz der tatsächlichen Anwendung Pakete, wir bekommen ein radikal anderes Bild Hier ist die Latenz zu schweben rund 20 ms, mit gelegentlichen Bursts weit höher Die Erklärung ist, dass, weil Ping Pakete nur jede Sekunde sendet, ist es völlig fehlt die meisten der Anwendung Traffic Latenz In der Tat , Ping-Ergebnisse zeigen in der Regel nur Umlauf Ausbreitung Verspätung statt realistische Anwendung Latenz über das Netzwerk. Figure 7 Latency von PNQM für Real Network Traffic berichtet. In dem zweiten Beispiel Abbildung 8, sehen wir den Unterschied in der gemeldeten Link Last oder Sättigung Ebenen zwischen a 5-Minuten-Durchschnittsansicht und 5 ms Microburst-Ansicht BQM kann über Microbursts bis zu einer Genauigkeit von ca. 10-100 Nanosekunden berichten Die grüne Linie zeigt die durchschnittliche Auslastung bei 5-minütigen Mitteln, um niedrig zu sein, vielleicht bis zu 5 Mbits s Die dunkelblaue Handlung Zeigt die 5ms-Microburst-Aktivität zwischen 75 Mbits s und 100 Mbits s, die LAN-Geschwindigkeit effektiv BQM zeigt diese Granularität für alle Anwendungen und es gibt auch klare Provisioning Regeln, damit der Benutzer zu kontrollieren oder zu neutralisieren diese microbursts. Figure 8 Unterschied in Reports Link Load zwischen einer 5-Minuten-Durchschnittsansicht und einer 5-ms Microburst View. BQM-Bereitstellung im Trading Network. Figure 9 zeigt eine typische BQM-Implementierung in einem Trading Network. Figure 9 Typische BQM-Bereitstellung in einem Trading Network. BQM kann dann sein Verwendet, um diese Art von Fragen zu beantworten. Sind irgendwelche meiner Gigabit-LAN-Core-Links für mehr als X Millisekunden gesättigt Ist dies Verluste verursachen Welche Links würden am meisten von einem Upgrade auf Etherchannel oder 10 Gigabit-Geschwindigkeiten profitieren. Welcher Anwendungsverkehr verursacht die Sättigung meiner 1 Gigabit Links. Ist einer der Marktdaten, die End-to-End-Verlust erleben. Wie viel zusätzliche Latenz macht die Failover-Rechenzentrumserfahrung Ist dieser Link korrekt dimensioniert, um mit microbursts umzugehen. Sind meine Händler immer Latenz-Updates von der Marktdatenverteilungsschicht Sie sehen irgendwelche Verzögerungen größer als X Millisekunden. Being in der Lage, diese Fragen einfach und effektiv spart Zeit und Geld beim Laufen des Handelsnetzes. BQM ist ein wesentliches Werkzeug für die Gewinnung von Sichtbarkeit In Marktdaten und Handelsumgebungen Es bietet körnige End-to-End-Latenzmessungen in komplexen Infrastrukturen, die eine umfangreiche Datenübertragung erleben. Effektives Erkennen von Mikrobursts in Sub-Millisekunden-Ebenen und Empfangen von Expertenanalysen zu einem bestimmten Ereignis ist von unschätzbarem Wert für den Handel von Bodenarchitekten Smart Bandbreite Bereitstellung von Empfehlungen, wie z. B. Sizing und What-If-Analyse, bieten eine größere Agilität, um auf volatile Marktbedingungen zu reagieren. Da die Explosion des algorithmischen Handels und der zunehmenden Nachrichtenraten fortgesetzt wird, bietet BQM in Kombination mit seinem QoS-Tool die Möglichkeit, QoS-Richtlinien zu implementieren Schützen kritische Handelsanwendungen. Cisco Financial Services Latency Monitoring Solution. Cisco und Trading Metrics haben auf Latency Monitoring-Lösungen für FIX Auftragsfluss und Marktdatenüberwachung zusammengearbeitet Die Cisco AON-Technologie ist die Grundlage für eine neue Klasse von Netzwerk-Embedded-Produkten und Lösungen, die zusammenführen Intelligente Netzwerke mit Applikationsinfrastruktur, basierend auf serviceorientierten oder traditionellen Architekturen Trading Metrics ist ein führender Anbieter von Analysesoftware für Netzwerkinfrastruktur und Applikationslatenzüberwachung. Die Cisco AON Financial Services Latency Monitoring Solution FSMS korrelierte zwei Arten von Veranstaltungen an der Stelle Der Beobachtung. Netzwerkereignisse korrelierten direkt mit der übereinstimmenden Anwendungsmitteilung. Trade-Order-Flow und passende Marktaktualisierungsereignisse. Um Zeitstempel, die am Punkt der Erfassung im Netzwerk geltend gemacht werden, ermöglicht die Echtzeitanalyse dieser korrelierten Datenströme eine genaue Identifizierung von Engpässen über die Infrastruktur, während ein Handel durchgeführt wird oder Marktdaten vorliegen Verteilt durch die Überwachung und Messung der Latenz in einem frühen Zyklus, können Finanzgesellschaften bessere Entscheidungen darüber treffen, welchen Netzdienst und welcher Vermittler, Markt oder Gegenpartei für die Vermittlung von Handelsaufträgen ausgewählt werden soll. Ebenso ermöglicht dieses Wissen einen effizienteren Zugang zu aktualisierten Marktdatenbeständen, Wirtschaftsnachrichten, etc., die eine wichtige Grundlage für die Einleitung, Abheben oder Verfolgung von Marktchancen ist. Die Komponenten der Lösung sind. AON-Hardware in drei Formfaktoren. AON Netzwerkmodul für Cisco 2600 2800 3700 3800 Router. AON Blade für die Cisco Catalyst 6500 Serie. AON 8340 Gerät. Trading Metrics MA 2 0 Software, die die Überwachungs - und Alarmierungsanwendung zur Verfügung stellt, zeigt Latenzdiagramme auf einem Dashboard an und gibt Warnungen aus, wenn Verlangsamungen auftreten. Abbildung 10 AON-basierte FIX Latency Monitoring. Cisco IP SLA. Cisco IP SLA ist ein eingebettetes Netzwerkmanagement Tool in Cisco IOS, das Routern und Switches ermöglicht, synthetische Verkehrsströme zu erzeugen, die für Latenz, Jitter, Paketverlust und andere Kriterien gemessen werden können. Zwei Schlüsselkonzepte sind die Quelle des generierten Traffics und das Ziel Beide führen eine IP SLA aus Responder, der die Verantwortung hat, den Kontrollverkehr zu verteilen, bevor er vom Ziel für eine Rundreise-Messung angelegt und zurückgegeben wird. Verschiedene Verkehrstypen können in IP-SLA bezogen werden und sind auf unterschiedliche Metriken ausgerichtet und zielen auf unterschiedliche Dienste und Anwendungen ab. Der UDP-Jitter Betrieb wird verwendet, um Einweg - und Rundlaufverzögerung und Berichtsvariationen zu messen. Da der Verkehr bei Sende - und Zielgeräten mit Hilfe der Responder-Fähigkeit zeitgesteuert ist, ist die Umlaufverzögerung als Delta zwischen den beiden Zeitstempeln gekennzeichnet. Ein neues Merkmal Wurde in IOS 12 3 14 T, IP SLA Sub Millisecond Reporting eingeführt, mit dem Zeitstempel mit einer Auflösung in Mikrosekunden angezeigt werden können, so dass ein Niveau der Granularität nicht vorher vorhanden ist. Diese neue Funktion hat nun IP SLA für Campus-Netzwerke relevant gemacht Netzwerk-Latenz ist in der Regel im Bereich von 300-800 Mikrosekunden und die Fähigkeit, Trends und Spikes kurz Trends auf der Grundlage von Mikrosegment Granularität Zähler zu erkennen ist eine Voraussetzung für Kunden in zeitkritischen elektronischen Handelsumgebungen beschäftigt. Als Ergebnis ist IP SLA ist jetzt Von einer beträchtlichen Anzahl von Finanzorganisationen betrachtet, wie sie alle mit den Anforderungen konfrontiert sind. Melden Sie die Baseline-Latenz zu ihren Benutzern. Trend-Baseline-Latenz im Laufe der Zeit. Reagieren Sie schnell auf Traffic-Bursts, die Änderungen in der gemeldeten Latenz verursachen. Sub-Millisekunden Berichterstattung ist für diese Kunden notwendig, da viele Campus und Backbones derzeit liefern unter einer Sekunde der Latenz über mehrere Switch-Hops Elektronische Handelsumgebungen haben in der Regel gearbeitet, um zu beseitigen oder zu minimieren Alle Bereiche der Geräte - und Netzwerklatenz, um eine schnelle Auftragsabwicklung für das Unternehmen zu gewährleisten. Berichterstattung, dass Netzwerkreaktionszeiten knapp eine Millisekunde betragen, reicht nicht mehr aus, dass die Granularität von Latenzmessungen, die über ein Netzwerksegment oder ein Backbone berichtet werden, näher an 300-800 micro liegen muss - Sekunden mit einer Auflösung von 100 Sekunden. IP SLA hat vor kurzem Unterstützung für IP-Multicast-Testströme hinzugefügt, die die Marktdaten-Latenz messen können. Eine typische Netzwerktopologie ist in Abbildung 11 mit den IP-SLA-Schatten-Routern, Quellen und Respondern dargestellt. Abbildung 11 IP SLA Deploymentputing Servicesputing Services decken eine breite Palette von Technologien ab, mit dem Ziel, Speicher - und CPU-Engpässe zu eliminieren, die durch die Verarbeitung von Netzwerkpaketen entstehen. Trading-Anwendungen verbrauchen hohe Mengen an Marktdaten und die Server müssen Ressourcen für die Verarbeitung von Netzwerkverkehr anstelle von Anwendungsbearbeitung. Transportverarbeitung Bei hohen Geschwindigkeiten kann die Netzwerkpaketverarbeitung eine beträchtliche Anzahl an Server-CPU-Zyklen und Speicher verbrauchen. Eine etablierte Faustregel gibt an, dass 1 Gbps Netzwerkbandbreite 1 GHz Prozessorkapazitätsquelle Intel White Paper auf I O-Beschleunigung erfordert. Zwischenpuffer-Kopieren In einer konventionellen Netzwerk-Stack-Implementierung müssen Daten von der CPU zwischen Netzwerkpuffern und Applikationspuffern kopiert werden. Dieser Overhead wird durch die Tatsache verschlechtert, dass Speicher-Geschwindigkeiten nicht mit steigenden CPU-Geschwindigkeiten behaftet sind. Beispielsweise können Prozessoren wie der Intel Xeon nähert sich 4 GHz, während RAM-Chips rund 400MHz für DDR 3200 Speicherquelle Intel schweben. Kontextumschaltung Jedes Mal, wenn ein einzelnes Paket verarbeitet werden muss, führt die CPU einen Kontextwechsel vom Anwendungskontext zum Netzwerkverkehrskontext durch. Dieser Overhead könnte reduziert werden, wenn der Switch nur dann auftreten würde, wenn der gesamte Anwendungspuffer vollständig ist. Abbildung 12 Quellen des Overhead in Rechenzentrumsserver. TCP Offload Engine TOE verschiebt Transportprozessor-Zyklen auf die NIC Moves TCP IP-Protokoll Stack-Puffer kopiert vom Systemspeicher zum NIC-Speicher. Remote Direct Memory Access RDMA Ermöglicht es einem Netzwerkadapter, Daten direkt von der Anwendung auf die Anwendung zu übertragen, ohne das Betriebssystem einzubringen. Beseitigt Zwischen - und Anwendungspuffer kopiert Speicherbandbreitenverbrauch. Kernel-Bypass Direkter User-Level-Zugriff auf Hardware Dramatisch reduziert Anwendungskontext-Switches. Figure 13 RDMA und Kernel Bypass. InfiniBand ist ein Punkt-zu-Punkt-Switched-Gewebe bidirektionale serielle Kommunikationsverbindung, die RDMA implementiert, unter anderem Cisco bietet einen InfiniBand Switch, der Server Fabric Switch SFS. Figure 14 Typische SFS Deployment. Trading-Anwendungen profitieren von der Verringerung der Latenz - und Latenzvariabilität, wie durch einen Test mit den Cisco SFS - und Wombat-Feed-Handlern durch Stac Research. Application Virtualization Service. De-Kopplung der Anwendung gezeigt wird from the underlying OS and server hardware enables them to run as network services One application can be run in parallel on multiple servers, or multiple applications can be run on the same server, as the best resource allocation dictates This decoupling enables better load balancing and disaster recovery for business continuance strategies The process of re-allocating computing resources to an application is dynamic Using an application virtualization system like Data Synapse s GridServer, applications can migrate, using pre-configured policies, to under-utilized servers in a supply-matches - demand process. There are many business advantages for financial firms who adopt application virtualization. Faster time to market for new products and services. Faster integration of firms following merger and acquisition activity. Increased application availability. Better workload distribution, which creates more head room for processing spikes in trading volume. Operational efficiency and control. Reduction in IT complexity. Currently, application virtualization is not used in the trading front-office One use-case is risk modeling, like Monte Carlo simulations As the technology evolves, it is conceivable that some the trading platforms will adopt it. Data Virtualization Service. To effectively share resources across distributed enterprise applications, firms must be able to leverage data across multiple sources in real-time while ensuring data integrity With solutions from data virtualization software vendors such as Gemstone or Tangosol now Oracle , financial firms can access heterogeneous sources of data as a single system image that enables connectivity between business processes and unrestrained application access to distributed caching The net result is that all users have instant access to these data resources across a distributed network. This is called a data grid and is the first step in the process of creating what Gartner calls Extreme Transaction Processing XTP id 500947 Technologies such as data and applications virtualization enable financial firms to perform real-time complex analytics, event-driven applications, and dynamic resource allocation. One example of data virtualization in action is a global order book application An order book is the repository of active orders that is published by the exchange or other market makers A global order book aggregates orders from around the world from markets that operate independently The biggest challenge for the application is scalability over WAN connectivity because it has to maintain state Today s data grids are localized in data centers connected by Metro Area Networks MAN This is mainly because the applications themselves have limits they have been developed without the WAN in mind. Figure 15 GemStone GemFire Distributed Caching. Before data virtualization, applications used database clustering for failover and scalability This solution is limited by the performance of the underlying database Failover is slower because the data is committed to disc With data grids, the data which is part of the active state is cached in memory, which reduces drastically the failover time Scaling the data grid means just adding more distributed resources, providing a more deterministic performance compared to a database cluster. Multicast Service. Market data delivery is a perfect example of an application that needs to deliver the same data stream to hundreds and potentially thousands of end users Market data services have been implemented with TCP or UDP broadcast as the network layer, but those implementations have limited scalability Using TCP requires a separate socket and sliding window on the server for each recipient UDP broadcast requires a separate copy of the stream for each destination subnet Both of these methods exhaust the resources of the servers and the network The server side must transmit and service each of the streams individually, which requires larger and larger server farms On the network side, the required bandwidth for the application increases in a linear fashion For example, to send a 1 Mbps stream to 1000recipients using TCP requires 1 Gbps of bandwidth. IP multicast is the only way to scale market data delivery To deliver a 1 Mbps stream to 1000 recipients, IP multicast would require 1 Mbps The stream can be delivered by as few as two servers one primary and one backup for redundancy. There are two main phases of market data delivery to the end user In the first phase, the data stream must be brought from the exchange into the brokerage s network Typically the feeds are terminated in a data center on the customer premise The feeds are then processed by a feed handler, which may normalize the data stream into a common format and then republish into the application messaging servers in the data center. The second phase involves injecting the data stream into the application messaging bus which feeds the core infrastructure of the trading applications The large brokerage houses have thousands of applications that use the market data streams for various purposes, such as live trades, long term trending, arbitrage, etc Many of these applications listen to the feeds and then republish their own analytical and derivative information For example, a brokerage may compare the prices of CSCO to the option prices of CSCO on another exchange and then publish ratings which a different application may monitor to determine how much they are out of synchronization. Figure 16 Market Data Distribution Players. The delivery of these data streams is typically over a reliable multicast transport protocol, traditionally Tibco Rendezvous Tibco RV operates in a publish and subscribe environment Each financial instrument is given a subject name, such as Each application server can request the individual instruments of interest by their subject name and receive just a that subset of the information This is called subject-based forwarding or filtering Subject-based filtering is patented by Tibco. A distinction should be made between the first and second phases of market data delivery The delivery of market data from the exchange to the brokerage is mostly a one-to-many application The only exception to the unidirectional nature of market data may be retransmission requests, which are usually sent using unicast The trading applications, however, are definitely many-to-many applications and may interact with the exchanges to place orders. Figure 17 Market Data Architecture. Design Issues. Number of Groups Channels to Use. Many application developers consider using thousand of multicast groups to give them the ability to divide up products or instruments into small buckets Normally these applications send many small messages as part of their information bus Usually several messages are sent in each packet that are received by many users Sending fewer messages in each packet increases the overhead necessary for each message. In the extreme case, sending only one message in each packet quickly reaches the point of diminishing returns there is more overhead sent than actual data Application developers must find a reasonable compromise between the number of groups and breaking up their products into logical buckets. Consider, for example, the Nasdaq Quotation Dissemination Service NQDS The instruments are broken up alphabetically. This approach allows for straight forward network application management, but does not necessarily allow for optimized bandwidth utilization for most users A user of NQDS that is interested in technology stocks, and would like to subscribe to just CSCO and INTL, would have to pull down all the data for the first two groups of NQDS Understanding the way users pull down the data and then organize it into appropriate logical groups optimizes the bandwidth for each user. In many market data applications, optimizing the data organization would be of limited value Typically customers bring in all data into a few machines and filter the instruments Using more groups is just more overhead for the stack and does not help the customers conserve bandwidth Another approach might be to keep the groups down to a minimum level and use UDP port numbers to further differentiate if necessary The other extreme would be to use just one multicast group for the entire application and then have the end user filter the data In some situations this may be sufficient. Intermittent Sources. A common issue with market data applications are servers that send data to a multicast group and then go silent for more than 3 5 minutes These intermittent sources may cause trashing of state on the network and can introduce packet loss during the window of time when soft state and then hardware shorts are being created. PIM-Bidir or PIM-SSM. The first and best solution for intermittent sources is to use PIM-Bidir for many-to-many applications and PIM-SSM for one-to-many applications. Both of these optimizations of the PIM protocol do not have any data-driven events in creating forwarding state That means that as long as the receivers are subscribed to the streams, the network has the forwarding state created in the hardware switching path. Intermittent sources are not an issue with PIM-Bidir and PIM-SSM. Null Packets. In PIM-SM environments a common method to make sure forwarding state is created is to send a burst of null packets to the multicast group before the actual data stream The application must efficiently ignore these null data packets to ensure it does not affect performance The sources must only send the burst of packets if they have been silent for more than 3 minutes A good practice is to send the burst if the source is silent for more than a minute Many financials send out an initial burst of traffic in the morning and then all well-behaved sources do not have problems. Periodic Keepalives or Heartbeats. An alternative approach for PIM-SM environments is for sources to send periodic heartbeat messages to the multicast groups This is a similar approach to the null packets, but the packets can be sent on a regular timer so that the forwarding state never expires. S,G Expiry Timer. Finally, Cisco has made a modification to the operation of the S, G expiry timer in IOS There is now a CLI knob to allow the state for a S, G to stay alive for hours without any traffic being sent The S, G expiry timer is configurable This approach should be considered a workaround until PIM-Bidir or PIM-SSM is deployed or the application is fixed. RTCP Feedback. A common issue with real time voice and video applications that use RTP is the use of RTCP feedback traffic Unnecessary use of the feedback option can create excessive multicast state in the network If the RTCP traffic is not required by the application it should be avoided. Fast Producers and Slow Consumers. Today many servers providing market data are attached at Gigabit speeds, while the receivers are attached at different speeds, usually 100Mbps This creates the potential for receivers to drop packets and request re-transmissions, which creates more traffic that the slowest consumers cannot handle, continuing the vicious circle. The solution needs to be some type of access control in the application that limits the amount of data that one host can request QoS and other network functions can mitigate the problem, but ultimately the subscriptions need to be managed in the application. Tibco Heartbeats. TibcoRV has had the ability to use IP multicast for the heartbeat between the TICs for many years However, there are some brokerage houses that are still using very old versions of TibcoRV that use UDP broadcast support for the resiliency This limitation is often cited as a reason to maintain a Layer 2 infrastructure between TICs located in different data centers These older versions of TibcoRV should be phased out in favor of the IP multicast supported versions. Multicast Forwarding Options. PIM Sparse Mode. The standard IP multicast forwarding protocol used today for market data delivery is PIM Sparse Mode It is supported on all Cisco routers and switches and is well understood PIM-SM can be used in all the network components from the exchange, FSP, and brokerage. There are, however, some long-standing issues and unnecessary complexity associated with a PIM-SM deployment that could be avoided by using PIM-Bidir and PIM-SSM These are covered in the next sections. The main components of the PIM-SM implementation are. PIM Sparse Mode v2. Shared Tree spt-threshold infinity. A design option in the brokerage or in the exchange.

No comments:

Post a Comment