OVH Community, your new community space.

Routing 2011


oles@ovh.net
16.11.10, 23:52
Guten Tag,

einige News zu unseren Plänen für das Routing bei OVH:

- Wie Sie sich vielleicht erinnern können hatten wir geplant, Cisco Nexus
7016 Equipment am Ausgang unserer Datacenter einzusetzen. Bei Tests im
Produktivbetrieb haben wir jedoch festgestellt, dass dieses Gerät beim
Routing für uns nicht stabil genug ist. Es ist sehr gut geeignet für
Switching, aber in Punkto Routing noch nicht weit genug entwickelt. Wir
haben deshalb einige unangenehme Momente verbracht, denn all unsere Pläne
waren plötzlich ins Wasser gefallen. Wir haben deshalb schnellstmöglich
andere Router für Tests bestellt... von Cisco, Juniper und Brocade. Der
erste, den wir erhalten haben, war der Cisco ASR 9010. Da wir nur sehr
wenig Zeit zur Verfügung hatten haben wir diesen sofort getestet, und er
funktioniert (sehr) gut. Wir haben deshalb beschlossen, nicht noch länger
auf eventuell noch besseres Equipment zu warten und den Router Ende
letzter Woche unverzüglich in Produktion genommen. Sie können ihn in der
Weathermap für unser Backbone sehen: asr-g1-a9
http://weathermap.ovh.net/backbone
Der Vorteil dieses Routers ist, dass er für die Auslieferung einer High
Availability Dienstleistung konzipiert wurde. Wir haben etwa 320 Gbit/s
an Kapazität daran angeschlossen und lassen derzeit etwa 150 Gbit/s
durchlaufen. Der Router zeigt sich davon unbeeindruckt... Cool.

Wir haben deshalb sofort einen zweiten Router des gleichen Modells
bestellt, dieser sollte gegen Ende Dezember eintreffen. Dies wird es uns
erlauben, ein zweites Backbone parallel zum derzeitigen einzurichten. Die
Router für das zweite Backbone sind bereits aufgestellt: in Amsterdam
haben wir ams-5-6k eingerichtet und in Frankfurt fra-1-6k hinzugefügt. In
London haben wir etwas Verspätung, da Global Switch keine Racks mehr frei
hat... Wir suchen dafür nach einer Lösung. Aber es wird auch hier mit
einem neuen Router enden. Wir werden diese drei Router dazu nutzen, die
Kapazitäten von Decix und Amsix auf 80 Gbit/s zu verdoppeln. Für LINX
müssen wir uns das demnächst anschauen. Und um das alles in Roubaix
anzubinden erhöhen wir unsere Transportkapazität zwischen Roubaix und
Amsterdam auf 120 Gbit/s und zwischen Roubaix und Frankfurt auf 140
Gbit/s. Und London wird auf 100 Gbit/s ausgebaut. Dann werden wir im
Februar nochmal 40 Gbit/s hinzufügen. Kurz gesagt, einige Entwicklungen
in Richtung Redundanz und High Availability.

Normalerweise sollten wir Ende Dezember / Anfang Januar mit diesem Teil
der Upgrades fertig sein.

- In Folge der Probleme mit den VSS bei OVH 2009/2010 haben wir
beschlossen, unsere Vorgehensweise zu ändern und die Router auf bestimmte
Aufgaben zu spezialisieren. Wir haben deshalb 8 neue Router aufgestellt
(rbx-s1/2/3/.../8), und 4 weitere treffen in Kürze ein. Damit werden wir
die Qualität des Netzwerks besser verwalten können. Wir nutzen dazu die
Infrastruktur, die wir bereits in Roubaix 1 verwendet haben: 2 Router pro
Aufgabe. High Availability also.

- Wir sind dabei, das Netzwerk der HG Server bis zum Ende des 10G Kabels am
Server selbst auf ein High Availability Netzwerk zu upgraden. Dies
bedeutet noch etwa drei Monate Arbeit für uns. Dieses Upgrade wird es uns
erlauben, das HG Angebot offiziell auf 100% Verfügbarkeit umzustellen.
Echte 100% Verfügbarkeit, die Dank der brandneuen Technologien, die wir
Anfang 2010 debuggen "durften" (und die wir bereits beim Shared Hosting
eingerichtet haben, um 6000 Server anzubinden ), sichergestellt
werden. Dieses Upgrade hat es uns jetzt erlaubt, den unbegrenzten Traffic
bei den Shared Hosting Paketen anzukündigen... Wir kennen das Equipment
nun also in- und auswendig und können bestätigen, dass wir die 100%
Verfügbarkeit anbieten können... Das ist eines der grossen Ziele für
2011: "100%" Angebote.

- Parallel dazu haben wir auch umfangreiche Investitionen in die
privateCloud Technologie getätigt. Wir bauen neue Säle in Roubaix 2 auf,
in denen wir Ende Dezember etwa 4000 und Ende Februar etwa 8000 Server
für diese Aufgabe aufstellen werden. Wir verwenden die gleichen Routing-
und Switchingtechnologien, die es uns erlauben werden, 100% Verfügbarkeit
für die pCC (private Cloud Computing) Angebote anzubieten. Das Angebot
durchläuft derzeit einen internen Alphatest. Für den Betatest haben wir
es vorgezogen, die Inbetriebnahme des pCC Angebots auf Mitte Dezember zu
verschieben, wenn wir die ersten 4000 Server erhalten und aufgebaut
haben. Dann werden wir alle diese Server mit mindestens 2 Kabeln mit
einer Vielzahl von Switches mit doppelter HA Konfiguration verbinden, die
wiederum mit hoher Verfügbarkeit mit den Switches für die
Datenaggregation verbunden sind und danach bei mehreren Routern ankommen,
die ständig parallel in einer active/active/active/active Konfiguration
laufen. Kurz gesagt, es hätte keinen Sinn gemacht, einen Betatest dieser
Technologie mit nur 100 oder 200 Servern zu machen, denn das Angebot
erscheint uns extrem interessant, und wir möchten, dass Sie es gleich mit
einer "pCC kostenlos für 5 Tage" Aktion ohne Einschränkungen testen
können. Und dafür brauchen wir "einige" Server. 4000 Maschinen mit 4,8,
16 oder 48 Cores und 16, 32, 64 oder 128 GB RAM + HA-NAS usw. Das sollte
erstmal genügen... denn wenn Sie im Verwaltungsinterface auf "Einen neuen
Server hinzufügen" klicken und dessen Bereitstellung dann länger als 1
Minute dauert, dann ist es kein pCC...

Schon wieder 5 Absätze... für Heute höre ich hier auf

Mit freundlichen Grüssen

Octave