Technischer Aufbau / Durchsatz - nur 50 Mbit/s?

Hallo,

ich wollte Mal anfragen, ob es eigentlich eine Doku zum Rheinland-Backbone gibt, oder ob das aus Vertragsgründen geheim bleiben muss?

Also was man so Gerüchteweise gehört hat, es gibt drei Standorte Düsseldorf, Frankfurt und Berlin, jeweils mit zwei Gigabitroutern. Macht also 6 Gigabit/s.

Die zentrale Frage ist:

  • Wie ausgelastet sind diese?

Wir haben diese Woche Mal den Gateway-Traffic kumuliert und dabei kam raus, dass wir da mit allen Gateways zusammen nie mehr als 50 Mbit/s eingehend bekommen:

Dritte Zeile, zweite Spalte, kumulierter Traffic in Bytes: https://freifunk-muensterland.de/grafana/dashboard/db/gateway-ubersicht

Das ist etwas sehr wenig und wir fragen uns, woran das liegen kann. Klar lahmt unser Netz im Münsterland, weil wir heute Abend die 700er Marke überschritten haben. Aber das kann nicht alles sein, oder?

Mit x86-Knoten bekommen wir locker netto 90 Mbit/s von unserem Gateway zum Knoten (an einem 100 Mbit/s Kabelanschluss). Mitten durch unsere überlasteten Gateways im Regelbetrieb, kein Thema. Aber ins Internet gehen nur maximal 50 Mbit/s. Meist dümpelt es bei ~20 Mbit/s. Wenn ich die Kapazitäten Mal überschlage und überlege, wer da so alles dranhängt, müsste da eigentlich das zehnfache möglich sein (~500 Mbit/s?).

Habt ihr einen Trick, wie man einen Performancetest durch einen GRE-Tunnel machen kann? Wir wissen nicht, wie wir einen iperf durch die GRE-Tunnel ins Rheinland schicken können. Speedtests an den Gateways selbst gehen über unsere IPs raus, das nützt uns nichts. Da kriegen wir >950 Mbit/s durch, ohne Probleme.

Vielleicht habt ihr noch ein paar mehr Informationen. Ich würde einfach gerne Mal den Flaschenhals finden.

Grüße
MPW

Moin,

hast du mal die Endpunkte der Tunnel die nicht performen?
Die Router haben massig freie Kapazität (>>50%).
Wir sehen allerdings sehr merkwürdiges Verhalten bei einem Düsseldorfer Router wenn IPv6 durch den GRE tunnel transportiert wird.
Nach aktuellem Kenntnissstand liegt das Problem beim Upstream unseres Upstreams. Aber das ist noch nicht endgültig geklärt.

Gruß
takt

3 Likes

Das gleiche Problem haben wir im NordWest Bereich ja auch,
per v4 läuft alles nur v6 will nicht so richtig :frowning:

Wo routet ihr denn ipv4 und wo ipv6 in NordWest?

Wie meinst du das?
v4 Speed ist gut, nur v6 lahmt

Ja und wo routet ihr das lang?

Oder konkret: WeserEms liegt zumindest für mich nicht offensichtlich im Rheinland.

Unsere Supernodes haben wine Anbindung ans FFRL Backbone, via GRE zum Routen des Traffics…

Ach so, denn zumindest was Ipv4 anbelangt war das früher mal anders, der ging irgendwie abwechselnd über Schweden-Exits und CCC-Netze.

Bei uns gibt es wohl auch im IPv4 Paketverluste, wir testen das nächste Woche ausführlich.

Grüße
MPW

Also im v4 läuft es einigermaßen. Aber leider kein Vergleich zu andren VPNs… wo habt ihr eure Supernodes?

Es mag an mir liegen, aber langsam bin ich geneigt ärgerlich zu werden.
Aber dann frage ich halt nochmal nach: Was macht der IPv4-Anbieter (es ist auch der Rheinland-Backbone für Freifunk-Nordwest, nehme ich jetzt mal an) so viel besser, dass er gar nicht vergleichbar ist mit „anderen“(?) VPN-Anbietern?

1 Like

Ist bekannt, Techniker ist informiert :wink:

Ist aber nach meinen Informationen ein komisches Problem (unterschiedliches Verhalten auf gleicher Hardware mit gleicher Konfiguration am gleichen Standort am gleichen Switch ), und daher naturgemäß aufwendig zu debuggen.

Ich hatte von @takt aber letztens irgendwo gesehen, dass die Fortschritte gemacht haben…

Sorry, dass ich mich ein wenig unklar ausgedrückt habe. Auf 2 Gateways haben wir Anbindungen zu FFFRL.Sobald der Nutzer Traffic via v4 raus leitet ist alles gut.

Mit v6 haben wir teilweise 600kb max. Geschwindigkeit.

Wenn wir schon Traffic innerhalb von FF routen können, ziehen wir sowas natürlich vor.

Oder hab ich deine Frage wieder nicht verstanden :smiley:

Genau. Primär kippen wir den v4-Traffic über AirVPN ab.

An FFRL haben wir zur Zeit an einem Standort Anbindung an FFRL, an Düsseldorf und Berlin. Selbst direkt auf dem Server gemessen kommen über die Anbindung von einer Kiste bei RRBone 20-30 Mbit maximal durch.

Laut @takt wurde uns damals jeweils eine Range aus Berlin zugewiesen, sodass immer alles über Berlin geroutet wird. Wenn ich die Berlin-Anbindung abschalte, scheint die Geschwindigkeit durchaus etwas besser zu werden.

@takt
Wann könnten wir denn mal die Anbindung auf Fra/Dus umstellen?

Also doch. Danke für die Aufklärung.
Hat also nix mit FFRL zu tun, wenn IPv4 „kein Vergleich“ (was auch immer das jetzt bedeutet, Vorzeichen ist mir nicht klar) sei.

Ich wuerde das ungerne migrieren, da Berlin gerade ein Upgrade verpasst bekommt (20G direkte peering Kapazitaet, ECIX + BCIX) und da auch ein anderer Upstream in der Pipeline ist wodurch sich das Routing dort komplett aendern wird in den naechsten 2 bis 3 Wochen. Dies wird die Situation deutlich verbessern.

Und danach sollte das Problem behoben sein? Gestern gingen direkt via einem GW nur !! 102kb/s per v6 raus. Was da wohl an Routern ankommt… Hast du auch Zugriff auf unser GRE Umzug Ticket? Dies ist nun 3 Wochen offen, da tut sich nichts.

Nein ich glaube dass alles noch viel schlimmer wird -.-

1 Like

Anstatt rumzuheulen solltest du mal belastbares Zahlenmaterial liefern.
Wann von wo nach wo gibts welchen Durchsatz? Wie sieht’s mit Packetloss aus? (min 10000 Pakete bitte)
Das ganze im Tunnel und ausserhalb des Tunnels.
Traceroutes?
Ist eure Supernodes zum Zeitpunkt der Messung ohne Nutztraffic?
Wo stehen eure Supernodes? Besteht das Problem bei allen Supernodes?
Alles bitte mit IPv4 und IPv6.

Wer bist du ueberhaupt? ASN? Tunnelendpunkte?

Sorry, aber immer dieses mimimi alles doof und kaputt und Backbone hat schuld.
Bisher war’s bis auf einen Fall in jedem Fall was anderes.
Ich bin gerne behilflich bei der Fehlersuche (auch innerhalb eures Netzes, bei den Muensteranern liegt ein grossteil des Problems in deren L2 Netz), aber hoer bitte auf dich als Opfer zu stilisieren.

[/rant]
Danke
takt

1 Like

@takt, ich verstehe vollkommen, dass du genervt bist. Also, @stefan6 ist auch bei FFNW.

Aktive Tunnelendpunkte zur Zeit
185.66.193.1 und 185.66.195.1
Die damit verbundene Supernode ist 5.104.106.134 und hat bei euch die IP 185.66.195.3.
Ich liefere nachher mal weitere Werte.

@stefan6, reiß dich doch bitte mal etwas zusammen. Du tust uns keinen Gefallen, wenn du ohne irgendwelche konkreten Anhaltspunkte rumjammerst. Ich bin selbst von den Geschwindigkeitsproblemen genervt, aber auch an einer konstruktiven Problemlösung interessiert.

1 Like