Wegfall der Störerhaftung - Technische Änderungen an der Infrastruktur

Hallo,

wir wissen exakt wie viel Traffic von uns in welches Netz fließt und wo der eingehende Traffic herkommt.
Das müssen wir auch zwecks Netzplanung. Google/Youtube verursachen grob 50% des Traffics in AS201701.
Wir haben direkte BGP sessions unter anderen mit Google, Facebook, Amazon, Netflix, Microsoft, Apple, uvm.
Keiner unserer Links hat eine Auslastung über 10%.
Use moar bandwidth.

Ende der Durchsage.

takt

P.S. Jeder unserer POPs verfügt gegenwärtig über 13 bis 32 Gbit/s externe Bandbreite. In Summe sind es aktuell 66Gbit/s, Ausbau auf 77Gbit/s ist geplant und erfolgt in den nächsten Wochen.

9 „Gefällt mir“

Man kann natürlich akademisch korrekt eine Tiefenanalyse betreiben - kann man machen.

Man kann aber auch einfach ganz pragmatisch herangehen und sich auf solche Angaben als grobe Richtschnur heranwagen. https://de.statista.com/infografik/1628/die-groessten-trafficfresser-europas/

So groß wird die Abweichung der Freifunk-Nutzenden zu den anderen Internetnutzern nicht sein.

1 „Gefällt mir“

sind wir in einer Kirche oder machen wir fundierte technisch Lösungen, die auf Wissen gründen?
Jegliche Polemik ist bei so was fehl.

…wir wissen, dass ein erheblicher Anteil Youtube & Co.-Traffic sind. Wir wissen sogar den ungefähren Anteil.

Willst Du es auf die Kommastelle genau oder reicht Dir das nicht?

(Oder tippelst nur einfach gern umfangreich Texte in Foren zum Selbstzweck? - Man könnte fast den Eindruck gewinnen)

3 „Gefällt mir“

was soll diese dumme persönliche Anmache?

Du weisst NICHT, wie hoch der Anteil bzw der absolute Durchsatz für diese evtl. kritischen Ziele bei uns (FF) ist.
Du GLAUBST nur, dass es bei FF gleich ist, wie weltweit.

er hat das posting von Takt gelesen.

5 „Gefällt mir“

Übrigens finde ich haben wir ganz andere Probleme als solche die sich durch lokale Trafficausleitung lösen ließen.
Zwischen Node, Supernode und Backbone befindet sich so gut wie nie ein Flaschenhals.

Der limitierende Faktor ist der Bedarf an CPU-Zeit auf den Nodes (ich denke an die vielen 841er) bei gleichzeitig hohem Bedarf an selbiger durch Verwendung von:

  1. User Space VPNs (fastd)
  2. Cryptographie
  3. Broadcast Müll durch große Broadcast Domänen
  4. Große BATMAN Wolken

Ein weiteres Problem ist oft ein Mangel an Air Time.

Das sind Probleme die dringend adressiert werden müssen um eine zuverlässige Verwendbarkeit der Netze zu gewährleisten. Schaut man sich unter ffrl.de die Graphen an kann man klar erkennen, dass die verwendete Bandbreite für einen Großteil des Tages mehr oder weniger eine Konstante ist. Das spiegelt kein normales Nutzerverhalten wieder, sondern zeigt ganz klar, dass es Flaschenhälse gibt.

3 „Gefällt mir“

@Pinky

Fassen wir zusammen der theoretisch ausleitbarer Traffic liegt oberhalb der 50% Marke.

ok, also, wenn ich recht verstehe, gibt es unter diesen „Kandidaten“ keine(n), der/die besonders hervorstich/stechen.
fehlt also eine für Windoofer wie mich verständliche Anleitung, wie man das mit seinem FF-Router, der am der Fritzbox hängt, macht.

Und wie ich ausgeführt habe ist die Ausleitung dieses Traffics schlicht nicht relevant.
Es wird ein nicht existentes Problem diskutiert.

1 „Gefällt mir“

Aber es geht doch in diesem Thread nicht um den Sinn einer Änderung, sondern nur um die technische Möglichkeit. :wink:

Technisch war das alles auch vorher bereits möglich.

1 „Gefällt mir“

vielleicht bei euch nicht, aber wenn ich an einem 50 Mbit/s Anschluss über FF am Offloader nur 12 beomme, statt 48 wie vor einem Jahr, dann muss da ja irgend was sein, was den Durchsatz heute bremst und vor einem Jahr nicht oder schwächer war. Der Router ist derselbe, der Offloader ist derselbe, der Anschluss ist derselbe.
Und damit könnte, wenn es u.a. am Traffic liegt, sehr wohl ein Sinn in einer solchen technischen Lösung bestehen, d.h. das Problem ist nicht nichtexistent, sondern zumindest regional sehr wohl existent.

Das Problem ist in diesem Fall wahrscheinlich ein mix aus Broadcast, fastd, CPU auf Supernode.

Naja zwei Sachen dazu:

  1. Es gibt ja durchaus genug Communities die nicht (oder nur teilweise?) am FFRL-Backbone hängen. Gerade in den Raum in dem ich aktiv bin ist das eher die Regel als die Ausnahme.
  2. Selbst wenn man in einer Community ist die am FFRL-Backbone hängt. Das Problem mag aus deiner Sicht nicht existent sein, die Sache ist aber das es trotzdem existiert. Das Backbone mag die Kapitzitäten frei haben. Die Consumer Router und die Gateways in der jetzigen Hardware/Software Kombination allerdings nicht. Wenn das Backbone 1 TB/s Außenanbindung hat bekomme ich trotzdem nicht mehr durch die Router, Tunnel und Gateways.

Korrekt. Die Aenderung ist die Groesse der Netze und der damit einhergehende BATMAN overhead. Der ist zu gross. Da hilft auch keine lokale Ausleitung.

DIe Ursache fuer den geringen Durchsatz ist ein Mangel an CPU Ressourcen auf den Nodes. Dieser kommt zustande durch zu grosse BATMAN Mesh Netze. Ergo muss die CPU Last gedrueckt werden. Lokale Ausleitung hilft nicht die CPU Grundlast auf Nodes zu reduzieren.

Nochmal: Der Flaschenhals ist die Node CPU und nicht die Konnektivitaet zwischen Node/Supernode/Backbone.

1 „Gefällt mir“

diese Begründujng ist mir schlicht unverständlich:
damals ca. 400 Nodes, heute 300
damals Intel 3i als Offloader mit 2% Last und 1043er mit 1% Last, heute dasselbe.
Die Node CPU hat nicht zu tun. WIeso die daran Schuld sein soll, ist mir unklar.

Mag ja bei Euch anders sein.

Aha. Und die Supernodes?

da steht nichts von Supernodes, sondern Nodes, also das Ding bei mir

DIe Ursache fuer den geringen Durchsatz ist ein Mangel an CPU Ressourcen auf den Nodes

und wenn es (nur) die Supernodes sind, ergibt sich aber auch die Frage, wieso bei 400 angeschlossenen Nodes voriges Jahr es besser war als heute mit 300 Nodes.
Aber das muss mir dann hier jemand erklären, der mehr von davon versteht, als ich und der die konkrete Netzstruktur kennt. @PetaByteBoy (Jedenfalls ich will die 50 Mbit/s wieder haben :wink: )