Performance Thread Ruhrgebiet

Das ist eigentlich kein Problem, da die bssid sich unterscheidet und es deshalb nicht mesht.

Wenn du ganz auf der sicheren Seite sein willst, dann änderst Du noch die SSID auf "Freifunk Ruhrgebiet" o.Ä., damit Clients nicht versehentlich in das Netz wechseln können.

In lustiger Runde wurde gestern angeregt, eine „Sandkasten-Domain“ einzurichten.
Also eine, in der NUCs, Alix-Boards, Cubietrucks, handgebriegelte OpenWRTs etc. getestet werden können. Ohne dass gleich das Livenetzwerk zusammenklappt, wenn irgendwer falsche Routen announced versehentlich wegen einer bridge-Fehlconfig.

2 „Gefällt mir“

Halte ich für eine ausgezeichnete Idee!

Was auch immer gerade wieder mit dem Alfred los ist… es ist nicht so schön.

DNS ist auch ausgefallen
Via IP-Addr. gehts ins Internet . zumindest ipv4

root@FF-WIT-HLX:~# ping 8.8.8.8
PING 8.8.8.8 (8.8.8.8): 56 data bytes
64 bytes from 8.8.8.8: seq=0 ttl=58 time=23.953 ms

Map kommt gleich wieder, ich aktualisiere die Alfred Versionen.

DNS ist nicht ausgefallen, der rappelt fleissig vor sich hin, ein Problem des Endgeräts?!

Jetzt gehts wieder.
eben definitiv nicht. - naja…kein Problem.

Gestern haben @thomasDOTwtf und ich zur Redundanz, wie bereits angekündigt, noch zwei weitere Supernodes ins Rheinland Backbone genommen.

Da das Routing im Ruhrgebiet komplett dynamisch läuft habe ich nun Prioritäten im BGP auf den Supernodes eingeführt. Dadurch wird es natürlich nun ein wenig komplexer darzustellen, welche Supernode über welche Backbone Supernode läuft.

Um es dennoch nachvollziehen zu können habe ich folgende Tabelle für euch erstellt. Links stehen die Backbone Supernodes, oben die BGP Ziele unserer Backbone Standorte sowie alle Supernodes.

In den Feldern, in denen Zahlen stehen, bedeutet dies, dass diese Verbindung zum Routen genutzt wird, je niedriger die Zahl (BGP MED Wert) desto eher wird diese Route genutzt, solange sie zur Verfügung steht.

1 „Gefällt mir“

Macht es nicht mehr Sinn die Priorität von ffrg4 oder ffrg2 zu 1432 zu ändern? Sonst sind bei einem Ausfall von ffrg0 drei (+ffrg1) Supernodes auf ffrg1 und auf ffrg 5 und 6 nur jeweils einer (bzw. 2). Oder sind 0 und 1 Leistungsfähiger als 5 und 6?

ffrg5 und ffrg6 sind leistungsfähiger als ffrg0 und ffrg1, entsprechend macht es Sinn das zu ändern…

Ich glaube ffrg5.freifunk.ruhr macht gerade Probleme:

Es gibt da überhaupt keine Route für um zwischen den Backbone Supernodes hin und her zu routen, das finde ich jetzt mal sehr übberraschend:

bird> show route 0.0.0.0/0
0.0.0.0/0          via 100.64.0.68 on bb-fra [fra 01:09:02] * (100/0) [AS201701i]
                   via 100.64.0.70 on bb-dus [dus 01:08:59] (100/0) [AS201701i]

.

@ffrg5:/etc/bird# ip r s t 42 | grep def
default via 100.64.0.68 dev bb-fra  proto bird

10.53.56.1 ist mein default-gw

psi@parossi:~$ ip route
default via 10.53.56.1 dev wlan0 proto static
10.53.0.0/16 dev wlan0 proto kernel scope link src 10.53.61.56 metric 9
192.168.122.0/24 dev virbr0 proto kernel scope link src 192.168.122.1
psi@parossi:~$ arp -an
? (10.53.48.1) auf 04:bf:ef:ca:ff:12 [ether] auf wlan0
? (10.53.56.1) auf 04:bf:ef:ca:ff:4e [ether] auf wlan0

Der schickt (vielleicht) icmp-redirects, dass ich mich gleich an 10.53.48.1 wenden soll, denn die 56 routet eh zu 48. So vielleicht?

Setze ich das default-gw um, funktioniert alles viel besser …

Derzeit sagt mein Knoten übrigens:

mesh_vpn_backbone_peer_ruhrgebiet2: connected for 294183.989 seconds
mesh_vpn_backbone_peer_ruhrgebiet4: connected for 109228.948 seconds

Jetzt habe ich mich tatsächlich einen Moment lang irritieren lassen, die 10.53.56.1 ist nicht ffrg5, sondern ffrg4

Ich prüfe noch einmal, moment…

So, ffrg4 war der letzte Server, der die neue BGP Config noch nicht hatte.

Nachdem ich diese eingespielt habe ist er nun auf eine andere Verbindung gegangen:

bird> show route
0.0.0.0/0          via 10.53.64.1 on br0 [ffrg5 21:17:39] * (100/0) [AS201701i]
                   via 10.53.48.1 on br0 [ffrg1 21:17:41] (100/0) [AS201701i]
                   via 10.53.40.1 on br0 [ffrg0 21:17:41] (100/0) [AS201701i]
                   via 10.53.72.1 on br0 [ffrg6 21:17:39] (100/0) [AS201701i]

.

# ip r s t 42 | grep def
default via 10.53.64.1 dev br0  proto bird

Wenn Du magst könntest Du noch mal gegenprüfen wie es nun aussieht…

Und dann habe ich noch folgendes Problem:

Am Server ist ipv6 default route via:

root@ffwaf-srv1:~# ip -6 route show 2001:4860:4860::8888
root@ffwaf-srv1:~# ip -6 route show default
default via fe80::ac53:ceff:fe18:d542 dev br0 proto kernel metric 1024 expires 1793sec
default via fe80::7c13:4fff:fe79:3742 dev br0 proto kernel metric 1024 expires 1790sec
default via fe80::60c8:d7ff:fe9a:5063 dev br0 proto kernel metric 1024 expires 1792sec

hier:

root@ffwaf-srv1:~# ip -6 neigh show | grep fe80::ac53:ceff:fe18:d542
fe80::ac53:ceff:fe18:d542 dev br0 lladdr 04:be:ef:ca:ff:07 router STALE
root@ffwaf-srv1:~# batctl gwl
Gateway (#/255) Nexthop [outgoingIF]: gw_class … [B.A.T.M.A.N. adv 2013.4.0, MainIF/MAC: tap0/e2:2f:9e:63:b8:ff (bat0)]
02:bf:ef:ca:fe:4b (255) 04:bf:ef:ca:fe:4b [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:4a (255) 04:bf:ef:ca:fe:4a [ tap0]: 207 - 48MBit/48MBit
04:bf:ef:ca:fe:4c (255) 04:bf:ef:ca:fe:4c [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:4e (255) 04:bf:ef:ca:fe:4e [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:11 (251) 04:bf:ef:ca:fe:11 [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:4d (255) 04:bf:ef:ca:fe:4d [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:04 (252) 04:bf:ef:ca:fe:04 [ tap0]: 207 - 48MBit/48MBit
02:bf:ef:ca:fe:01 (225) 04:bf:ef:ca:fe:4d [ tap0]: 207 - 48MBit/48MBit
04:bf:ef:ca:fe:05 (236) 04:bf:ef:ca:fe:05 [ tap0]: 207 - 48MBit/48MBit
04:bf:ef:ca:fe:12 (255) 04:bf:ef:ca:fe:12 [ tap0]: 207 - 48MBit/48MBit
root@ffwaf-srv1:~# batctl tr 04:be:ef:ca:ff:07
traceroute to 04:be:ef:ca:ff:07 (04:be:ef:ca:fe:07), 50 hops max, 20 byte packets
1: 04:bf:ef:ca:fe:4c 6.365 ms 8.447 ms 4.572 ms
2: 04:be:ef:ca:fe:07 67.386 ms 19.950 ms 20.532 ms
root@ffwaf-srv1:~# batctl tr 04:be:ef:ca:ff:07

Und dann leider:

root@ffwaf-srv1:~# batctl ping 04:be:ef:ca:ff:07
PING 04:be:ef:ca:ff:07 (04:be:ef:ca:fe:07) 20(48) bytes of data
20 bytes from 04:be:ef:ca:ff:07 icmp_seq=1 ttl=49 time=18.35 ms
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
20 bytes from 04:be:ef:ca:ff:07 icmp_seq=7 ttl=49 time=426.95 ms
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
20 bytes from 04:be:ef:ca:ff:07 icmp_seq=10 ttl=49 time=23.66 ms
20 bytes from 04:be:ef:ca:ff:07 icmp_seq=11 ttl=49 time=35.30 ms
Reply from host 04:be:ef:ca:ff:07 timed out
Reply from host 04:be:ef:ca:ff:07 timed out
^C— 04:be:ef:ca:ff:07 ping statistics —
14 packets transmitted, 4 received, 71% packet loss
rtt min/avg/max/mdev = 18.351/126.064/426.946/173.822 ms

Vielleicht habe ich nur ein gefühltes Problem?

Moin,
ich habe heute über verschiedene Endgeräte und verschiedene Uplinks, die über unterschiedliche Provider laufen (Telekom, 1&1,…) effektiv kein Internet weil riesig Packet loss, bis zu 95% effektiv habe ich das router verteile und bewerben temporär ausgesetzt, da ich nicht prüfen kann ob eine Installation vor ort erfolgreich war, da ich über Freifunk nicht ins Internet komme. Auch Pings auf 8.8.8.8 laufen nicht.

Naja, das MeshVPN das Du nutzt (das schließe ich jetzt mal aus Deiner Schilderung) läuft per UDP zwischen Node und Supernode.
Wenn du da jetzt dermaßen Packetloss (besser: Packet-Survival) hast bei Deinem Internetprovider, dann kann auch Freifunk das nicht mehr heilen.
Das sind dann wohl vermutlich alles Telekom/Tonline-Resale/Interconnect-Anschlüsse, wenn sowohl TOnline wie auch 1&1 betroffen sind. Also das was man gemeinhin als „Großraumstörung“ bezeichnet.
, dann

Ähm, ich habe an den Anschlüssen null packet loss, wenn ich nativ rein gehe, aber über Freifunk is dann halt Schicht im Schacht. Ich hab das atm an 3 Anschlüssen unabhängig voneienander und die liegen mal eben 100km auseinander. Also bin ich mir recht sicher, dass es nicht an einem Provider liegt sondern an FF.