Proxyserver in der Wolke?

Hallo zusammen,

hat schon mal jemand versucht, einen lokalen Proxiserver in die Wolke zu stellen? Ich habe den Verdacht, dass das die Netzlast (VPN) immens reduzieren könnte und würde gerne einen Versuch starten. Kommt sich das mit dem Pico Peering Agreement in die Quere? Immerhin wird ja theoretisch erfasst, welche Daten öfters mal abgerufen werden.

Grüße,

Guido

Hallo Guido,

du kannst ja als internen Dienst einen Proxy anbieten und im Mesh verfügbar machen.
Jeder kann ja frei entscheiden ob er den Dienst nutzen möchte oder nicht.
Da jeder auch zu dem Proxy hin kommen muss wird die Netzlast sich dadurch wohl nicht reduzieren.

Grüße
Thomas

Hallo Thomas,

ich habe mich missverständlich ausgedrückt. Ich meinte natürlich die Cachefunktion eines lokalen Proxies. Wenn die im Gateway eingerichtet ist, würde das schon die Last aufs WAN reduzieren.

Grüße!

Das kannst Du natürlich lokal tun. Allerdings wird der Effekt des Caches bei dem großen Anteil an dynamischen Inhalten im Netz eher gering sein denke ich.

1 „Gefällt mir“

Wo willst du den Proxy genau installieren?

  1. Zwischen Freifunkrouter und Supernode
  2. Zwischen Supernode und Gateway
  3. Zwischen Gateway und Internet

Zu 1: Hier muss eine Firewall auf den Freifunkrouter laufen der Port 80 an den Proxy und nicht an den Supernode weiterleitet. Bei der Lösung wirst du am meisten Geschwindigkeit in der lokalen Wolke bekommen.

Zu 2: Hier gibt es mehr Geschwindigkeit für die Community und das Gateway wird entlastet.

Zu 3: Mehr Geschwindigkeit für alle Communitys und Entlastung des Gateway

Bei 2 und 3 ist es einfacher und günstiger einfach mehr Server bereitzustellen als einen Proxy zu betreuen.

Bei 1 kann man es halt so machen aber einen großen nutzen sehe ich da nicht, es kann nur http und nicht https zwischengespeichert werden. https geht nur wenn du die Zertifikate austauschst und mit einen gültigen ersetzt. YouTube und co kann nicht zuverlässig zwischengespeichert werden. Netflix und co ist verschlüsselt und für Apps braucht es z.B. einen OS X Server. Günstiger wird es halt dann mit mehr VDSL Anschlüsse als Server in die Wolke zu stellen.

Mein Denkansatz ist der der Datensparsamkeit. In diesem Zusammenhang: keine großen Daten weit transportieren zu müssen. Also im Prinzip: Daten innerhalb der Wolke ausliefern, die sich im Netz nicht geändert haben und derzeit oft angefragt werden.

Angefangen von Stylesheets der bekannten Portale und Webseite über jQuery, Openlayers und was weiß ich. Aber auch Updates für Software - sofern das technisch überhaupt möglich ist (wegen genannter Verschlüsselung). Es gibt ja vieles, was auch Servertechnisch aus dem Cache geliefert wird. Das ist alles, was Google gerne von einer „Cookielosen Domain“ haben würde. Das sollte also auch lokal lieferbar sein und wird von Webmastern eh schon beachtet (weil Google dazu rät).

Ich habe bisher noch keine Caching Proxies aufgesetzt, daher frage ich erstmal offen in die Runde, ob es wen mit Erfahrung aus der Praxis gibt.

Es cachen bereits die einzelnen Browser ziemlich gut.
Wenn ich die Effizienz der diversen Proxies anschaue, die ich in den letzten 15 Jahren unter meinen Fittichen hatte: Eigentlich hätte man sich das sparen können. Schneller wird’s dadurch nicht. Das gesparte Volumen erkauft man sich mit schlechter Latenz.