Sticky Session mit Docker Swarm (CE) auf Debian 9

Einführung

Docker Swarm verwandelt Ihre einzelnen Server in einen Computercluster. Erleichterung der Skalierung, Hochverfügbarkeit und des Lastausgleichs. Der Swarm-Load-Balancer implementiert eine Round-Robin-Load-Balancing-Strategie. Dies kann das ordnungsgemäße Funktionieren von (Legacy-) Stateful-Anwendungen beeinträchtigen, für die eine Form von Sticky-Sessions erforderlich ist, um ein hochverfügbares Setup mit mehreren Instanzen zu ermöglichen. Docker Enterprise Edition unterstützt Layer-7-Sticky-Sessions. In diesem Handbuch konzentrieren wir uns jedoch auf die kostenlose (CE) Version von Docker. Um Sticky Sessions zu implementieren, verwenden wir Traefik.

Voraussetzungen

  • Mindestens zwei neu bereitgestellte und aktualisierte Debian 9-Instanzen im selben Subnetz mit aktiviertem privaten Netzwerk
  • Docker CE wurde auf diesen Instanzen installiert
  • Die Instanzen sollten Teil desselben Schwarms sein und über das private Netzwerk miteinander kommunizieren können
  • Vorkenntnisse in Docker und Docker Swarm
  • Ein Nicht-Root-Benutzer mit sudoRechten (optional, es wird jedoch dringend empfohlen, den Root-Benutzer nicht zu verwenden).

In diesem Tutorial verwenden wir zwei Vultr-Instanzen mit privaten IP-Adressen 192.168.0.100und 192.168.0.101. Beide sind Docker Swarm-Manager-Knoten (was nicht ideal für die Produktion ist, aber für dieses Tutorial ausreicht).

Wer bin ich

In diesem Tutorial wird das jwilder/whoamiDocker-Image als Demo-Anwendung verwendet. Dieser einfache Container antwortet auf einen REST-Aufruf mit dem Namen des antwortenden Containers, wodurch es sehr einfach ist zu testen, ob die Sticky-Sitzungen funktionieren. Dieses Bild wird offensichtlich nur für Demozwecke verwendet und muss durch das Bild Ihrer eigenen Anwendung ersetzt werden.

Der whoami-Service ist wie folgt konfiguriert:

sudo docker network create whoaminet -d overlay
sudo docker service create --name whoami-service --mode global --network whoaminet --publish "80:8000"  jwilder/whoami
sudo iptables -I INPUT 1 -p tcp --dport 80 -j ACCEPT

Wenn wir anschließend curlden whoami-REST-Endpunkt an haben http://192.168.0.100/, können wir den Round-Robin-Lastausgleich von Docker Swarm bei der Arbeit sehen:

curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3

Es macht keinen Sinn, dies mit modernen Browsern wie Chrome oder Firefox zu testen, da sie so konzipiert sind, dass Verbindungen am Leben bleiben, und der Docker Swarm Load Balancer nur bei jeder neuen Verbindung zum anderen Container wechselt . Wenn Sie dies mit einem Browser testen möchten, müssen Sie mindestens 30 Sekunden warten, bis die Verbindung geschlossen ist, bevor Sie erneut aktualisieren.

Traefik einrichten

Traefik unterstützt Docker Swarm nativ, kann Container im laufenden Betrieb erkennen und registrieren oder die Registrierung aufheben und kommuniziert mit Ihrer Anwendung über das interne Overlay-Netzwerk. Traefik benötigt einige Informationen zu Ihrer Anwendung, bevor es Anfragen bearbeiten kann. Diese Informationen werden Traefik durch Hinzufügen von Etiketten zu Ihrem Swarm-Service zur Verfügung gestellt:

sudo docker service update --label-add "traefik.docker.network=whoaminet" --label-add "traefik.port=8000" --label-add "traefik.frontend.rule=PathPrefix:/" --label-add "traefik.backend.loadbalancer.stickiness=true" whoami-service

Die folgende Liste beschreibt, was jedes Etikett bedeutet:

  • traefik.docker.network : Das Docker-Overlay-Netzwerk, über das Traefik mit Ihrem Dienst kommuniziert
  • traefik.port : Der Port, an dem Ihr Dienst empfangsbereit ist (dies ist der intern exponierte Port, nicht der veröffentlichte Port).
  • traefik.frontend.rule: PathPrefix:/ bindet den Kontextstamm ' /' an diesen Dienst
  • traefik.backend.loadbalancer.stickiness : Aktiviert Sticky Sessions für diesen Dienst

Nun , da das whoami-servicehat mit den erforderlichen Etiketten konfiguriert wurde, können wir die Traefik Service zum Schwarm hinzu:

sudo docker service create --name traefik -p8080:80 -p9090:8080 --mount type=bind,source=/var/run/docker.sock,destination=/var/run/docker.sock --mode=global --constraint 'node.role == manager' --network whoaminet traefik --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG

Dieser Befehl erledigt eine Menge Dinge gleichzeitig, wie in der folgenden Liste gezeigt:

  • --name traefik : Der Name unseres neuen Docker-Dienstes lautet Traefik
  • -p8080:80: Wir veröffentlichen Traefiks Port 80zu Port, 8080da der Port 80bereits von unserem Whoami-Service genutzt wird
  • -p9090:8080 : Wir veröffentlichen Traefiks eigenes Webinterface für den Port 9090
  • --mount ... : Wir montieren den Docker Socket in den Container, damit Traefik auf die Docker-Laufzeit des Hosts zugreifen kann
  • --global : Wir möchten aus Hochverfügbarkeitsgründen Traefik-Container auf jedem Manager-Knoten
  • --constraint 'node.role == manager': Wir möchten, dass Traefik nur auf Manager-Knoten ausgeführt wird, da Worker-Knoten Traefik nicht mit den erforderlichen Informationen versorgen können. Zum Beispiel docker service lsauf einem Arbeiter Knoten nicht funktioniert, so Traefik würde nicht einmal in der Lage sein , zu entdecken , was Dienste ausgeführt werden
  • --network whoaminet: Verbinden Sie Traefik mit demselben Netzwerk wie unser whoami-service, andernfalls kann es keine Verbindung herstellen. Wir haben Traefik zuvor angewiesen, über dieses Netzwerk mit dem traefik.docker.networkLabel eine Verbindung zu unserem Service herzustellen
  • traefik : Weisen Sie Docker an, das neueste Traefik-Docker-Image für diesen Dienst zu verwenden
  • --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG: Befehlszeilenargumente, die direkt an Traefik übergeben wurden, damit es im Docker-Schwarmmodus ausgeführt werden kann. DEBUGist hier optional, aber während des Setups und für dieses Tutorial interessant

Sie müssen nur noch die erforderlichen Ports in der Debian-Firewall öffnen:

sudo iptables -I INPUT 1 -p tcp --dport 8080 -j ACCEPT
sudo iptables -I INPUT 1 -p tcp --dport 9090 -j ACCEPT

Wie es funktioniert

Sobald Traefik startet, können Sie in den Protokollen sehen, dass Traefik die beiden whoamiContainer entdeckt. Es gibt auch den Cookie-Namen aus, mit dem die Sticky-Sitzung behandelt wird:

time="2018-11-25T13:17:30Z" level=debug msg="Configuration received from provider docker: {\"backends\":{\"backend-whoami-service\":{\"servers\":{\"server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05\":{\"url\":\"http://10.0.0.5:8000\",\"weight\":1},\"server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6\":{\"url\":\"http://10.0.0.4:8000\",\"weight\":1}},\"loadBalancer\":{\"method\":\"wrr\",\"stickiness\":{}}}},\"frontends\":{\"frontend-PathPrefix-0\":{\"entryPoints\":[\"http\"],\"backend\":\"backend-whoami-service\",\"routes\":{\"route-frontend-PathPrefix-0\":{\"rule\":\"PathPrefix:/\"}},\"passHostHeader\":true,\"priority\":0,\"basicAuth\":null}}}"
time="2018-11-25T13:17:30Z" level=debug msg="Wiring frontend frontend-PathPrefix-0 to entryPoint http"
time="2018-11-25T13:17:30Z" level=debug msg="Creating backend backend-whoami-service"
time="2018-11-25T13:17:30Z" level=debug msg="Adding TLSClientHeaders middleware for frontend frontend-PathPrefix-0"
time="2018-11-25T13:17:30Z" level=debug msg="Creating load-balancer wrr"
time="2018-11-25T13:17:30Z" level=debug msg="Sticky session with cookie _a49bc"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05 at http://10.0.0.5:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6 at http://10.0.0.4:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating route route-frontend-PathPrefix-0 PathPrefix:/"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :80"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :8080"

Wenn wir http://192.168.0.100:8080uns zusammenrollen, können wir sehen, dass ein neuer Cookie _a49bcgesetzt wurde:

curl -v http://192.168.0.100:8080
* About to connect() to 192.168.0.100 port 8080 (#0)
*   Trying 192.168.0.100...
* Connected to 192.168.0.100 (192.168.0.100) port 8080 (#0)
> GET / HTTP/1.1
> User-Agent: curl/7.29.0
> Host: 192.168.0.100:8080
> Accept: */*
>
< HTTP/1.1 200 OK
< Content-Length: 17
< Content-Type: text/plain; charset=utf-8
< Date: Sun, 25 Nov 2018 13:18:40 GMT
< Set-Cookie: _a49bc=http://10.0.0.5:8000; Path=/
<
I'm a6a8c9294fc3
* Connection #0 to host 192.168.0.100 left intact

Wenn wir dieses Cookie bei späteren Anrufen an Traefik senden, werden wir immer an denselben Container weitergeleitet:

curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3

Das Cookie enthält nur die interne IP-Adresse des Containers, an den Traefik eine Anfrage senden soll. Wenn Sie den Cookie-Wert in ändern http://10.0.0.4:8000, wird die Anforderung effektiv an den anderen Container weitergeleitet. Wenn das Cookie niemals erneut an Traefik gesendet wird, funktioniert die Sticky-Sitzung nicht und die Anforderungen werden zwischen den Containern der Anwendung und den Traefik-Containern ausgeglichen.

Das ist alles, was benötigt wird, um Layer 7 Sticky Sessions in Docker CE unter Debian 9 einzurichten.



Leave a Comment

Installieren von Docker unter Ubuntu 14.04

Installieren von Docker unter Ubuntu 14.04

Verwenden Sie ein anderes System? Docker ist eine Anwendung, mit der Programme bereitgestellt werden können, die als Container ausgeführt werden. Es wurde im beliebten Go-Programm geschrieben

Stellen Sie eine PHP-Anwendung mit Docker-compose bereit

Stellen Sie eine PHP-Anwendung mit Docker-compose bereit

PHP-Anwendungen bestehen normalerweise aus einem Webserver, einem relationalen Datenbanksystem und dem Sprachinterpreter selbst. In diesem Tutorial werden wir Hebel einsetzen

Installieren Sie Rancher Server unter RancherOS

Installieren Sie Rancher Server unter RancherOS

Übersicht RancherOS ist ein unglaublich leichtes Betriebssystem (nur ca. 60 MB), auf dem ein System-Docker-Daemon als PID 0 zum Ausführen von Systemdiensten ausgeführt wird

Verwendung von Docker: Erstellen Ihres ersten Docker-Containers

Verwendung von Docker: Erstellen Ihres ersten Docker-Containers

In diesem Tutorial werden die Grundlagen für den Einstieg in Docker erläutert. Ich gehe davon aus, dass Sie Docker bereits installiert haben. Die Schritte in diesem Tutorial funktionieren an einem

Lastausgleich mit Docker

Lastausgleich mit Docker

Wenn Sie eine Webanwendung ausführen, möchten Sie normalerweise Ihre Ressourcen optimal nutzen, ohne Ihre Software für die Verwendung von Multithreading konvertieren zu müssen

Richten Sie unter CoreOS Ihre eigene Docker-Registrierung ein

Richten Sie unter CoreOS Ihre eigene Docker-Registrierung ein

Wir alle kennen und lieben Docker, eine Plattform zum Erstellen, Verwalten und Verteilen von Anwendungscontainern auf mehreren Computern. Docker Inc. bietet einen Service t

Stellen Sie eine Node.js-Anwendung mit Docker bereit

Stellen Sie eine Node.js-Anwendung mit Docker bereit

Dieser Artikel zeigt Ihnen, wie Sie Ihre Knotenanwendung in einem Docker-Container bereitstellen. Hinweis: In diesem Lernprogramm wird davon ausgegangen, dass Docker installiert und gelesen ist

Installieren von Docker unter CentOS 7

Installieren von Docker unter CentOS 7

Verwenden Sie ein anderes System? Docker ist eine Anwendung, die die Bereitstellung von Software in virtuellen Containern ermöglicht. Es wurde im Go-Programm geschrieben

Installieren Sie Rancher OS über iPXE

Installieren Sie Rancher OS über iPXE

Rancher OS ist eine sehr leichte Linux-Distribution, die auf Docker basiert. Das Betriebssystem selbst wiegt etwa 20 MB. Mit diesem Tutorial können Sie loslegen

Richten Sie Sentry über Docker unter Ubuntu 16.04 ein

Richten Sie Sentry über Docker unter Ubuntu 16.04 ein

Verwenden Sie ein anderes System? Einführung Sentry ist eine Open Source-Lösung für die Fehlerverfolgung. Sentry verfolgt Ausnahmen und andere nützliche Nachrichten

Stellen Sie Kubernetes mit Kubeadm unter CentOS 7 bereit

Stellen Sie Kubernetes mit Kubeadm unter CentOS 7 bereit

Übersicht Dieser Artikel soll Ihnen helfen, einen Kubernetes-Cluster in kürzester Zeit mit kubeadm zum Laufen zu bringen. In diesem Handbuch werden zwei Server bereitgestellt

Docker-Compose unter CoreOS installieren

Docker-Compose unter CoreOS installieren

Dieser Artikel erklärt, wie Docker-Compose unter CoreOS installiert wird. In CoreOS ist der Ordner / usr / unveränderlich, sodass der Standardpfad / usr / local / bin für nicht verfügbar ist

So installieren Sie Harbor unter CentOS 7

So installieren Sie Harbor unter CentOS 7

Harbor ist ein Open-Source-Registrierungsserver der Enterprise-Klasse, auf dem Docker-Images gespeichert und verteilt werden. Harbour erweitert die Open Source Docker Distribution b

Installieren Sie Docker CE unter Ubuntu 18.04

Installieren Sie Docker CE unter Ubuntu 18.04

Einführung Docker ist eine Anwendung, mit der wir Programme bereitstellen können, die als Container ausgeführt werden. Es wurde in der beliebten Programmiersprache Go geschrieben

Erste Schritte mit Kubernetes unter CentOS 7

Erste Schritte mit Kubernetes unter CentOS 7

Kubernetes ist eine Open-Source-Plattform, die von Google für die Verwaltung von Containeranwendungen auf einem Servercluster entwickelt wurde. Es baut auf einem Jahrzehnt auf und

Erste Schritte mit SQL Server 2017 (MS-SQL) unter CentOS 7 mit Docker

Erste Schritte mit SQL Server 2017 (MS-SQL) unter CentOS 7 mit Docker

Voraussetzungen Docker Engine 1.8+. Mindestens 4 GB Speicherplatz. Mindestens 4 GB RAM. Schritt 1. Docker installieren Um SQL-Server zu installieren, muss Docker mus

LXC-Container unter Ubuntu 14.04 sicher bereitstellen und verwalten

LXC-Container unter Ubuntu 14.04 sicher bereitstellen und verwalten

LXC-Container (Linux-Container) sind eine Betriebssystemfunktion unter Linux, mit der mehrere isolierte Linux-Systeme auf einem einzigen Host ausgeführt werden können. Thes

Installieren Sie Rancher unter Ubuntu 16.04

Installieren Sie Rancher unter Ubuntu 16.04

Verwenden Sie ein anderes System? Einführung Rancher ist eine Open Source-Plattform zum Ausführen von Containern und zum Erstellen eines privaten Containerservices. Rancher ist Basis

Erstellen Sie einen Docker Swarm unter Alpine Linux 3.9.0

Erstellen Sie einen Docker Swarm unter Alpine Linux 3.9.0

Einführung In diesem Handbuch erfahren Sie, wie Sie einen Docker-Schwarm mit mehreren Alpine Linux 3.9.0-Servern und Portainer erstellen und konfigurieren. Bitte beachten Sie, dass

Kann KI mit zunehmender Anzahl von Ransomware-Angriffen kämpfen?

Kann KI mit zunehmender Anzahl von Ransomware-Angriffen kämpfen?

Ransomware-Angriffe nehmen zu, aber kann KI helfen, den neuesten Computervirus zu bekämpfen? Ist KI die Antwort? Lesen Sie hier, ob KI boone oder bane ist

ReactOS: Ist das die Zukunft von Windows?

ReactOS: Ist das die Zukunft von Windows?

ReactOS, ein quelloffenes und kostenloses Betriebssystem, ist hier mit der neuesten Version. Kann es den Anforderungen moderner Windows-Benutzer genügen und Microsoft zu Fall bringen? Lassen Sie uns mehr über dieses alte, aber neuere Betriebssystem erfahren.

Bleiben Sie in Verbindung über die WhatsApp Desktop App 24*7

Bleiben Sie in Verbindung über die WhatsApp Desktop App 24*7

Whatsapp hat endlich die Desktop-App für Mac- und Windows-Benutzer auf den Markt gebracht. Jetzt können Sie ganz einfach von Windows oder Mac auf WhatsApp zugreifen. Verfügbar für Windows 8+ und Mac OS 10.9+

Wie kann KI die Prozessautomatisierung auf die nächste Stufe heben?

Wie kann KI die Prozessautomatisierung auf die nächste Stufe heben?

Lesen Sie dies, um zu erfahren, wie Künstliche Intelligenz bei kleinen Unternehmen beliebt wird und wie sie die Wahrscheinlichkeit erhöht, sie wachsen zu lassen und ihren Konkurrenten einen Vorsprung zu verschaffen.

macOS Catalina 10.15.4 Supplement Update verursacht mehr Probleme als sie zu lösen

macOS Catalina 10.15.4 Supplement Update verursacht mehr Probleme als sie zu lösen

Vor kurzem hat Apple macOS Catalina 10.15.4 als Ergänzungsupdate veröffentlicht, um Probleme zu beheben, aber es scheint, dass das Update mehr Probleme verursacht, die zum Bricking von Mac-Computern führen. Lesen Sie diesen Artikel, um mehr zu erfahren

13 Tools zur kommerziellen Datenextraktion von Big Data

13 Tools zur kommerziellen Datenextraktion von Big Data

13 Tools zur kommerziellen Datenextraktion von Big Data

Was ist ein Journaling-Dateisystem und wie funktioniert es?

Was ist ein Journaling-Dateisystem und wie funktioniert es?

Unser Computer speichert alle Daten in einer organisierten Weise, die als Journaling-Dateisystem bekannt ist. Es ist eine effiziente Methode, die es dem Computer ermöglicht, Dateien zu suchen und anzuzeigen, sobald Sie auf die Suche klicken.https://wethegeek.com/?p=94116&preview=true

Technologische Singularität: Eine ferne Zukunft der menschlichen Zivilisation?

Technologische Singularität: Eine ferne Zukunft der menschlichen Zivilisation?

Da sich die Wissenschaft schnell weiterentwickelt und einen Großteil unserer Bemühungen übernimmt, steigt auch das Risiko, uns einer unerklärlichen Singularität auszusetzen. Lesen Sie, was Singularität für uns bedeuten könnte.

Ein Einblick in 26 Big-Data-Analysetechniken: Teil 1

Ein Einblick in 26 Big-Data-Analysetechniken: Teil 1

Ein Einblick in 26 Big-Data-Analysetechniken: Teil 1

Der Einfluss künstlicher Intelligenz im Gesundheitswesen 2021

Der Einfluss künstlicher Intelligenz im Gesundheitswesen 2021

KI im Gesundheitswesen hat in den letzten Jahrzehnten große Fortschritte gemacht. Somit wächst die Zukunft der KI im Gesundheitswesen immer noch von Tag zu Tag.