Installieren von Docker unter Ubuntu 14.04
Verwenden Sie ein anderes System? Docker ist eine Anwendung, mit der Programme bereitgestellt werden können, die als Container ausgeführt werden. Es wurde im beliebten Go-Programm geschrieben
Docker Swarm verwandelt Ihre einzelnen Server in einen Computercluster. Erleichterung der Skalierung, Hochverfügbarkeit und des Lastausgleichs. Der Swarm-Load-Balancer implementiert eine Round-Robin-Load-Balancing-Strategie. Dies kann das ordnungsgemäße Funktionieren von (Legacy-) Stateful-Anwendungen beeinträchtigen, für die eine Form von Sticky-Sessions erforderlich ist, um ein hochverfügbares Setup mit mehreren Instanzen zu ermöglichen. Docker Enterprise Edition unterstützt Layer-7-Sticky-Sessions. In diesem Handbuch konzentrieren wir uns jedoch auf die kostenlose (CE) Version von Docker. Um Sticky Sessions zu implementieren, verwenden wir Traefik.
sudo
Rechten (optional, es wird jedoch dringend empfohlen, den Root-Benutzer nicht zu verwenden).In diesem Tutorial verwenden wir zwei Vultr-Instanzen mit privaten IP-Adressen 192.168.0.100
und 192.168.0.101
. Beide sind Docker Swarm-Manager-Knoten (was nicht ideal für die Produktion ist, aber für dieses Tutorial ausreicht).
In diesem Tutorial wird das jwilder/whoami
Docker-Image als Demo-Anwendung verwendet. Dieser einfache Container antwortet auf einen REST-Aufruf mit dem Namen des antwortenden Containers, wodurch es sehr einfach ist zu testen, ob die Sticky-Sitzungen funktionieren. Dieses Bild wird offensichtlich nur für Demozwecke verwendet und muss durch das Bild Ihrer eigenen Anwendung ersetzt werden.
Der whoami-Service ist wie folgt konfiguriert:
sudo docker network create whoaminet -d overlay
sudo docker service create --name whoami-service --mode global --network whoaminet --publish "80:8000" jwilder/whoami
sudo iptables -I INPUT 1 -p tcp --dport 80 -j ACCEPT
Wenn wir anschließend curl
den whoami-REST-Endpunkt an haben http://192.168.0.100/
, können wir den Round-Robin-Lastausgleich von Docker Swarm bei der Arbeit sehen:
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
Es macht keinen Sinn, dies mit modernen Browsern wie Chrome oder Firefox zu testen, da sie so konzipiert sind, dass Verbindungen am Leben bleiben, und der Docker Swarm Load Balancer nur bei jeder neuen Verbindung zum anderen Container wechselt . Wenn Sie dies mit einem Browser testen möchten, müssen Sie mindestens 30 Sekunden warten, bis die Verbindung geschlossen ist, bevor Sie erneut aktualisieren.
Traefik unterstützt Docker Swarm nativ, kann Container im laufenden Betrieb erkennen und registrieren oder die Registrierung aufheben und kommuniziert mit Ihrer Anwendung über das interne Overlay-Netzwerk. Traefik benötigt einige Informationen zu Ihrer Anwendung, bevor es Anfragen bearbeiten kann. Diese Informationen werden Traefik durch Hinzufügen von Etiketten zu Ihrem Swarm-Service zur Verfügung gestellt:
sudo docker service update --label-add "traefik.docker.network=whoaminet" --label-add "traefik.port=8000" --label-add "traefik.frontend.rule=PathPrefix:/" --label-add "traefik.backend.loadbalancer.stickiness=true" whoami-service
Die folgende Liste beschreibt, was jedes Etikett bedeutet:
traefik.docker.network
: Das Docker-Overlay-Netzwerk, über das Traefik mit Ihrem Dienst kommuniziert traefik.port
: Der Port, an dem Ihr Dienst empfangsbereit ist (dies ist der intern exponierte Port, nicht der veröffentlichte Port).traefik.frontend.rule
: PathPrefix:/
bindet den Kontextstamm ' /
' an diesen Diensttraefik.backend.loadbalancer.stickiness
: Aktiviert Sticky Sessions für diesen DienstNun , da das whoami-service
hat mit den erforderlichen Etiketten konfiguriert wurde, können wir die Traefik Service zum Schwarm hinzu:
sudo docker service create --name traefik -p8080:80 -p9090:8080 --mount type=bind,source=/var/run/docker.sock,destination=/var/run/docker.sock --mode=global --constraint 'node.role == manager' --network whoaminet traefik --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG
Dieser Befehl erledigt eine Menge Dinge gleichzeitig, wie in der folgenden Liste gezeigt:
--name traefik
: Der Name unseres neuen Docker-Dienstes lautet Traefik -p8080:80
: Wir veröffentlichen Traefiks Port 80
zu Port, 8080
da der Port 80
bereits von unserem Whoami-Service genutzt wird-p9090:8080
: Wir veröffentlichen Traefiks eigenes Webinterface für den Port 9090
--mount ...
: Wir montieren den Docker Socket in den Container, damit Traefik auf die Docker-Laufzeit des Hosts zugreifen kann --global
: Wir möchten aus Hochverfügbarkeitsgründen Traefik-Container auf jedem Manager-Knoten --constraint 'node.role == manager'
: Wir möchten, dass Traefik nur auf Manager-Knoten ausgeführt wird, da Worker-Knoten Traefik nicht mit den erforderlichen Informationen versorgen können. Zum Beispiel docker service ls
auf einem Arbeiter Knoten nicht funktioniert, so Traefik würde nicht einmal in der Lage sein , zu entdecken , was Dienste ausgeführt werden--network whoaminet
: Verbinden Sie Traefik mit demselben Netzwerk wie unser whoami-service
, andernfalls kann es keine Verbindung herstellen. Wir haben Traefik zuvor angewiesen, über dieses Netzwerk mit dem traefik.docker.network
Label eine Verbindung zu unserem Service herzustellentraefik
: Weisen Sie Docker an, das neueste Traefik-Docker-Image für diesen Dienst zu verwenden--docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG
: Befehlszeilenargumente, die direkt an Traefik übergeben wurden, damit es im Docker-Schwarmmodus ausgeführt werden kann. DEBUG
ist hier optional, aber während des Setups und für dieses Tutorial interessantSie müssen nur noch die erforderlichen Ports in der Debian-Firewall öffnen:
sudo iptables -I INPUT 1 -p tcp --dport 8080 -j ACCEPT
sudo iptables -I INPUT 1 -p tcp --dport 9090 -j ACCEPT
Sobald Traefik startet, können Sie in den Protokollen sehen, dass Traefik die beiden whoami
Container entdeckt. Es gibt auch den Cookie-Namen aus, mit dem die Sticky-Sitzung behandelt wird:
time="2018-11-25T13:17:30Z" level=debug msg="Configuration received from provider docker: {\"backends\":{\"backend-whoami-service\":{\"servers\":{\"server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05\":{\"url\":\"http://10.0.0.5:8000\",\"weight\":1},\"server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6\":{\"url\":\"http://10.0.0.4:8000\",\"weight\":1}},\"loadBalancer\":{\"method\":\"wrr\",\"stickiness\":{}}}},\"frontends\":{\"frontend-PathPrefix-0\":{\"entryPoints\":[\"http\"],\"backend\":\"backend-whoami-service\",\"routes\":{\"route-frontend-PathPrefix-0\":{\"rule\":\"PathPrefix:/\"}},\"passHostHeader\":true,\"priority\":0,\"basicAuth\":null}}}"
time="2018-11-25T13:17:30Z" level=debug msg="Wiring frontend frontend-PathPrefix-0 to entryPoint http"
time="2018-11-25T13:17:30Z" level=debug msg="Creating backend backend-whoami-service"
time="2018-11-25T13:17:30Z" level=debug msg="Adding TLSClientHeaders middleware for frontend frontend-PathPrefix-0"
time="2018-11-25T13:17:30Z" level=debug msg="Creating load-balancer wrr"
time="2018-11-25T13:17:30Z" level=debug msg="Sticky session with cookie _a49bc"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05 at http://10.0.0.5:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6 at http://10.0.0.4:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating route route-frontend-PathPrefix-0 PathPrefix:/"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :80"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :8080"
Wenn wir http://192.168.0.100:8080
uns zusammenrollen, können wir sehen, dass ein neuer Cookie _a49bc
gesetzt wurde:
curl -v http://192.168.0.100:8080
* About to connect() to 192.168.0.100 port 8080 (#0)
* Trying 192.168.0.100...
* Connected to 192.168.0.100 (192.168.0.100) port 8080 (#0)
> GET / HTTP/1.1
> User-Agent: curl/7.29.0
> Host: 192.168.0.100:8080
> Accept: */*
>
< HTTP/1.1 200 OK
< Content-Length: 17
< Content-Type: text/plain; charset=utf-8
< Date: Sun, 25 Nov 2018 13:18:40 GMT
< Set-Cookie: _a49bc=http://10.0.0.5:8000; Path=/
<
I'm a6a8c9294fc3
* Connection #0 to host 192.168.0.100 left intact
Wenn wir dieses Cookie bei späteren Anrufen an Traefik senden, werden wir immer an denselben Container weitergeleitet:
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
Das Cookie enthält nur die interne IP-Adresse des Containers, an den Traefik eine Anfrage senden soll. Wenn Sie den Cookie-Wert in ändern http://10.0.0.4:8000
, wird die Anforderung effektiv an den anderen Container weitergeleitet. Wenn das Cookie niemals erneut an Traefik gesendet wird, funktioniert die Sticky-Sitzung nicht und die Anforderungen werden zwischen den Containern der Anwendung und den Traefik-Containern ausgeglichen.
Das ist alles, was benötigt wird, um Layer 7 Sticky Sessions in Docker CE unter Debian 9 einzurichten.
Verwenden Sie ein anderes System? Docker ist eine Anwendung, mit der Programme bereitgestellt werden können, die als Container ausgeführt werden. Es wurde im beliebten Go-Programm geschrieben
PHP-Anwendungen bestehen normalerweise aus einem Webserver, einem relationalen Datenbanksystem und dem Sprachinterpreter selbst. In diesem Tutorial werden wir Hebel einsetzen
Übersicht RancherOS ist ein unglaublich leichtes Betriebssystem (nur ca. 60 MB), auf dem ein System-Docker-Daemon als PID 0 zum Ausführen von Systemdiensten ausgeführt wird
In diesem Tutorial werden die Grundlagen für den Einstieg in Docker erläutert. Ich gehe davon aus, dass Sie Docker bereits installiert haben. Die Schritte in diesem Tutorial funktionieren an einem
Wenn Sie eine Webanwendung ausführen, möchten Sie normalerweise Ihre Ressourcen optimal nutzen, ohne Ihre Software für die Verwendung von Multithreading konvertieren zu müssen
Wir alle kennen und lieben Docker, eine Plattform zum Erstellen, Verwalten und Verteilen von Anwendungscontainern auf mehreren Computern. Docker Inc. bietet einen Service t
Dieser Artikel zeigt Ihnen, wie Sie Ihre Knotenanwendung in einem Docker-Container bereitstellen. Hinweis: In diesem Lernprogramm wird davon ausgegangen, dass Docker installiert und gelesen ist
Verwenden Sie ein anderes System? Docker ist eine Anwendung, die die Bereitstellung von Software in virtuellen Containern ermöglicht. Es wurde im Go-Programm geschrieben
Rancher OS ist eine sehr leichte Linux-Distribution, die auf Docker basiert. Das Betriebssystem selbst wiegt etwa 20 MB. Mit diesem Tutorial können Sie loslegen
Verwenden Sie ein anderes System? Einführung Sentry ist eine Open Source-Lösung für die Fehlerverfolgung. Sentry verfolgt Ausnahmen und andere nützliche Nachrichten
Übersicht Dieser Artikel soll Ihnen helfen, einen Kubernetes-Cluster in kürzester Zeit mit kubeadm zum Laufen zu bringen. In diesem Handbuch werden zwei Server bereitgestellt
Dieser Artikel erklärt, wie Docker-Compose unter CoreOS installiert wird. In CoreOS ist der Ordner / usr / unveränderlich, sodass der Standardpfad / usr / local / bin für nicht verfügbar ist
Harbor ist ein Open-Source-Registrierungsserver der Enterprise-Klasse, auf dem Docker-Images gespeichert und verteilt werden. Harbour erweitert die Open Source Docker Distribution b
Einführung Docker ist eine Anwendung, mit der wir Programme bereitstellen können, die als Container ausgeführt werden. Es wurde in der beliebten Programmiersprache Go geschrieben
Kubernetes ist eine Open-Source-Plattform, die von Google für die Verwaltung von Containeranwendungen auf einem Servercluster entwickelt wurde. Es baut auf einem Jahrzehnt auf und
Voraussetzungen Docker Engine 1.8+. Mindestens 4 GB Speicherplatz. Mindestens 4 GB RAM. Schritt 1. Docker installieren Um SQL-Server zu installieren, muss Docker mus
LXC-Container (Linux-Container) sind eine Betriebssystemfunktion unter Linux, mit der mehrere isolierte Linux-Systeme auf einem einzigen Host ausgeführt werden können. Thes
Verwenden Sie ein anderes System? Einführung Rancher ist eine Open Source-Plattform zum Ausführen von Containern und zum Erstellen eines privaten Containerservices. Rancher ist Basis
Einführung In diesem Handbuch erfahren Sie, wie Sie einen Docker-Schwarm mit mehreren Alpine Linux 3.9.0-Servern und Portainer erstellen und konfigurieren. Bitte beachten Sie, dass
Ransomware-Angriffe nehmen zu, aber kann KI helfen, den neuesten Computervirus zu bekämpfen? Ist KI die Antwort? Lesen Sie hier, ob KI boone oder bane ist
ReactOS, ein quelloffenes und kostenloses Betriebssystem, ist hier mit der neuesten Version. Kann es den Anforderungen moderner Windows-Benutzer genügen und Microsoft zu Fall bringen? Lassen Sie uns mehr über dieses alte, aber neuere Betriebssystem erfahren.
Whatsapp hat endlich die Desktop-App für Mac- und Windows-Benutzer auf den Markt gebracht. Jetzt können Sie ganz einfach von Windows oder Mac auf WhatsApp zugreifen. Verfügbar für Windows 8+ und Mac OS 10.9+
Lesen Sie dies, um zu erfahren, wie Künstliche Intelligenz bei kleinen Unternehmen beliebt wird und wie sie die Wahrscheinlichkeit erhöht, sie wachsen zu lassen und ihren Konkurrenten einen Vorsprung zu verschaffen.
Vor kurzem hat Apple macOS Catalina 10.15.4 als Ergänzungsupdate veröffentlicht, um Probleme zu beheben, aber es scheint, dass das Update mehr Probleme verursacht, die zum Bricking von Mac-Computern führen. Lesen Sie diesen Artikel, um mehr zu erfahren
13 Tools zur kommerziellen Datenextraktion von Big Data
Unser Computer speichert alle Daten in einer organisierten Weise, die als Journaling-Dateisystem bekannt ist. Es ist eine effiziente Methode, die es dem Computer ermöglicht, Dateien zu suchen und anzuzeigen, sobald Sie auf die Suche klicken.https://wethegeek.com/?p=94116&preview=true
Da sich die Wissenschaft schnell weiterentwickelt und einen Großteil unserer Bemühungen übernimmt, steigt auch das Risiko, uns einer unerklärlichen Singularität auszusetzen. Lesen Sie, was Singularität für uns bedeuten könnte.
Ein Einblick in 26 Big-Data-Analysetechniken: Teil 1
KI im Gesundheitswesen hat in den letzten Jahrzehnten große Fortschritte gemacht. Somit wächst die Zukunft der KI im Gesundheitswesen immer noch von Tag zu Tag.