Installa Sentry tramite Docker su Ubuntu 16.04
Usi un sistema diverso? Introduzione Sentry è una soluzione open source per il monitoraggio degli errori. Sentry tiene traccia delle eccezioni e di altri messaggi utili
Docker Swarm trasforma i tuoi singoli server in un cluster di computer; facilitando il ridimensionamento, l'alta disponibilità e il bilanciamento del carico. Il bilanciamento del carico Swarm implementa una strategia di bilanciamento del carico round robin e ciò potrebbe interferire con il corretto funzionamento delle applicazioni state legacy che richiedono una qualche forma di sessioni permanenti per consentire un'installazione ad alta disponibilità con più istanze. Docker Enterprise Edition supporta la sessione appiccicosa di livello 7, ma in questa guida ci concentreremo sulla versione gratuita (CE) di Docker. Per implementare sessioni appiccicose useremo Traefik.
sudo
diritti (facoltativo ma si consiglia vivamente di non utilizzare l'utente root)In questo tutorial utilizzeremo due istanze Vultr con indirizzi IP privati 192.168.0.100
e 192.168.0.101
. Entrambi sono nodi del gestore Docker Swarm (che non è l'ideale per la produzione ma abbastanza per questo tutorial).
Questo tutorial utilizza l' jwilder/whoami
immagine docker come un'applicazione demo. Questo semplice contenitore risponderà a una chiamata REST con il nome del contenitore rispondente, rendendo molto semplice verificare se le sessioni adesive funzionano. Questa immagine è ovviamente utilizzata solo a scopo dimostrativo e deve essere sostituita dall'immagine della propria applicazione.
Il servizio whoami è configurato come segue:
sudo docker network create whoaminet -d overlay
sudo docker service create --name whoami-service --mode global --network whoaminet --publish "80:8000" jwilder/whoami
sudo iptables -I INPUT 1 -p tcp --dport 80 -j ACCEPT
Se successivamente curl
arriviamo all'endpoint REST whoami http://192.168.0.100/
, possiamo vedere al lavoro il bilanciamento del carico round robin di Docker Swarm:
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
Non è utile testarlo con browser moderni come Chrome o Firefox perché sono progettati per mantenere attive le connessioni e il bilanciamento del carico Docker Swarm passerà all'altro contenitore solo su ogni nuova connessione. Se si desidera testarlo con un browser, è necessario attendere almeno 30 secondi per chiudere la connessione prima di aggiornare nuovamente.
Traefik supporta in modo nativo Docker Swarm, è in grado di rilevare e registrare o annullare la registrazione dei container al volo e comunica con l'applicazione tramite la rete di overlay interna. Traefik necessita di alcune informazioni sull'applicazione prima che possa iniziare a gestire le richieste per essa. Queste informazioni vengono fornite a Traefik aggiungendo etichette al servizio Swarm:
sudo docker service update --label-add "traefik.docker.network=whoaminet" --label-add "traefik.port=8000" --label-add "traefik.frontend.rule=PathPrefix:/" --label-add "traefik.backend.loadbalancer.stickiness=true" whoami-service
L'elenco seguente descrive il significato di ciascuna etichetta:
traefik.docker.network
: La rete overlay Docker, su cui Traefik comunicherà con il tuo servizio traefik.port
: La porta su cui è in ascolto il servizio (questa è la porta esposta internamente, non la porta pubblicata)traefik.frontend.rule
: PathPrefix:/
lega la root di contesto ' /
' a questo serviziotraefik.backend.loadbalancer.stickiness
: Abilita sessioni permanenti per questo servizioOra che whoami-service
è stato configurato con le etichette richieste, possiamo aggiungere il servizio Traefik allo sciame:
sudo docker service create --name traefik -p8080:80 -p9090:8080 --mount type=bind,source=/var/run/docker.sock,destination=/var/run/docker.sock --mode=global --constraint 'node.role == manager' --network whoaminet traefik --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG
Questo comando fa molte cose contemporaneamente, come mostrato nel seguente elenco:
--name traefik
: Il nostro nuovo servizio Docker si chiama Traefik -p8080:80
: Pubblichiamo la porta di Traefik 80
su porta 8080
perché la porta 80
è già in uso dal nostro servizio whoami-p9090:8080
: Pubblichiamo l'interfaccia Web di Traefik sulla porta 9090
--mount ...
: Montiamo il Docker Socket nel container in modo che Traefik possa accedere al runtime Docker dell'host --global
: Vogliamo contenitori Traefik su ciascun nodo gestore per motivi di alta disponibilità --constraint 'node.role == manager'
: Vogliamo che Traefik sia eseguito solo su nodi manager perché i nodi worker non possono fornire a Traefik le informazioni di cui ha bisogno. Ad esempio, docker service ls
su un nodo di lavoro non funziona, quindi Traefik non sarebbe nemmeno in grado di scoprire quali servizi sono in esecuzione--network whoaminet
: Collega Traefik alla stessa rete della nostra whoami-service
, altrimenti non può connettersi ad essa. In precedenza avevamo detto a Traefik di connettersi al nostro servizio su questa rete con l' traefik.docker.network
etichettatraefik
: Dì alla finestra mobile di utilizzare l'ultima immagine della finestra mobile Traefik per questo servizio--docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG
: Argomenti della riga di comando passati direttamente a Traefik per consentirgli di funzionare in modalità sciame Docker. DEBUG
è facoltativo qui, ma interessante durante l'installazione e per questo tutorialTutto quello che resta da fare è aprire le porte necessarie nel firewall Debian:
sudo iptables -I INPUT 1 -p tcp --dport 8080 -j ACCEPT
sudo iptables -I INPUT 1 -p tcp --dport 9090 -j ACCEPT
Non appena Traefik si avvia, è possibile vedere nei registri che Traefik scopre i due whoami
contenitori. Fornisce anche il nome del cookie che utilizzerà per gestire la sessione adesiva:
time="2018-11-25T13:17:30Z" level=debug msg="Configuration received from provider docker: {\"backends\":{\"backend-whoami-service\":{\"servers\":{\"server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05\":{\"url\":\"http://10.0.0.5:8000\",\"weight\":1},\"server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6\":{\"url\":\"http://10.0.0.4:8000\",\"weight\":1}},\"loadBalancer\":{\"method\":\"wrr\",\"stickiness\":{}}}},\"frontends\":{\"frontend-PathPrefix-0\":{\"entryPoints\":[\"http\"],\"backend\":\"backend-whoami-service\",\"routes\":{\"route-frontend-PathPrefix-0\":{\"rule\":\"PathPrefix:/\"}},\"passHostHeader\":true,\"priority\":0,\"basicAuth\":null}}}"
time="2018-11-25T13:17:30Z" level=debug msg="Wiring frontend frontend-PathPrefix-0 to entryPoint http"
time="2018-11-25T13:17:30Z" level=debug msg="Creating backend backend-whoami-service"
time="2018-11-25T13:17:30Z" level=debug msg="Adding TLSClientHeaders middleware for frontend frontend-PathPrefix-0"
time="2018-11-25T13:17:30Z" level=debug msg="Creating load-balancer wrr"
time="2018-11-25T13:17:30Z" level=debug msg="Sticky session with cookie _a49bc"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05 at http://10.0.0.5:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6 at http://10.0.0.4:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating route route-frontend-PathPrefix-0 PathPrefix:/"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :80"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :8080"
Se ci rannicchiamo http://192.168.0.100:8080
possiamo vedere che _a49bc
è stato impostato un nuovo cookie :
curl -v http://192.168.0.100:8080
* About to connect() to 192.168.0.100 port 8080 (#0)
* Trying 192.168.0.100...
* Connected to 192.168.0.100 (192.168.0.100) port 8080 (#0)
> GET / HTTP/1.1
> User-Agent: curl/7.29.0
> Host: 192.168.0.100:8080
> Accept: */*
>
< HTTP/1.1 200 OK
< Content-Length: 17
< Content-Type: text/plain; charset=utf-8
< Date: Sun, 25 Nov 2018 13:18:40 GMT
< Set-Cookie: _a49bc=http://10.0.0.5:8000; Path=/
<
I'm a6a8c9294fc3
* Connection #0 to host 192.168.0.100 left intact
Se, nelle chiamate successive, inviamo questo cookie a Traefik, verremo sempre inoltrati allo stesso contenitore:
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
Il cookie non contiene altro che l'indirizzo IP interno del contenitore a cui Traefik deve inviare per richiedere. Se si passa al valore del cookie in http://10.0.0.4:8000
, la richiesta verrà effettivamente inoltrata all'altro contenitore. Se il cookie non dovesse mai essere reinviato a Traefik, la sessione adesiva non funzionerà e le richieste verranno bilanciate tra i contenitori dell'applicazione e i contenitori Traefik.
Questo è tutto ciò che è necessario per impostare sessioni adesive di livello 7 in Docker CE su Debian 9.
Usi un sistema diverso? Introduzione Sentry è una soluzione open source per il monitoraggio degli errori. Sentry tiene traccia delle eccezioni e di altri messaggi utili
Panoramica RancherOS è un sistema operativo incredibilmente leggero (solo circa 60 MB) che esegue un demone Docker di sistema come PID 0 per lesecuzione dei servizi di sistema
Harbour è un server di registro open source di classe enterprise che archivia e distribuisce immagini Docker. Harbour estende la distribuzione Docker open source b
Introduzione Questa guida ti mostrerà come creare e configurare uno sciame Docker utilizzando più server Alpine Linux 3.9.0 e Portainer. Si prega di essere consapevoli di ciò
Usando un sistema diverso? Docker è unapplicazione che consente di distribuire programmi eseguiti come contenitori. È stato scritto nel popolare programma Go
Questo articolo mostra come distribuire lapplicazione Node in un contenitore Docker. Nota: in questa esercitazione si presuppone che Docker sia installato e letto
Usi un sistema diverso? Introduzione Rancher è una piattaforma open source per lesecuzione di container e la creazione di un servizio di container privato. Rancher è base
Panoramica Questo articolo ha lo scopo di aiutarti a far funzionare un cluster Kubernetes con kubeadm in pochissimo tempo. Questa guida distribuirà due server, su
Questo articolo spiega come installare docker-compose su CoreOS. In CoreOS, la cartella / usr / è immutabile, quindi il percorso standard / usr / local / bin non è disponibile per
I contenitori LXC (contenitori Linux) sono una funzionalità del sistema operativo in Linux che può essere utilizzata per eseguire più sistemi Linux isolati su un singolo host. thes
Introduzione Docker è unapplicazione che ci consente di distribuire programmi eseguiti come contenitori. È stato scritto nel popolare linguaggio di programmazione Go
Kubernetes è una piattaforma open source sviluppata da Google per la gestione di applicazioni containerizzate in un cluster di server. Si basa su un decennio e
Questo tutorial spiega le basi per iniziare con Docker. Presumo che tu abbia già installato Docker. I passaggi di questo tutorial funzioneranno su un
Quando si esegue unapplicazione Web, in genere si desidera ottenere il massimo dalle proprie risorse senza dover convertire il software per utilizzare il multithreading o
La tecnologia del contenitore Docker consente di eseguire applicazioni in un ambiente specifico e isolato. Docker Community Edition (CE) è il nuovo nome per il fre
Conosciamo e amiamo tutti Docker, una piattaforma per creare, gestire e distribuire contenitori di applicazioni su più macchine. Docker Inc. fornisce un servizio t
Prerequisiti Docker engine 1.8+. Minimo 4 GB di spazio su disco. Minimo 4 GB di RAM. Passaggio 1. Installa Docker Per installare SQL-Server, Docker mus
Usi un sistema diverso? Introduzione Docker è unapplicazione che consente la distribuzione di software allinterno di contenitori virtuali. È stato scritto nel G
Usi un sistema diverso? Introduzione Rancher è una piattaforma open source per lesecuzione di container e la creazione di un servizio di container privato. Rancher è base
Gli attacchi ransomware sono in aumento, ma l'intelligenza artificiale può aiutare ad affrontare l'ultimo virus informatico? L'intelligenza artificiale è la risposta? Leggi qui sai è AI boone o bane
ReactOS, un sistema operativo open source e gratuito è qui con l'ultima versione. Può essere sufficiente alle esigenze degli utenti Windows moderni e abbattere Microsoft? Scopriamo di più su questo vecchio stile, ma un'esperienza del sistema operativo più recente.
Whatsapp ha finalmente lanciato l'app desktop per utenti Mac e Windows. Ora puoi accedere facilmente a Whatsapp da Windows o Mac. Disponibile per Windows 8+ e Mac OS 10.9+
Leggi questo per sapere come l'intelligenza artificiale sta diventando popolare tra le aziende di piccole dimensioni e come sta aumentando le probabilità di farle crescere e dare un vantaggio ai loro concorrenti.
Recentemente Apple ha rilasciato macOS Catalina 10.15.4 un aggiornamento supplementare per risolvere i problemi, ma sembra che l'aggiornamento stia causando più problemi che portano al bricking delle macchine mac. Leggi questo articolo per saperne di più
13 strumenti commerciali per l'estrazione dei dati dai Big Data
Il nostro computer memorizza tutti i dati in un modo organizzato noto come file system di journaling. È un metodo efficiente che consente al computer di cercare e visualizzare i file non appena si preme search.https://wethegeek.com/?p=94116&preview=true
Man mano che la scienza si evolve a un ritmo rapido, assumendo gran parte dei nostri sforzi, aumentano anche i rischi di sottoporci a una singolarità inspiegabile. Leggi, cosa potrebbe significare per noi la singolarità.
Uno sguardo a 26 tecniche di analisi dei Big Data: Parte 1
L'intelligenza artificiale nell'assistenza sanitaria ha compiuto grandi passi avanti negli ultimi decenni. Pertanto, il futuro dell'IA in sanità continua a crescere giorno dopo giorno.