Липкая сессия с Docker Swarm (CE) на CentOS 7

Вступление

Docker Swarm превращает ваши отдельные серверы в кластер компьютеров, облегчая масштабирование, высокую доступность и балансировку нагрузки. Балансировщик нагрузки Swarm реализует стратегию балансировки нагрузки с циклическим перебором, и это может помешать правильному функционированию (устаревших) приложений с сохранением состояния, для которых требуется некоторая форма закрепленных сеансов, чтобы обеспечить настройку высокой доступности с несколькими экземплярами. Docker Enterprise Edition поддерживает липкий сеанс Layer-7, но в этом руководстве мы сосредоточимся на бесплатной (CE) версии Docker. Для реализации липких сессий мы будем использовать Traefik.

Предпосылки

  • По крайней мере два недавно развернутых и обновленных экземпляра CentOS 7 в одной подсети с включенной частной сетью
  • Docker CE установлен на этих экземплярах
  • Экземпляры должны быть частью одного Swarm и должны иметь возможность общаться друг с другом через частную сеть.
  • Предварительные знания Docker и Docker Swarm
  • Пользователь без прав администратора с правами sudo (необязательно, но настоятельно рекомендуется не использовать пользователя root)

В этом уроке мы будем использовать два экземпляра Vultr с частными IP-адресами 192.168.0.100 и 192.168.0.101, оба они являются узлами диспетчера Docker Swarm (что не идеально для производства, но достаточно для этого урока).

Кто я

Этот учебник использует jwilder/whoamiобраз докера в качестве демонстрационного приложения. Этот простой контейнер будет отвечать на вызов REST с именем отвечающего контейнера, что позволяет очень легко проверить, работают ли липкие сеансы. Это изображение используется только в демонстрационных целях и должно быть заменено изображением вашего собственного приложения. whoami-serviceСконфигурирован следующим образом :

sudo docker network create whoaminet -d overlay
sudo docker service create --name whoami-service --mode global --network whoaminet --publish "80:8000" jwilder/whoami
sudo firewall-cmd --zone=public --add-port=80/tcp --permanent
sudo firewall-cmd --reload

Если бы мы впоследствии REST конечной точки в , мы можем видеть круговой балансировки нагрузки в Докер Swarm на работе.curlwhoamihttp://192.168.0.100/

curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3
curl http://192.168.0.100
I'm ae9d1763b4ad
curl http://192.168.0.100
I'm a6a8c9294fc3

Бесполезно проверять это с современными браузерами, такими как Chrome или Firefox, потому что они предназначены для поддержания соединений (открытых), а балансировщик нагрузки Docker Swarm будет переключаться на другой контейнер только при каждом новом соединении. Если вы хотите проверить это с помощью браузера, вам придется подождать не менее 30 секунд, чтобы соединение закрылось, прежде чем обновлять снова.

Настройка Traefik

Traefik изначально поддерживает Docker Swarm, он может обнаруживать и регистрировать или отменять регистрацию контейнеров на лету, а также связываться с вашим приложением через внутреннюю оверлейную сеть. Traefik требуется некоторая информация о вашем приложении, прежде чем он сможет начать обработку запросов к нему. Эта информация предоставляется Traefik путем добавления ярлыков к вашему сервису Swarm.

sudo docker service update --label-add "traefik.docker.network=whoaminet" --label-add "traefik.port=8000" --label-add "traefik.frontend.rule=PathPrefix:/" --label-add "traefik.backend.loadbalancer.stickiness=true" whoami-service

Список ниже описывает, что означает каждый ярлык:

  • traefik.docker.network: Оверлейная сеть Docker, по которой Traefik будет взаимодействовать с вашим сервисом
  • traefik.port: Порт, который прослушивает ваша служба (это внутренний порт, а не опубликованный порт)
  • traefik.frontend.rule: PathPrefix:/привязывает корень контекста /к этому сервису.
  • traefik.backend.loadbalancer.stickiness: Включает липкие сессии для этого сервиса

Теперь, когда whoami-serviceнастроены необходимые метки, мы можем добавить сервис Traefik в рой:

sudo docker service create --name traefik -p8080:80 -p9090:8080 --mount type=bind,source=/var/run/docker.sock,destination=/var/run/docker.sock --mode=global --constraint 'node.role == manager' --network whoaminet traefik --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG

Эта команда делает несколько вещей одновременно. Список ниже объяснит более подробно:

  • --name traefik: Наш новый сервис Docker называется traefik
  • -p8080:80: Мы публикуем порт Traefik 80в порт 8080(порт 80уже используется нашим whoami-service)
  • -p9090:8080: Мы публикуем собственный веб-интерфейс Traefik для порта 9090
  • --mount ...: Мы монтируем Docker Socket в контейнер, чтобы Traefik мог получить доступ к среде выполнения Docker хоста
  • --global: Мы хотим контейнеры Traefik на каждом узле менеджера по причинам высокой доступности
  • --constraint 'node.role == manager': Мы хотим, чтобы Traefik работал только на узлах менеджера, потому что рабочие узлы не могут предоставить Traefik необходимую информацию. Например, docker service lsна рабочем узле не работает, поэтому Traefik даже не сможет узнать, какие службы запущены
  • --network whoaminet: Подключает Traefik к той же сети, что и наша whoami-service, иначе они не смогут подключиться. Ранее мы сказали Traefik подключиться к нашему сервису через эту сеть с traefik.docker.networkметкой
  • traefik: Сказать докеру использовать последнюю версию образа док-станции Traefik для этого сервиса
  • --docker --docker.swarmmode --docker.watch --web --loglevel=DEBUG: Аргументы командной строки передаются непосредственно в Traefik, чтобы он мог работать в режиме роя Docker ( --loglevel=DEBUGздесь необязательно, но интересно во время установки и для этого урока)

Осталось только открыть необходимые порты в брандмауэре CentOS:

sudo firewall-cmd --zone=public --add-port=8080/tcp --permanent
sudo firewall-cmd --zone=public --add-port=9090/tcp --permanent
sudo firewall-cmd --reload

Как это работает

Как только Traefik запускается, вы можете увидеть в журналах, что Traefik обнаруживает два whoamiконтейнера. Он также выводит имя файла cookie, которое он будет использовать для обработки липкой сессии:

time="2018-11-25T13:17:30Z" level=debug msg="Configuration received from provider docker: {\"backends\":{\"backend-whoami-service\":{\"servers\":{\"server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05\":{\"url\":\"http://10.0.0.5:8000\",\"weight\":1},\"server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6\":{\"url\":\"http://10.0.0.4:8000\",\"weight\":1}},\"loadBalancer\":{\"method\":\"wrr\",\"stickiness\":{}}}},\"frontends\":{\"frontend-PathPrefix-0\":{\"entryPoints\":[\"http\"],\"backend\":\"backend-whoami-service\",\"routes\":{\"route-frontend-PathPrefix-0\":{\"rule\":\"PathPrefix:/\"}},\"passHostHeader\":true,\"priority\":0,\"basicAuth\":null}}}"
time="2018-11-25T13:17:30Z" level=debug msg="Wiring frontend frontend-PathPrefix-0 to entryPoint http"
time="2018-11-25T13:17:30Z" level=debug msg="Creating backend backend-whoami-service"
time="2018-11-25T13:17:30Z" level=debug msg="Adding TLSClientHeaders middleware for frontend frontend-PathPrefix-0"
time="2018-11-25T13:17:30Z" level=debug msg="Creating load-balancer wrr"
time="2018-11-25T13:17:30Z" level=debug msg="Sticky session with cookie _a49bc"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-1-a179b2e38a607b1127e5537c2e614b05 at http://10.0.0.5:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating server server-whoami-service-2-df8a622478a5a709fcb23c50e689b5b6 at http://10.0.0.4:8000 with weight 1"
time="2018-11-25T13:17:30Z" level=debug msg="Creating route route-frontend-PathPrefix-0 PathPrefix:/"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :80"
time="2018-11-25T13:17:30Z" level=info msg="Server configuration reloaded on :8080"

Если мы свернемся, http://192.168.0.100:8080то увидим, что был установлен новый файл cookie _a49bc:

curl -v http://192.168.0.100:8080
* About to connect() to 192.168.0.100 port 8080 (#0)
*   Trying 192.168.0.100...
* Connected to 192.168.0.100 (192.168.0.100) port 8080 (#0)
> GET / HTTP/1.1
> User-Agent: curl/7.29.0
> Host: 192.168.0.100:8080
> Accept: */*
>
< HTTP/1.1 200 OK
< Content-Length: 17
< Content-Type: text/plain; charset=utf-8
< Date: Sun, 25 Nov 2018 13:18:40 GMT
< Set-Cookie: _a49bc=http://10.0.0.5:8000; Path=/
<
I'm a6a8c9294fc3
* Connection #0 to host 192.168.0.100 left intact

Если при последующих вызовах мы отправим этот файл cookie в Traefik, мы всегда будем перенаправлены в один и тот же контейнер:

curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3
curl http://192.168.0.100:8080 --cookie "_a49bc=http://10.0.0.5:8000"
I'm a6a8c9294fc3

Файл cookie содержит только внутренний (наложенный) IP-адрес контейнера, в который Traefik должен отправить запрос. Если вы измените значение cookie на http://10.0.0.4:8000то, что запрос будет эффективно перенаправлен в другой контейнер. Если файл cookie никогда не будет повторно отправлен в Traefik, то липкий сеанс не будет работать, и запросы будут сбалансированы между контейнерами приложения и контейнерами Traefik.

Это все, что нужно для настройки липких сессий уровня 7 в Docker CE на CentOS 7.

Оставить комментарий

Изучение 26 методов анализа больших данных: часть 1

Изучение 26 методов анализа больших данных: часть 1

Изучение 26 методов анализа больших данных: часть 1

Функциональные возможности уровней эталонной архитектуры больших данных

Функциональные возможности уровней эталонной архитектуры больших данных

Прочтите блог, чтобы узнать о различных уровнях архитектуры больших данных и их функциях самым простым способом.

6 невероятных фактов о Nintendo Switch

6 невероятных фактов о Nintendo Switch

Многие из вас знают Switch, который выйдет в марте 2017 года, и его новые функции. Для тех, кто не знает, мы подготовили список функций, которые делают «Switch» обязательным гаджетом.

Технические обещания, которые все еще не выполнены

Технические обещания, которые все еще не выполнены

Вы ждете, когда технологические гиганты выполнят свои обещания? проверить, что осталось недоставленным.

Как ИИ может вывести автоматизацию процессов на новый уровень?

Как ИИ может вывести автоматизацию процессов на новый уровень?

Прочтите это, чтобы узнать, как искусственный интеллект становится популярным среди небольших компаний и как он увеличивает вероятность их роста и дает преимущество перед конкурентами.

Технологическая сингулярность: далекое будущее человеческой цивилизации?

Технологическая сингулярность: далекое будущее человеческой цивилизации?

По мере того, как наука развивается быстрыми темпами, принимая на себя большую часть наших усилий, также возрастает риск подвергнуться необъяснимой сингулярности. Прочтите, что может значить для нас необычность.

CAPTCHA: как долго она может оставаться жизнеспособным методом различения между человеком и ИИ?

CAPTCHA: как долго она может оставаться жизнеспособным методом различения между человеком и ИИ?

CAPTCHA стало довольно сложно решать пользователям за последние несколько лет. Сможет ли он оставаться эффективным в обнаружении спама и ботов в ближайшем будущем?

Телемедицина и удаленное здравоохранение: будущее уже здесь

Телемедицина и удаленное здравоохранение: будущее уже здесь

Что такое телемедицина, дистанционное здравоохранение и их влияние на будущее поколение? Это хорошее место или нет в ситуации пандемии? Прочтите блог, чтобы узнать мнение!

Вы когда-нибудь задумывались, как хакеры зарабатывают деньги?

Вы когда-нибудь задумывались, как хакеры зарабатывают деньги?

Возможно, вы слышали, что хакеры зарабатывают много денег, но задумывались ли вы когда-нибудь о том, как они зарабатывают такие деньги? Давайте обсудим.

Обновление дополнения к macOS Catalina 10.15.4 вызывает больше проблем, чем решает

Обновление дополнения к macOS Catalina 10.15.4 вызывает больше проблем, чем решает

Недавно Apple выпустила macOS Catalina 10.15.4, дополнительное обновление для исправления проблем, но похоже, что это обновление вызывает больше проблем, приводящих к поломке компьютеров Mac. Прочтите эту статью, чтобы узнать больше