При запуске веб-приложения вы обычно хотите максимально эффективно использовать свои ресурсы без необходимости конвертировать свое программное обеспечение для использования многопоточности или сложных циклов обработки событий. Однако Docker предоставляет вам простой способ для внутренней балансировки нагрузки вашего приложения, чтобы максимально использовать ресурсы сервера. Эта статья покажет вам, как использовать Nginx для балансировки нагрузки вашего веб-приложения с помощью Docker на CentOS.
Шаг 1: создайте простое приложение
Мы будем использовать ржавчину для создания этого простого приложения. Предполагая, что у вас установлена ржавчина, запустите cargo new webapp –bin. В случае успеха вы увидите каталог с именем webapp. Внутри webappвы увидите файл с именем Cargo.toml. Добавьте следующие строки:
[dependencies.iron]
version = "*"
Затем, внутри src/main.rsфайла, удалите все и заполните его следующим:
extern crate iron;
use iron::prelude::*;
use iron::status;
fn main() {
    Iron::new(|_: &mut Request| {
        Ok(Response::with((status::Ok, "Hello Vultr :)")))
    }).http("0.0.0.0:3000").unwrap();
}
Примечание. Не меняйте IP-адрес в приложении. Это настроено так, что Docker может прослушивать ваше приложение.
Когда вы закончите, скомпилируйте приложение, выполнив cargo build –release. В зависимости от вашего сервера, это может занять несколько минут. Если ошибок нет, протестируйте приложение, выполнив следующие действия:
	- Беги target/release/webapp.
- Перейдите к http://0.0.0.0:3000/в вашем браузере. Замените0.0.0.0на IP-адрес вашего сервера.
Если все работает правильно, вы увидите «Hello Vultr :)» на странице.
Шаг 2. Создание контейнеров Docker
Создайте Dockerfileи заполните его следующим:
FROM centos:latest
MAINTAINER User <user@localhost>
RUN yum update -y
COPY ./webapp/target/release/webapp /opt/
EXPOSE 3000
WORKDIR /opt
CMD ./webapp
Сохраните файл. Затем создайте файл с именем deploy.shи заполните его следующим:
DEFAULT_PORT=45710
APP_PORT=3000
DEPLOY=5
NAME="webapp"
docker build -t webapp:example . 
for ((i=0; i<DEPLOY; i++)); do
        docker kill $NAME$i ; docker rm $NAME$i
        docker run --name $NAME$i -p 127.0.0.1:$(((i * 1000) + DEFAULT_PORT)):$APP_PORT -d webapp:example
done
Когда вы запустите этот скрипт, он создаст образ и развернет контейнер на основе заданного вами количества (по умолчанию 5). Если контейнер существует, он уничтожит его и удалит из реестра до его повторного развертывания.
Теперь создайте файл конфигурации Nginx и заполните его следующим:
upstream application {
    server localhost:45710;
    server localhost:46710;
    server localhost:47710;
    server localhost:48710;
    server localhost:49710;
}
server {
    listen 0.0.0.0:80;    
    location / {
    expires 1w;
        proxy_pass http://application;
        proxy_redirect off;
        proxy_http_version 1.1;
        proxy_set_header X-Forwarded-Host $host;
        proxy_set_header Host $host;
        proxy_set_header X-Forwarded-For $proxy_add_x_forwarded_for;
        proxy_set_header X-Real-IP $remote_addr;
    }
}
Замените 0.0.0.0на IP-адрес вашего сервера.
Перезапустите Nginx, выполнив systemctl restart nginx. Устраните все ошибки и перейдите к следующему шагу.
Шаг 4. Развертывание приложения
Разверните приложение, запустив bash ./deploy.sh.
Вы можете проверить статус вашего приложения с помощью docker ps- будет создано 5 изображений, которые начинаются с webapp. Теперь перейдите http://0.0.0.0:3000/в ваш браузер, вы снова увидите сообщение «Здравствуйте, Vultr :)».
Итак, что это меняет, точно?
Если вы запустите бенчмарк-тест для конфигурации балансировщика нагрузки, вы заметите, что используется больше ресурсов вашего сервера, чего вы и хотели бы, особенно если ваше приложение построено на таких языках, как Node, где оно обычно будет однопоточным. Если вам когда-нибудь понадобится обновить приложение, вы можете сделать это и повторно запустить его, deploy.shчтобы перестроить образ и развернуть ваши контейнеры.