Une source intéressante
Images, conteneurs et volumes
Dockerfile build
Installation sous Debian
sudo apt install docker.io
à partir de buster ; sinon, utiliser le site docker.io.
sudo adduser $(whoami) docker
pour ne pas avoir à taper sudo à chaque commande.
Configuration du démon
Se fait dans le fichier /etc/docker/daemon.json
.
Exemple de fichier qui définit une rotation des logs tous les 10m avec un maximum de 3 fichiers de logs, et expose les métriques de docker (utile pour du monitoring) :
{
"log-driver": "json-file",
"log-opts": {
"max-size": "10m",
"max-file": "3"
},
"metrics-addr" : "127.0.0.1:9323"
}
Pour faire prendre en compte cette configuration, il faut relancer le démon avec systemctl restart docker
(ATTENTION : redémarre tous les containers).
Seuls les nouveaux conteneurs seront affectés par ces changements de config.
C’est du JSON, donc toute ligne à l’intérieur d’accolades doit se finir par une virgule, sauf éventuellement la dernière.
Gestion des images
- Chercher une image Debian officielle, en se basant sur le score de l’image
docker search --filter=stars=1000 debian
- Récupérer cette image en local (stocké dans /var/lib/docker/, en grosse partie sous forme de diff dans overlay2/ )
docker pull debian:tag
# si :tag est omis, docker cherchera :latest
- Lister les images locales
docker image ls -a
# ou
docker images
- Créer une image depuis un Dockerfile
# In folder containing the Dockerfile
docker build -t "my-image123:test" .
docker rmi my-image123:test
# on peut aussi utiliser l'id de l'image
docker build & Dockerfile
Lien qui en parle aussi
Sert à génerer des images modifiées à partir d’images existantes.
Utilise un fichier Dockerfile (nom non négociable).
Celui-ci est formaté avec une instruction FROM
qui définit l’image de base utilisée. Ce peut être un nom type debian
ou un ID type 00bf7fdd8baf
On peut utiliser RUN
pour lancer des instructions shell pour modifier notre image (par exemple installer des paquets).
On peut gérer le programme lancé au démarrage d’un conteneur instancié sur cette image (par défaut bash chez Debian), ainsi que la commande executée par ce programme, via les instructions ENTRYPOINT
et CMD
. Plus de détails ici.
En gros, ENTRYPOINT est le binaire lancé lorsque le conteneur démarre (habituellement bash), et CMD est la commande éventuelle lancée par cet entrypoint. Définir un entrypoint sur autre chose que bash permet de faire du container un exécutable, qui ne lancera que ce pour quoi il est fait.
Les instructions RUN, ENTRYPOINT et CMD peuvent être écrites de 2 formes, la forme shell et la forme exécutable. Dans la forme shell, elle seront exécutées via -c
alors qu’en forme exécutable, la commande est appelée directement :
# Shell form
RUN /path/to/command -o option arg otherarg
# Exec form
RUN ["/path/to/exec", "-o", "option", "arg", "otherarg"]
Un exemple de Dockerfile qui lance un serveur apache basique :
FROM debian
RUN apt-get update \
&& apt-get install -y apache2
EXPOSE 8080 80
CMD apachectl -D FOREGROUND
On peut ensuite construire l’image désirée via docker build :
docker build -t nom:tag /path/to/folder/with/Dockerfile
# --rm=false : permet de ne pas supprimer les conteneurs intermédiaires (cache), même après un build successful
Gestion des conteneurs
Un conteneur est instancié à partir d’une image.
- Créer un conteneur à partir de cette image
# en version simple
docker create debian
# qui va chercher debian:latest
# on peut aussi faire
# en plus complet
docker create -ti --name my-app123 --hostname app --net my-net123 -p 8080:80 debian:tag welcome-command --arg1 value --arg2
# les options doivent être avant le nom de l'image de base
# -t pour --tty, ce qui permettra de lancer le conteneur avec un shell root@truc:/# . Sans ça, il se coupe si rien à faire
# -i pour --interactive , ce qui laissera la porte ouverte au conteneur pour recevoir des commandes (STDIN ouvert)
# si aucun nom s'est spécifié, Docker en génerera un poétique
# si aucun hostname n'est spécifié, il sera géneré aléatoirement
# --net ou --network permet d'attacher le conteneur à un réseau choisi (doitj être créé auparavant
# -p pour exposer les ports ; voir section réseau
# on peut spécifier, après le nom d'image, la commande à exécuter (typiquement bash)
# on peut aussi spécifier une autre commande pour outrepasser l'entrypoint, et/ou passer des arguments
docker start my-app123
Le conteneur est lancé, mais ne s’affiche pas dans notre terminal (juste son nom).
Il faut l’attacher, pour avoir le shell à l’écran et pouvoir interagir.
docker attach my-app123
Ou encore
docker exec -it container_name bash
On peut directement attacher le shell lors de la création du conteneur, mais il faut alors spécifier l’option -i pour pouvoir interagir avec le conteneur (taper des commandes).
docker start -ia my-app123 # --interactive --attach
# -a , --attach pour voir l'état du conteneur
# -i pour pouvoir taper des commandes
On peut ensuite détacher le conteneur avec Ctrl-P -> Ctrl-Q
.
docker stop my-app123
docker kill my-app123 # pour forcer l'extinction
docker container ls
# ou en plus court
docker ps
# pour lister les conteneurs en cours d'éxécution
docker ps -a
# pour lister tous les conteneurs, même éteints.
docker ps -s
# pour lister la taille des conteneurs
- Supprimer un conteneur précis
docker container rm my-app123
# on peut aussi utiliser l'id
- Supprimer tous les conteneurs qui ne sont pas en train de tourner
docker container prune
# -f si on souhaite ne pas avoir de prompt de confirmation
docker run
Combine docker pull, docker create et docker start
docker run name
# télécharge si nécessaire l'image "name:latest", crée un container avec un nom aléatoire, et le lance
# on peut passer à docker run les mêmes arguments que docker create
docker run --name="my-app123" -p 80:80 -e TERM=xterm -d --net my-net123 --ip 172.18.0.23 demo-docker
Réseau
Doc chez docker
Docker crée une interface virtuelle pour chaque réseau créé. Par défaut, c’est la carte docker0
qui crée le réseau bridgé 172.17.0.0/24
avec l’adresse 172.17.0.1
.
Il y’a différents types de réseau : bridge
(réseau virtuel “simple”, choix par défaut), host
(le conteneur se connecte directement via la pile réseau de la carte de l’hôte), overlay
(surtout pour le swarm), macvlan
.
On peut créer des réseaux (bridgés) définis sur mesure. Ces réseaux se comporteront différemment du réseau par défaut. Notamment, les machines pourront communiquer entre elles via leur adresse IP, mais également via le nom de conteneur.
De plus, les conteneurs d’un même réseau peuvent communiquer librement entre eux sur tous les ports (et, par défaut, aucun port n’est ouvert vers l’extérieur de ce réseau). Un conteneur peut être connecté à plusieurs réseaux.
Chaque conteneur lancés aura aussi une interface virtuelle (par réseau) type veth1234567
.
docker network ls
- voir le détail d’un réseau
docker network inspect network-name
docker network create --subnet 172.18.0.0/24 my-net123
- lancer un container sur un network
docker run --net my-net123 --ip 172.18.0.23
- Connecter un conteneur sur un réseau (peut être fait à la volée pour un réseau défini, mais le conteneur doit être éteint pour le faire sur le réseau par défaut docker0)
docker network connect my-net123 my-app123
- Déconnecter un conteneur d’un réseau (même restriction que pour la connexion)
docker network disconnect my-net123 my-app123
docker network rm my-net123
- retirer les réseaux inutiles
docker network prune
Exposition et publication de ports
Un article intéressant
L’exposition de ports peut se faire dans le Dockerfile, ou bien à la création du conteneur. Toutefois, elle est principalement là pour documenter les ports utilisés par le conteneur, et n’aura (presque) aucun effet pratique. Cela peut se faire :
- à la création du conteneur via
docker create --expose 8080:80/tcp
- dans le Dockerfile (donc dans l’image) via
EXPOSE 8080 80/tcp
.
Il me semble que certains mécanismes peuvent faire appel aux ports exposés, par exemple la détection automatique de port par nginx-proxy.
La publication de ports sert effectivement à “ouvrir” le port du conteneur depuis l’hôte. Ainsi, le service fourni par le conteneur deviendra accessible via l’IP de l’hôte sur le port choisi. Cette publication ne peut se faire que lors de la création d’un conteneur.
docker create -p 8080:80/tcp debian
# tcp est le défaut, et peut être omis, ou remplacé par udp
va rediriger le port 8080 de l’hôte vers le port 80 du conteneur. Ainsi, seul l’IP de l’hôte a besoin d’être routable.
Un port n’a pas besoin d’avoir été exposé pour pouvoir être publié.
On peut aussi écrire uneiquement -p 80/tcp
, auquel cas un port est choisi aléatoirement sur l’hôte.
Exposer un port sur un conteneur déjà lancé
Lors d’un docker ps
, les ports publiés seront mentionnés sous la forme 0.0.0.0:80->80/udp
, alors que les ports exposés seront mentionnés sous la forme 80/tcp
.
Voir le détail des ports d’un conteneur :
docker inspect my-app123 | grep -i port -A3
On y voit les ports exposés (ExposedPorts) et les ports publiés (Ports).
Volumes
Servent à monter un dossier de l’hôte chez le client.
Peut être déclaré dans le Dockerfile (non recommandé ici), ou au moment de la création du conteneur.
Docker-compose
Doit être installé en sus de docker.
sudo apt install docker-compose
Sert automatiser, via fichier de conf docker-compose.yml
, la construction d’image sur mesure, ainsi que la création de conteneurs basé sur ces images, et leur paramétrage (port, etc…).
Si on est dans un dossier testcompose
, on peut avoir le fichier docker-compose.yml suivant :
version: '3'
services:
apache-test:
build:
context: apache-folder
dockerfile: Dockerfile
ports:
- "8080:80"
restart: always
command: --arg1 value --arg2
Ceci définit un service apache-test
, dont le Dockerfile et les fichiers pouvant être nécessaires à se construction se trouvent dans le dossier (context) apache-folder
. Le port 80 sera publié via le port 8080 de l’hôte.
Les projects docker-compose ont un nom, qui par défaut est le nom du dossier. Ceci peut causer des messages d’erreur si plusieurs projets sont dans des dossiers qui portent le même nom (par exemple dev/myapp/ et prod/myapp ; les 2 projets s’appelleront myapp et seront “confondus” par le système). Ce nom de projet peut être défini dans le fichier .env, via la variable COMPOSE_PROJECT_NAME
.
On peut lister tous les projets docker-compose via la commande suivante (source) :
docker ps --filter "label=com.docker.compose.project" -q | xargs docker inspect --format='{{index .Config.Labels "com.docker.compose.project"}}'| sort | uniq
.
On peut construire l’image avec docker-compose build
. Elle sera nommée testcompose_apache-test
(nomdudossier_nomduservice).
Ceci crée aussi un réseau testcompose_default
auquel seront liés tous les services définis dans le docker-compose.yml.
On peut aussi construire l’image, puis démarrer un container basé sur cette image, via docker-compose up --build
.
Ceci va créer un container dont le nom est testcompose_apache-test_1
.
On peut passer les conteneurs en arrière-plan avec l’option -d
.
On peut passer des arguments à docker-compose via l’entrée command
(qui, contrairement à ce que son nom indique, ne fait que rajouter des arguments à l’entrypoint défini dans l’image, à condition que celle-ci ait été définie en forme Exec, et non Shell. Source ).
On peut écrire la commande sur plusieurs lignes, en suivant la syntaxe suivante (ne PAS échapper les fins de lignes) :
command: >
myapp
--firstoption "value"
--secondoption
--thirdoption "value"
(explication ici)
Docker secrets
Lire ici !
Variable d’environnement
Voir ici : https://vsupalov.com/docker-arg-env-variable-guide/
En gros,on a :
-
Le fichier .env
: n’est pris en compte qu’au moment de l’interprétation du fichier docker-compose.yml
, et sert à remplacer des variables dans ce fichier par des valeurs. Elles ne seront absolument PAS visibles par le conteneur lors de son exécution. Le nom d’un service ne peut toutefois pas utiliser de variable.
-
Les arguments type docker create -e VAR=val
pour définir des variables qui seront accessibles dans le conteneur en exécution (on peut les lister avec la commande env
lancée dans le conteneur). Ce mécanisme est utilisable dans docker-compose via la directive environment:
-
L’argument docker create --env-file=./fichier
qui permet de définir un fichier dans lequel lire des variables, qui seront accessibles comme si elles avaient été passées via -e
. Ce mécanisme est utilisable dans docker-compose via la directive env_file:
Troubleshooting
Error starting userland proxy: listen tcp 0.0.0.0:80: bind: address already in use
Signifie que le port sur lequel on essaye de lancer une machine est déjà pris par une autre machine.
Logs
docker logs my-app
Les logs sont stockés dans le fichier /var/lib/docker/containers/<container_id>/<container_id>-json.log
Colorisation des logs
Un certain nombre d’applications sont conçues pour coloriser leur sortie si celle-ci est de type tty.
Ceci peut se paramétrer dans la commande docker : docker -t
ou dans le fichier docker-compose.yml : tty: true
L’avantage est que la sortie visuelle d’une docker logs
sera plus lisible ; l’inconvénient est ça limite les usages autres : un docker logs myapp | less
nous affichera tous les caractères de coloration, rendant l’ensemble peu lisible ; de même, un grep
sur une chaîne avec un changement de coloration au milieu ne fonctionnera pas.
Pour remédier à ceci, on peut utiliser la commande ansi2txt
, contenue dans le paquet Debian colorized-logs
, et qui supprime les caractères de colorisation. Par exemple,
docker logs myapp | ansi2txt | less
Il y’a aussi des solutions individuelles en fonction du programme de sortie ; par exemple pour less, on peut utiliser less -R
pour préserver les couleurs.