Fabela philosophie de Docker c'est d'avoir une seule image pour dev et prod, ce qui change devrait être exposé dans les variables d'environnements ou dans un éventuel gestionnaire de secret externe.Je commence seulement à voir les subtilités du
CMD
dans Docker et des possibilités de pouvoir passer des arguments à ce qui va être exécuté dans le conteneur. Mais la "difficulté", c'est qu'il y a une couche intermédiaire (gunicorn) qui doit aussi connaître ces paramètres pour distinguer prod/dev. Mon idée pour l'instant est de faire en sorte que le conteneur fonctionne sur base d'un seul fichier settings, qui sera différent en fonction de l'environnement dans lequel le conteneur va tourner. Le "hic", c'est qu'il y a déjà trois settings différents pour Lexpage (dev, prod et travis), et que je vais devoir "dupliquer" certains settings pour permettre de faire tourner le site en dehors d'un conteneur également (par ex, hors conteneur, c'est sqlite et memcache qui sont utilisés, alors que dans le conteneur ou en prod, c'est pgsql/redis). J'aimerai éviter de dupliquer les settings (y a déjà un "settings_common" qui est inclus dans les deux fichiers de settings existants, mais j'aimerai pouvoir "composer" tout cela un peu plus proprement).SyssonEt ce serait super sympa d'en informer tous les autres gens qui ne font que du docker et pour lesquels tu peux te brosser si tu veux installer à l'ancienne! Et oui installer à l'ancienne pour connaitre le bousin ça a une valeur à minima éducative, faire l'expérience de la stack et tout via un moyen simple : le déploiement!Tout à fait, sans compter que certaines opérations ne sont pas simples à réaliser si l'application tourne dans un conteneur lors du dev (par exemple, je ne sais pas dans quelle mesure nos tests de Django avec Selenium peuvent être lancés dans le conteneur, tout en ayant Selenium qui communique avec le browser en dehors du conteneur. A moins de faire comme avec Travis et de faire tourner ces tests en mode "headless" (mais ça veut dire un dockerfile spécifique pour le dev, du coup, même si c'est pas "fondamentalement" un souci).
GuybrushMon idée pour l'instant est de faire en sorte que le conteneur fonctionne sur base d'un seul fichier settings, qui sera différent en fonction de l'environnement dans lequel le conteneur va tourner.Si ce fichier de settings est vraiment très différent d'un environnement docker à l'autre, une possibilité est de le mettre dans un répertoire donné et d'ouvrir un "volume" dessus, mais ce n'est pas très élégant ni très exploitable en mode cloud (Kube).
.env
facilement sourçable.Guybrushje ne sais pas dans quelle mesure nos tests de Django avec Selenium peuvent être lancés dans le conteneur,Quel est l'intérêt ? Selenium peut tourner sur ton poste et parler au conteneur sur le port qu'il expose pour HTTP.
FabeL'idéal est vraiment de factoriser au max ce qui peut l'être entre tous les environnements et d'exposer le reste en variable d'env. C'est même une bonne pratique hors docker, en mettant ce type de conf dans un fichier .env
facilement sourçable.
Question bête mais comment exposes-tu les variables d'environnement sans avoir à modifier le dockerfile ? FabeQuel est l'intérêt ? Selenium peut tourner sur ton poste et parler au conteneur sur le port qu'il expose pour HTTP.Selenium est directement utilisé par les tests, il faut donc que le driver soit accessible depuis le conteneur, non ?
FabeSinon, c'est aussi cool d'avoir un conteneur juste pour Selenium avec un chromium headless et de les orchestrer dans un docker-compose. Ça évite de se farcir l'install de la suite localement.J'étais plus parti dans l'optique d'avoir un autre dockerfile faisant une extension du premier, y ajoutant Selenium et le browser headless, et qui run la suite de test comme un grand, mais je n'ai pas encore le réflexe de "tout séparer"
GuybrushQuestion bête mais comment exposes-tu les variables d'environnement sans avoir à modifier le dockerfile ? Je peux les fournir lors de la mise en route du conteneur par systemd, je suppose ?Effectivement, au start du conteneur, avec la cli ça ressemble à
docker run moncontainer -e MAVAR:lol
(de mémoire )Guybrush Mais ça ne me plait pas "trop" d'avoir une partie de la configuration du Lexpage (pour la prod, celle que je ne peux pas rendre publique, comme les clés de chiffrement) dans ce genre d'endroitsC'est vraiment pas mieux de l'avoir dans le filesystem de l'image
docker secret create
mais je ne m'en suis jamais servi.GuybrushSelenium est directement utilisé par les tests, il faut donc que le driver soit accessible depuis le conteneur, non ?Si les tests sont exécutés dans le conteneur, oui, mais c'est rarement le cas. Par exemple en PHP on met généralement phpunit dans les
require-dev
qui ne sont pas embed dans le container destiné à la prod.
Ce message a été modifié 1 fois.
Dernière modification : 22 janvier 2019
à 17:51 par
Fabe.
FabeEffectivement, au start du conteneur, avec la cli ça ressemble àOk, donc ça revient plus ou moins au même que de passer ça sous forme de paramètres viadocker run moncontainer -e MAVAR:lol
(de mémoire )
C'est mappé dans les fichiers de config des orchestrateurs (Kube / docker-compose)
CMD
, sauf que c'est un peu plus souple pour le coup. FabeC'est vraiment pas mieux de l'avoir dans le filesystem de l'imageQu'entends-tu exactement par "gestionnaire de secrets" ?
Mais effectivement pour les secrets les variables d'env sont pas non plus la panacée. Un gestionnaire de secret serait recommandé mais ça fait du code en plus.
FabeIl y a peut-être quelque chose à creuser avec la commande docker secret create
mais je ne m'en suis jamais servi.
Je vais voir, je ne connaissais pas cette commande (mais je n'ai pas encore fini la doc ^^)FabeSi les tests sont exécutés dans le conteneur, oui, mais c'est rarement le cas. Par exemple en PHP on met généralement phpunit dans les require-dev
qui ne sont pas embed dans le container destiné à la prod.
Je ne suis pas sûr de bien comprendre Tu lances bien les tests dans le conteneur, non ? Si les libs de tests & co ne sont pas dans le conteneur, comment exécutes-tu les tests ? Et si c'est dans le conteneur, comme peuvent-ils interagir avec ce qui se trouve en dehors du conteneur (par ex Selenium ?). FabeUn container dédié à l'exécution des tests semble adapté, ou alors ils tournent directement sur l'host / sur travis.A priori, je ne compte pas faire tourner les tests sur l'host, mais bien en local (vu qu'avec les conteneurs, ce sera pratiquement un staging) et sur travis (pour le coté "automatique" bien pratique).
GuybrushOk, donc ça revient plus ou moins au même que de passer ça sous forme de paramètres via CMD, sauf que c'est un peu plus souple pour le coup.Oui, l'objectif est pas le même, on a généralement pas envie de trop customiser le
CMD
quand on utilise une image, ça demande de connaître la tuyauterie interne.GuybrushQu'entends-tu exactement par "gestionnaire de secrets" ?Quelque chose comme Vault de Hashicorp, qui agit comme un coffre fort de configuration qui tourne dans ton infra.
GuybrushJe vais voir, je ne connaissais pas cette commande (mais je n'ai pas encore fini la doc ^^)Je suis preneur du feedback. Dans mon esprit, docker devrait pouvoir déchiffrer le secret au start du container et l'exposer dans une variable d'env. Le doute que j'ai c'est qu'ils ne pourraient l'avoir créé que pour docker swarm.
GuybrushTu lances bien les tests dans le conteneur, non ? Si les libs de tests & co ne sont pas dans le conteneur, comment exécutes-tu les tests ?Nop, en dev je les lance depuis mon IDE ou depuis ma command line hors conteneur. Directement sur la CI sinon. Si l'environnement de test est complexe à installer, il est possible que je lui fasse sa propre image docker.
GuybrushTiens, question un peu con : par défaut, Docker attend un "Dockerfile". Est-ce qu'on peut placer plusieurs dockerfiles dans un même répertoire et les référencer par nomOui,
docker build
prend un path en paramètre.GuybrushDans ce cas, comment ça s'organise ? (je ne suis vraiment pas loin dans la doc, n'hésite pas à lâcher un laconique "RTFM", je ne le prendrai pas malC'est pas mon genre
Guybrush(il faut aussi que je regarde s'il est toujours possible de lancer mon déboggueur dans une telle configuration, mais j'imagine que ouiJe ne sais pas comment fonctionne le debugger en python, en php, ça consiste à dire à xdebug d'écouter sur un certain port et à docker d'exposer ce port. En utilisant le port par défaut les IDE retrouvent leurs petits en général.
VOLUME
, afin que je les édites en live.COPY
. Il y a toujours des subtilités mais en gros les projets que je bosse sous docker ressemblent à ça :.
├── docker
│ ├── dev
│ │ └── Dockerfile
│ └── prod
│ └── Dockerfile
└── docker-compose.yml
Ce message a été modifié 1 fois.
Dernière modification : 23 janvier 2019
à 11:42 par
Fabe.
Ce message a été modifié 1 fois.
Dernière modification : 23 janvier 2019
à 12:15 par
Fabe.
FabeOui, l'objectif est pas le même, on a généralement pas envie de trop customiser le CMD
quand on utilise une image, ça demande de connaître la tuyauterie interne.
Déjà que CMD
n'est pas le machin le plus intuitif quand on voit toutes les subtilités FabeJe suis preneur du feedback. Dans mon esprit, docker devrait pouvoir déchiffrer le secret au start du container et l'exposer dans une variable d'env. Le doute que j'ai c'est qu'ils ne pourraient l'avoir créé que pour docker swarm.J'ai bookmarké la page de la doc pour ne pas oublier d'aller lire ça (je ne sais pas si j'aurai le temps aujourd'hui, j'ai pris un peu de retard ce matin sur mon boulot ^^).
FabeJe pense que quand tu seras plus à l'aise avec la CLI ça vaudra le coup que tu te penches sur docker-compose. Je n'utilises plus que ça pour monter mes environnements de dev.Oui, je comptais de toute façon utiliser docker-compose, ne fut-ce que pour faciliter l'orchestration avec pgsql et redis, surtout que pour ces deux derniers, je n'ai même pas besoin de créer un dockerfile spécifique (pour pgsql, je dois juste monter un volume pour les données). A priori, il y aurait 3 conteneurs :
FabeJe ne sais pas comment fonctionne le debugger en python, en php, ça consiste à dire à xdebug d'écouter sur un certain port et à docker d'exposer ce port. En utilisant le port par défaut les IDE retrouvent leurs petits en général.Ca doit être sensiblement la même chose, je crois.
Guybrushenfin, ça semble logique quand je l'écrisOuep 🙂 Release de l'applicatif = nouvelle version de l'image, c'est l'idée 🙂
up -d
pour redémarrer un conteneur suite à un (potentiel) changement d'image. Mais je ne vois pas si cela implique successivement un stop / build / run, ou bien si c'est un build / stop / run, auquel cas le downtime est plutôt faible, ou encore un build / run as temp / stop / rename "temp", auquel cas le downtime est pratiquement nul. Je vais voir si la doc est plus verbeuse que Stack Overflow à ce sujet ]-d
est juste pour le mode "detach" qui est, je pense, le paramètre que je devrai utiliser si je veux supporter ça via systemd (je lirai là dessus plus tard). Ce qui fait que je n'ai pas encore réponse à ma question De ce que je vois, il semble qu'il soit nécessaire de se tourner vers d'autres solutions (WatchTower est notamment cité) qui sont typiquement utilisés dans des approches cloud. Peut-être que je ne devrai pas m'inquiéter d'un downtime de quelques secondes]
Ce message a été modifié 2 fois.
Dernière modification : 23 janvier 2019
à 16:47 par
Guybrush.
1996-2024 — Lexpage v4 — GPLv3 (sources)
page générée le 23 décembre 2024 à 15:26:35