Ressources Outils d'intégration continue
ArticlesetTermes du glossaireetDiscussionsetRapports pour approfondir vos connaissances sur Outils d'intégration continue
Les pages de ressources sont conçues pour vous donner une vue d'ensemble des informations que nous avons sur des catégories spécifiques. Vous trouverez articles de nos expertsetdéfinitions de fonctionnalitésetdiscussions d'utilisateurs comme vousetrapports basés sur des données sectorielles.
Articles Outils d'intégration continue
Conteneurs en tant que service : Types, avantages et meilleurs logiciels en 2023
Termes du glossaire Outils d'intégration continue
Explorez notre Glossaire de la technologie
Parcourez des dizaines de termes pour mieux comprendre les produits que vous achetez et utilisez tous les jours.
Discussions Outils d'intégration continue
Dans le passé, nous avons eu des problèmes d'espace d'instance, nous l'hébergeons sur AWS EC2. La dernière fois que cela s'est produit, nous avons augmenté la taille du disque de l'instance mais nous avons également configuré Gitlab pour envoyer les artefacts de pipeline et le cache vers un bucket S3. Est-il possible de faire de même pour tous les contenus du dépôt ? Y a-t-il un impact sur les performances que nous devons prendre en compte ?
Les sauvegardes sont un excellent point de restauration pour lorsque votre état actuel n'est "pas bon" pour une raison quelconque. Cependant, parfois, vous aimeriez simplement revisiter l'état du site dans un passé très récent. Actuellement, ce processus nécessite que vous obteniez manuellement et individuellement le code, la base de données et les fichiers pour le nouvel environnement MultiDev.
Nous avons un CJOC où tous les agents de construction sont éphémères et dockerisés. Nous exécutons toutes les constructions sur ces conteneurs Docker dont l'image de base est Amazon Linux. Nous utilisons le pipeline Kaniko pour construire de nouvelles images Dockerless sur ces agents de construction conteneurisés. Je veux analyser ces images construites par le pipeline Kaniko pour détecter les vulnérabilités avant de les pousser vers Amazon ECR. Nous utilisons SNYK pour les constructions locales, avons également essayé le plugin SNYK pour Jenkins mais il nécessite que le démon Docker soit installé sur une VM statique (VM statique que nous n'utilisons pas). Nous avons essayé la solution Docker in Docker fournie sur Cloudbees Docs mais ce n'est pas faisable dans un environnement de production car nous devons donner des privilèges root au conteneur en cours d'exécution. Avez-vous d'autres solutions auxquelles vous pouvez penser ? Si vous avez une idée pour résoudre ce problème, envoyez-moi un e-mail à mayank.sinha@salesforce.com P.S. J'ai utilisé GitHub Actions et il analyse les images en un rien de temps. J'espère que nous pouvons faire de même dans Cloudbees Jenkins.


