Google Cloud Parallelstore est un système de fichiers parallèle entièrement géré et haute performance conçu pour répondre aux exigences des applications intensives en données, y compris l'intelligence artificielle, l'apprentissage automatique et le calcul haute performance. Construit sur l'architecture de stockage d'objets asynchrone distribué d'Intel, Parallelstore offre un débit de lecture exceptionnel—jusqu'à six fois supérieur aux offres concurrentes de Lustre scratch—ce qui le rend idéal pour les charges de travail nécessitant une latence ultra-faible et un nombre élevé d'opérations d'entrée/sortie par seconde.
Caractéristiques clés et fonctionnalités :
- Performance rapide et évolutive : Parallelstore offre une bande passante élevée, un nombre élevé d'IOPS et une latence ultra-faible en utilisant des supports adressables par octets pour les métadonnées et les petites opérations d'E/S, et des NVMe localement attachés avec une redondance gérée par logiciel pour les opérations d'E/S en vrac.
- Configurable pour s'adapter aux cas d'utilisation : Les utilisateurs peuvent adapter Parallelstore à leurs besoins spécifiques, en construisant des systèmes de l'échelle appropriée pour des cas d'utilisation extrêmes d'IA générative et de simulation HPC.
- Architecture pérenne : Le service prend en charge l'échelle HPC, la convergence IA/ML et l'intégration Kubernetes, permettant aux entreprises de croître et de s'adapter avec un minimum de perturbations. Sa gestion distribuée des métadonnées et son architecture de magasin de valeurs clés s'alignent bien avec les modèles de charge de travail émergents de l'IA.
- Flexibilité open source : Étant construit sur Intel DAOS, une plateforme open source, Parallelstore offre la flexibilité de déployer et, si nécessaire, de migrer des charges de travail critiques à travers ou hors des plateformes de cloud public sans surcharge opérationnelle ni besoin de compétences spécialisées.
Valeur principale et problème résolu :
Parallelstore répond au besoin critique de solutions de stockage haute performance et à faible latence dans les environnements IA, ML et HPC. En fournissant un système de fichiers parallèle géré avec un débit et une évolutivité exceptionnels, il garantit que les ressources de calcul, telles que les GPU et les TPU, sont pleinement utilisées sans être limitées par les contraintes de stockage. Cette optimisation conduit à des temps d'entraînement plus rapides, des simulations plus efficaces et une performance globale améliorée pour les applications intensives en données.