Der NetApp AIPod Mini integriert Intel® Xeon® 6 Prozessoren und Intel® Advanced Matrix Extensions (Intel® AMX) mit NetApps All-Flash-Speicher, fortschrittlichem Datenmanagement und tiefer Kubernetes-Integration, um hochleistungsfähiges, kosteneffizientes AI-Inferencing in großem Maßstab zu liefern. Auf einem offenen Framework basierend, das von der Open Platform for Enterprise AI (OPEA) betrieben wird, gewährleistet es modulare, flexible Bereitstellungen, die auf die Geschäftsanforderungen zugeschnitten sind.
Der AIPod Mini ist ideal für Organisationen, die erschwingliche, einfache und sichere AI-Lösungen für Abteilungs- oder Geschäftseinheitsbudgets suchen.
Der AIPod Mini bietet Unternehmensleistung zu einem niedrigen Einstiegspreis, der für Skalierbarkeit ohne unnötigen Overhead oder Kosten ausgelegt ist. Ein vorvalidiertes Referenzdesign mit vorverpackten Workflows ermöglicht eine schnelle Einrichtung, nahtlose Integration und einfache Nutzung. Eingebaute Cyber-Resilienz und Datenverwaltungskapazitäten gewährleisten die Vertraulichkeit der Daten und schützen vor Ransomware.