Amsterdam - 19 maart 2024 - Pure Storage brengt nieuwe gevalideerde referentiearchitecturen uit voor generatieve AI use cases, waaronder een nieuwe NVIDIA OVX-ready gevalideerde referentiearchitectuur. Pure Storage en NVIDIA bieden klanten een bewezen framework voor het beheren van de hoge prestaties en compute-vereisten die zij nodig hebben voor succesvolle AI-implementaties.
Highlights
Voortbouwend op hun samenwerking bieden Pure Storage en NVIDIA de nieuwste technologieën om te voldoen aan de snel groeiende vraag naar AI binnen enterprises. De nieuwe gevalideerde designs en proofs of concept omvatten:
- Retrieval Augmented Generation (RAG) Pipeline voor AI-inferentie: om de nauwkeurigheid, gangbaarheid en relevantie van inferentiecapaciteiten voor Large Language Models (LLM’s) te verbeteren, heeft Pure Storage een RAG-pipeline gecreëerd die gebruikmaakt van NVIDIA NeMo Retriever microservices en NVIDIA GPU’s en Pure Storage all-flash enterprise storage. Hiermee krijgen bedrijven sneller inzicht in hun interne data voor AI-training, waarbij gegarandeerd wordt dat ze de meest recente data gebruiken en wordt voorkomen dat LLM’s opnieuw getraind moeten worden.
- Gecertificeerde NVIDIA OVX Server Storage referentiearchitectuur: Pure Storage heeft de OVX Server Storage validatie behaald en biedt klanten en channelpartners flexibele referentiearchitecturen voor storage, die gevalideerd zijn aan de hand van belangrijke benchmarks. Hierdoor biedt Pure Storage een sterk infrastructuurfundament voor AI hardware- en softwareoplossingen die kosten- en prestatiegeoptimaliseerd zijn. Deze validatie biedt AI-klanten extra keuzemogelijkheden en is een aanvulling op Pure Storage’s NVIDIA DGX BasePOD certificatie, die vorig jaar werd aangekondigd.
- Vertical RAG-ontwikkeling: om de adoptie van AI in verschillende sectoren te versnellen, creëert Pure Storage sectorspecifieke RAG’s in samenwerking met NVIDIA. Zo is er al een RAG ontwikkeld, voor de financiële sector om enorme datasets samen te vatten en te doorzoeken met een hogere nauwkeurigheid dan standaard LLM’s. Financiële dienstverleners kunnen hiermee sneller inzichten krijgen met behulp van AI die direct samenvattingen en analyses maakt van verschillende financiële documenten en andere bronnen. Aanvullende RAG’s voor de gezondheidszorg en de publieke sector komen eraan.
- Uitgebreide investering in AI-partner ecosysteem: Pure Storage investeert samen met NVIDIA in zijn AI-partner ecosysteem en gaat nieuwe samenwerkingsverbanden aan met Independent Software Vendor’s (ISV's) zoals Run.AI en Weights & Biases. Run.AI optimaliseert het GPU-gebruik door middel van geavanceerde orkestratie en scheduling; Met het AI-ontwikkelplatform van Weights & Biases kunnen ML-teams de lifecycle van modelontwikkeling bouwen, evalueren en beheren. Daarnaast werkt Pure Storage nauw samen met AI-gerichte resellers en servicepartners, waaronder ePlus, Insight, WWT en anderen, om gezamenlijke AI-implementaties bij klanten verder te operationaliseren.
Belang voor de industrie
Nu steeds meer bedrijven AI verder omarmen om innovatie te stimuleren, de activiteiten te stroomlijnen en een concurrentievoordeel te behalen, is de vraag naar robuuste, krachtige en efficiënte AI-infrastructuur nog nooit zo groot geweest.
Op dit moment zijn de meeste AI-implementaties verspreid over gefragmenteerde data-omgevingen - van de cloud tot ongeschikte (vaak legacy) storageoplossingen. Deze gefragmenteerde omgevingen kunnen echter niet de prestaties en netwerkvereisten ondersteunen die nodig zijn om AI-datapipelines te voeden met data en het volledige potentieel van bedrijfsdata te benutten.
Pure Storage is pionier op het gebied van AI-implementaties bij enterprises - met name bij een snel groeiende groep Fortune 500-klanten - en biedt een eenvoudig, betrouwbaar en efficiënt storageplatform waarmee enterprises het potentieel van AI volledig kunnen benutten. Daarbij worden de bijbehorende risico's, kosten en het energieverbruik beperkt.