Der neue, optimierte Stack erschließt das volle Potenzial von NVIDIA Vera Rubin für agentenbasierte KI und Inferenz in Unternehmen
West Palm Beach, Florida, 17. März 2026 – Das weltweit größte privat geführte Cloud-Infrastrukturunternehmen Vultr gab heute bekannt, dass es einen optimierten Inferenz-Stack auf der NVIDIA-Rubin-Plattform bereitstellt. Dieser jüngste Meilenstein in der langjährigen Zusammenarbeit zwischen NVIDIA und Vultr ermöglicht branchenführende Tokenomics. Zudem unterstützt sie Unternehmen mit einer einsatzbereiten, modularen Cloud-Infrastruktur, die auf für NVIDIA optimierten Open-Source-Modell- und Inferenz-Frameworks basiert. Vultr kündigte zudem die sofortige Verfügbarkeit von Full-Stack-Lösungen für NVIDIA AI Enterprise Inference über die Partner WWT und NetApp an. Die Unterstützung für NVIDIA Vera Rubin ist für das 4. Quartal 2026 geplant.
Im Rahmen dieser branchenweit einzigartigen Lösung setzt Vultr das NVIDIA-Dynamo-Inferenz-Framework und die NVIDIA-Nemotron-Modellfamilie ein, um KI-Ergebnisse und gezielte Anwendungsfälle in bestimmten Branchen zu beschleunigen. Diese leistungsstarken Open-Source-Ressourcen ermöglichen einen höheren Durchsatz und eine nahtlose Skalierung von Inferenz-Workloads. In Kombination mit der leistungsstarken Infrastruktur von Vultr beschleunigen NVIDIA Dynamo und Nemotron die Bereitstellung und senken gleichzeitig die Kosten für die Inferenz. Damit werden entscheidende Hindernisse für die Skalierung von KI-Initiativen in Unternehmen aus dem Weg geräumt.
„Der Aufstieg der agentenbasierten KI erfordert eine leistungsstarke, zuverlässige KI-Infrastruktur und einen produktionsreifen Full-Stack, um Innovationen voranzutreiben“, sagte J. J. Kardwell, CEO von Vultr. „Gemeinsam mit NVIDIA und unseren Softwarepartnern bieten wir eine integrierte KI-Umgebung, die es Unternehmen ermöglicht, Modelle der nächsten Generation effizient und in großem Maßstab auf der Rubin-Plattform von NVIDIA bereitzustellen.“
Als bevorzugter NVIDIA-Cloud-Partner stellt Vultr die NVIDIA-KI-Infrastruktur weltweit in jeder Größenordnung bereit. Kunden können einmal entwickeln und breit einsetzen, was die Skalierbarkeit fördert und die Amortisationszeit für KI-Anwendungen verkürzt. Der neue Inferenz-Stack für Unternehmen kann in öffentlichen, privaten oder souveränen Clouds bereitgestellt werden und eignet sich somit für ein breites Spektrum an Anwendungsfällen in Unternehmen, einschließlich solcher mit hochsensiblen Daten.
„Die globale Reichweite und die Kapazitäten auf Hyperscaler-Niveau machen Vultr zu einem starken Partner in dieser nächsten Evolutionsstufe des KI-Zeitalters“, sagte Dave Salvator, Director of Accelerated Computing Products bei NVIDIA. „Durch Innovationen gemeinsam mit Vultr können wir unser robustes Open-Source-Portfolio für KI-Workloads in Unternehmen optimieren, Fortschritte im Bereich der agentischen KI vorantreiben und die Wirtschaftlichkeit von Inferenz neu definieren. Die Einführung von NVIDIA Vera Rubin-Systemen bedeutet, die Zukunft des Unternehmens zu erschließen, in der KI Produktivität, Effizienz und Servicequalität auf ein neues Niveau hebt.“
Zur weiteren Optimierung seiner Infrastruktur ist Vultr eine Partnerschaft mit NetApp eingegangen. Ziel ist es, eine robuste und leistungsstarke Grundlage für eine KI-fähige Dateninfrastruktur zu schaffen. AFX von NetApp ist eine disaggregierte Datenmanagement-Plattform, die die für die Entwicklung moderner, KI-gesteuerter Geschäftslösungen erforderliche Leistung und Skalierbarkeit bietet. In Kombination mit der AI Data Engine von NetApp, die auf dem Referenzdesign der NVIDIA AI Data Platform basiert, werden KI-Dienste beschleunigt. Dabei werden KI-fähige Daten vor Ort transformiert, gesichert und für Inferenz auf Unternehmensniveau bereitgestellt, wodurch agentische KI-Workflows vorangetrieben werden.
„Unsere Zusammenarbeit mit Vultr basiert auf der gemeinsamen Mission, Unternehmen dabei zu unterstützen, die heutigen Herausforderungen im Datenmanagement zu meistern und die Grenzen der KI zu erweitern“, sagte Syam Nair, Chief Product Officer bei NetApp. „Indem wir eine Datenplattform der Enterprise-Klasse mit GPU-auslastender Leistung und integrierter Sicherheit in diesen optimierten Stack für die nächste Generation der KI-Infrastruktur integrieren, helfen wir Kunden, KI agil zu nutzen und Geschäftsergebnisse ohne Kompromisse zu erzielen.“
Mit seiner umfassenden globalen Präsenz und Skalierbarkeit setzt Vultr neue Maßstäbe für unternehmensgerechte Cloud-Infrastrukturlösungen. Hunderttausende Unternehmen und Entwickler weltweit vertrauen auf die flexible und kosteneffiziente Infrastruktur von Vultr, um ihre anspruchsvollsten Workloads zu bewältigen. Mit 33 Cloud-Rechenzentrumsregionen auf sechs Kontinenten bietet Vultr GPU-orientierte, infrastrukturbasierte Lösungen, die die erforderliche Datenresidenz, Sicherheit und Zugänglichkeit bieten, um auch geschäftskritische KI-Workloads in stark regulierten Branchen zu unterstützen.
Erfahren Sie mehr darüber, wie Vultr die KI-Infrastruktur für Unternehmen neu definiert, unter vultr.com.
Vultr verfolgt die Mission, leistungsstarke Cloud-Infrastruktur weltweit einfach, erschwinglich und lokal zugänglich zu machen – für Unternehmen und KI-Innovatoren gleichermaßen. Hunderttausende aktive Kunden in 185 Ländern vertrauen auf die flexiblen, skalierbaren Cloud-Compute-, Cloud-GPU-, Bare-Metal- und Cloud-Storage-Lösungen von Vultr. Im Dezember 2024 gab Vultr eine Eigenkapitalfinanzierung mit einer Bewertung von 3,5 Milliarden US-Dollar bekannt. Das Unternehmen wurde von David Aninowsky gegründet und über ein Jahrzehnt eigenfinanziert – heute ist Vultr das weltweit größte privat geführte Cloud-Infrastrukturunternehmen.
Mehr erfahren unter: www.vultr.com
Firmenkontakt
Vultr
– –
– –
– Frankfurt
–

https://www.vultr.com/
Pressekontakt
Fink & Fuchs AG
Patrick Rothwell
Berliner Straße 164
65205 Wiesbaden
0611-74131-16

http://finkfuchs.de