NVIDIA und Microsoft haben heute Produktintegrationen vorgestellt, die die Full-Stack-Entwicklung von NVIDIA AI auf Microsoft-Plattformen und -Anwendungen vorantreiben sollen.
Auf der Microsoft Ignite kündigte Microsoft den Start der ersten privaten Cloud-Vorschau der Azure ND GB200 V6 VM-Serie an, die auf der NVIDIA Blackwell-Plattform basiert. Azure ND GB200 v6 wird eine neue KI-optimierte Serie virtueller Maschinen (VM) sein und kombiniert das NVIDIA GB200 NVL72-Rack-Design mit NVIDIA Quantum InfiniBand-Netzwerken.
Darüber hinaus gab Microsoft bekannt, dass Azure Container Apps jetzt NVIDIA-GPUs unterstützt, was eine vereinfachte und skalierbare KI-Bereitstellung ermöglicht. Außerdem enthält die NVIDIA AI Plattform auf Azure neue Referenz-Workflows für industrielle KI und einen NVIDIA Omniverse Blueprint für die Erstellung immersiver, KI-gestützter Visualisierungen.
Auf der Ignite kündigte NVIDIA außerdem multimodale Small-Language-Modelle (SLMs) für RTX-KI-PCs und -Workstations an, die digitale menschliche Interaktionen und virtuelle Assistenten noch realistischer machen.
NVIDIA Blackwell betreibt die KI der nächsten Generation auf Microsoft Azure
Die neue Azure ND GB200 V6 VM-Serie von Microsoft nutzt die kraftvolle Leistung von NVIDIA GB200 Grace Blackwell Superchips in Verbindung mit fortschrittlicher NVIDIA Quantum InfiniBand Netzwerktechnologie. Dieses Angebot ist für umfangreiche Deep-Learning-Workloads optimiert, um Durchbrüche bei der Verarbeitung natürlicher Sprache, Computer Vision und mehr zu beschleunigen.
Die Blackwell-basierte VM-Serie ergänzt zuvor angekündigte Azure AI-Cluster mit ND H200 V5-VMs, die einen erhöhten Speicher mit hoher Bandbreite für eine verbesserte KI-Inferenz bieten. Die ND H200 V5 VMs werden bereits von OpenAI verwendet, um ChatGPT zu verbessern.
Azure Container Apps ermöglicht serverlose KI-Inferenz mit NVIDIA Accelerated Computing
Serverloses Computing bietet Entwicklern von KI-Anwendungen mehr Agilität, um Anwendungen schnell bereitzustellen, zu skalieren und zu iterieren, ohne sich um die zugrunde liegende Infrastruktur kümmern zu müssen. Dadurch können sie sich auf die Optimierung von Modellen und die Verbesserung der Funktionalität konzentrieren und gleichzeitig den betrieblichen Aufwand minimieren.
Die serverlose Container-Plattform von Azure Container Apps vereinfacht die Bereitstellung und Verwaltung von Microservices-basierten Anwendungen, indem die zugrunde liegende Infrastruktur abstrahiert wird.
Azure Container Apps unterstützt jetzt NVIDIA-beschleunigte Workloads mit serverlosen GPUs, sodass Entwickler die Leistung von beschleunigtem Computing für KI-Inferenzanwendungen in Echtzeit in einer flexiblen, verbrauchsabasierten serverlosen Umgebung nutzen können. Diese Funktion vereinfacht die KI-Bereitstellung im großen Maßstab und verbessert die Ressourceneffizienz und Anwendungsleistung ohne den Aufwand für die Infrastrukturverwaltung.
Serverlose GPUs ermöglichen es Entwicklungsteams, sich mehr auf Innovationen und weniger auf die Infrastrukturverwaltung zu konzentrieren. Mit sekundenbasierter Abrechnung und Scale-to-Zero-Fähigkeiten zahlen Kunden nur für die von ihnen genutzte Rechenleistung, wodurch eine kostengünstige und effiziente Ressourcennutzung sichergestellt wird. NVIDIA arbeitet auch mit Microsoft zusammen, um NVIDIA NIM Microservices auf serverlose NVIDIA-GPUs in Azure zu bringen und so die KI-Modellleistung zu optimieren.
NVIDIA stellt Omniverse Referenz-Workflows für fortschrittliche 3D-Anwendungen vor
NVIDIA kündigte Referenz-Workflows an, die Entwicklern helfen, 3D-Simulationen und digitale Zwillingsanwendungen auf Basis von NVIDIA Omniverse und Universal Scene Description (OpenUSD) zu erstellen – und damit die industrielle KI zu beschleunigen und die KI-getriebene Kreativität zu fördern.
Ein Referenz-Workflow für die 3D-Remote-Überwachung industrieller Abläufe wird in Kürze zur Verfügung stehen. Damit können Entwickler physisch genaue 3D-Modelle industrieller Systeme mit Echtzeitdaten aus Azure IoT Operations und Power BI verbinden.
Diese beiden Microsoft-Dienste lassen sich in Anwendungen integrieren, die auf NVIDIA Omniverse und OpenUSD basieren, um Lösungen für industrielle IoT-Anwendungsfälle bereitzustellen. Dies hilft dezentralen Betriebsteams, die Entscheidungsfindung zu beschleunigen und die Prozesse in den Produktionsstätten zu optimieren.
Der Omniverse Blueprint für präzise visuelle generative KI ermöglicht es Entwicklern, Anwendungen zu erstellen, mit denen auch technisch nicht versierte Teams KI-verbesserte Visualisierungen generieren können, ohne die Marken-Assets zu beeinträchtigen. Der Blueprint unterstützt Modelle wie SDXL und Shutterstock Generative 3D, um die Erstellung von markengerechten, KI-generierten Bildern zu optimieren.
Führende Kreativgruppen, darunter Accenture Song, Collective, GRIP, Monks und WPP, haben diesen NVIDIA Omniverse Blueprint übernommen, um Bilder auf verschiedenen Märkten zu personalisieren und anzupassen.
Beschleunigung von generativer KI für Windows mit RTX-KI-PCs
Die Zusammenarbeit von NVIDIA mit Microsoft erstreckt sich auf die Integration von KI-Funktionen in PC-Geräte.
Auf der Ignite kündigte NVIDIA sein neues multimodales SLM an, NVIDIA Nemovision-4B Instruct, um visuelles Bildmaterial in der realen Welt und auf dem Bildschirm zu verstehen. Es wird in Kürze auf RTX-KI-PCs und -Workstations verfügbar sein und ebnet den Weg für anspruchsvollere und lebensechte digitale menschliche Interaktionen.
Außerdem bieten Updates für NVIDIA TensorRT Model Optimizer (ModelOpt) Windows-Entwicklern einen Pfad zur Optimierung eines Modells für die Bereitstellung von ONNX Runtime. TensorRT ModelOpt ermöglicht es Entwicklern, KI-Modelle für PCs zu erstellen, die schneller und genauer sind, wenn sie von RTX-GPUs beschleunigt werden. Dadurch können große Modelle in die Beschränkungen von PC-Umgebungen eingepasst werden, während es für Entwickler einfach ist, sie im gesamten PC-Ökosystem mit ONNX-Laufzeiten einzusetzen.
RTX-KI-fähige PCs und Workstations bieten verbesserte Produktivitätstools, kreative Anwendungen und immersive Erlebnisse, die von lokaler KI-Verarbeitung unterstützt werden.
Full-Stack-Zusammenarbeit für die KI-Entwicklung
Das umfangreiche Ökosystem von Partnern und Entwicklern von NVIDIA bringt eine Fülle von KI- und High-Performance-Computing-Optionen in die Azure-Plattform.
SoftServe, ein globaler Anbieter von IT-Beratung und digitalen Diensten, gab heute die Verfügbarkeit von SoftServe Gen AI Industrial Assistant – basierend auf NVIDIA AI Blueprint für die multimodale PDF-Datenextraktion – auf dem Azure Marketplace bekannt. Der Assistent löst kritische Herausforderungen in der Fertigung, indem er KI nutzt, um die Gerätewartung zu verbessern und die Produktivität der Mitarbeitenden zu steigern.
Auf der Ignite wird AT&T zeigen, wie das Unternehmen NVIDIA AI und Azure einsetzt, um die betriebliche Effizienz zu verbessern, die Produktivität der Mitarbeitenden zu steigern und das Unternehmenswachstum durch Retrieval-Augmented Generation und autonome Assistenten und Agenten zu fördern.
Erfahren Sie mehr über die Zusammenarbeit von NVIDIA und Microsoft und die Sitzungen auf der Ignite.
Siehe Hinweis zu Software-Produktinformationen.