OpenAI hat heute die leistungsstärkste Modellserie für professionelle Wissensarbeit vorgestellt: GPT-5.2. Das Modell wurde in der NVIDIA-Infrastruktur, einschließlich NVIDIA Hopper und GB200 NVL72-Systemen, trainiert und bereitgestellt.
GPT-5.2 erzielt die beste Punktzahl für Branchen-Benchmarks wie GPQA-Diamond, AIME 2025 und Tau2 Telecom. Bei führenden Benchmarks, die Fähigkeiten betreffend, die für die Entwicklung von AGI erforderlich sind, wie ARC-AGI-2, setzt GPT-5.2 neue Maßstäbe für modernste Leistung.
Es ist das neueste Beispiel dafür, wie führende KI-Entwickler in großem Maßstab auf der Full-Stack-KI-Infrastruktur von NVIDIA trainieren und bereitstellen.
Pretraining: Die Grundlage der Intelligenz
KI-Modelle werden dank drei Skalierungsgesetzen immer leistungsfähiger: Pre-Training, Nachtrainieren und Skalierung in der Testzeit.
Schlussfolgerungsmodelle, die während der Inferenz Rechenleistung einsetzen, um komplexe Abfragen zu bewältigen, indem mehrere Netzwerke zusammenarbeiten, sind mittlerweile überall anzutreffen.
Pre-Training und Nachtrainieren bleiben jedoch die Grundlage der Intelligenz. Sie sind entscheidend, um Schlussfolgerungsmodelle intelligenter und nützlicher zu machen.
Und um dorthin zu gelangen, ist Skalierbarkeit erforderlich. Das Trainieren von Spitzenmodellen von Grund auf ist keine leichte Aufgabe.
Es erfordert Zehntausende oder sogar Hunderttausende von GPUs, die effektiv zusammenarbeiten.
Diese Skalierbarkeit erfordert herausragende Leistungen in vielen Dimensionen. Es erfordert erstklassige Beschleuniger, fortschrittliche Netzwerke über Scale-up-, Scale-out- und zunehmend Scale-across-Architekturen sowie einen vollständig optimierten Software-Stack. Kurz gesagt, eine speziell entwickelte Infrastrukturplattform, die Leistung in großem Maßstab bietet.
Im Vergleich zur NVIDIA Hopper-Architektur lieferten NVIDIA GB200 NVL72-Systeme eine dreimal schnellere Trainingsleistung auf dem größten Modell, das in den neuesten MLPerf Training-Benchmarks getestet wurde, und erzielten eine nahezu doppelt so hohe Leistung pro Dollar.
Und NVIDIA GB300 NVL72 bietet eine mehr als vierfache Beschleunigung im Vergleich zu NVIDIA Hopper.
Diese Leistungssteigerungen helfen KI-Entwicklern, Entwicklungszyklen zu verkürzen und neue Modelle schneller bereitzustellen.
Nachweis in den Modellen aller Modalitäten
Die meisten der heute führenden großen Sprachmodelle wurden auf NVIDIA-Plattformen trainiert.
Bei KI geht es nicht nur um Text.
NVIDIA unterstützt die KI-Entwicklung in verschiedenen Modalitäten, einschließlich Sprache, Bild- und Videoerzeugung sowie in neuen Bereichen wie Biologie und Robotik.
Modelle wie Evo 2 entschlüsseln beispielsweise genetische Sequenzen, OpenFold3 sagt 3D-Proteinstrukturen voraus und Boltz-2 simuliert Arzneimittelwechselwirkungen, um vielversprechende Kandidaten schneller zu identifizieren.
Auf klinischer Seite generieren NVIDIA Clara-Synthesemodelle realistische medizinische Bilder, um das Screening und die Diagnose voranzutreiben, ohne dass Patientendaten preisgegeben werden.
Unternehmen wie Runway und Inworld trainieren auf der NVIDIA-Infrastruktur.
Runway hat letzte Woche Gen-4.5 angekündigt, ein neues Modell zur Videogenerierung, das laut der Rangliste für künstliche Intelligenz-Analyse derzeit das beste Videomodell der Welt ist.
Gen-4.5 wurde vollständig auf NVIDIA-GPUs entwickelt und ist nun für NVIDIA Blackwell optimiert. Dies umfasst die gesamte Anfangsphase der Forschung und Entwicklung, das Vortraining, das Nach-Training und die Inferenz.
Runway kündigte außerdem GWM-1 an, ein hochmodernes allgemeines Weltmodell, das auf NVIDIA Blackwell trainiert wurde und die Realität in Echtzeit simuliert. Es ist interaktiv, steuerbar und allgemein einsetzbar und bietet Anwendungen in den Bereichen Videospiele, Bildung, Wissenschaft, Unterhaltung und Robotik.
Benchmarks zeigen, warum.
MLPerf ist der Branchenstandard für die Leistung beim Training. In der aktuellen Runde legte NVIDIA die Ergebnisse aller sieben MLPerf Training 5.1 Benchmarks vor und zeigte eine starke Leistung und Vielseitigkeit. Es war die einzige Plattform, die in jeder Kategorie Ergebnisse eingereicht hat.
Die Fähigkeit von NVIDIA, verschiedene KI-Workloads zu unterstützen, hilft Rechenzentren dabei, Ressourcen effizienter zu nutzen.
Deshalb werden KI-Labore wie Black Forest Labs, Cohere, Mistral, OpenAI, Reflection und Thinking Machines Lab auf der NVIDIA Blackwell-Plattform trainiert.
NVIDIA Blackwell in Clouds und Rechenzentren
NVIDIA Blackwell ist bei führenden Cloud-Service-Anbietern, Neo-Clouds und Serverherstellern erhältlich.
Und NVIDIA Blackwell Ultra bietet zusätzliche Verbesserungen in den Bereichen Rechenleistung, Speicher und Architektur und wird jetzt von Serverherstellern und Cloud-Service-Anbietern angeboten.
Wichtige Cloud-Service-Anbieter und NVIDIA Cloud-Partner, darunter Amazon Web Services, CoreWeave, Google Cloud, Lambda, Microsoft Azure, Nebius, Oracle Cloud Infrastructure und Together AI, um nur einige zu nennen, bieten bereits Instanzen an, die von NVIDIA Blackwell unterstützt werden und sorgen so für eine skalierbare Leistung bei der Pre-Training-Skalierung.
Von Grenzmodellen bis hin zur alltäglichen KI – die Zukunft wird mit NVIDIA gestaltet.
Erfahren Sie mehr über die NVIDIA Blackwell-Plattform.
