OpenUSD, AI Workbench, neue Grace Hopper 200 GPU, mehr

Blog

HeimHeim / Blog / OpenUSD, AI Workbench, neue Grace Hopper 200 GPU, mehr

Mar 22, 2024

OpenUSD, AI Workbench, neue Grace Hopper 200 GPU, mehr

Die neue GH 200 Grace Hopper GPU, vorgestellt auf der SIGGRAPH 2023. NVIDIA beschreibt sie als „Superchip-Plattform für die Ära des beschleunigten Computings und der generativen KI“. Bild mit freundlicher Genehmigung von NVIDIA. NVIDIA-CEO

Die neue GH 200 Grace Hopper GPU, vorgestellt auf der SIGGRAPH 2023. NVIDIA beschreibt sie als „Superchip-Plattform für die Ära des beschleunigten Computings und der generativen KI“. Bild mit freundlicher Genehmigung von NVIDIA.

Jensen Huang, CEO von NVIDIA, hat USD bereits zur Verkehrssprache von NVIDIA Omniverse™ gemacht, der Entwicklungsplattform des Unternehmens zum Verbinden und Erstellen von 3D-Pipelines, Tools, Anwendungen und Diensten auf Basis von OpenUSD. Jetzt unternimmt er Schritte, um es über das OpenUSD-Framework zum Standard für alles 3D zu machen. In seiner Keynote auf der SIGGRAPH 2023 (Los Angeles, Kalifornien, 6.-10. August) sagte er: „OpenUSD ist eine große Sache, ein Game Changer. Es wird die Welt auf einen einheitlichen 3D-Austausch bringen. Es bietet die Möglichkeit, für die Welt und für die Informatik das zu tun, was HTML für das 2D-Web getan hat.“

In einer Pressemitteilung sagt NVIDIA: „NVIDIA treibt die Entwicklung von OpenUSD voran – einem 3D-Framework, das die Interoperabilität zwischen Softwaretools und Datentypen für den Aufbau virtueller Welten ermöglicht – durch NVIDIA Omniverse und ein neues Portfolio von Technologien und Cloud-Anwendungsprogrammierschnittstellen ( APIs) – einschließlich ChatUSD und RunUSD – zusammen mit einem neuen NVIDIA OpenUSD-Entwicklerprogramm.“

Gleichzeitig unterstützt NVIDIA auch die Alliance for OpenUSD (AOUSD), eine Brancheninitiative zur „Förderung der Standardisierung, Entwicklung, Weiterentwicklung und des Wachstums der Universal Scene Description-Technologie von Pixar“, heißt es auf der neu gestarteten Homepage der Allianz. Neben NVIDIA sind Pixar, Adobe, Apple und Autodesk als Gründungsmitglieder der Allianz beigetreten.

All diese Entwicklungen stärken Omniverse und fügen dem Omniverse Kit neue Entwicklerfunktionen hinzu.

Huang sprach über die Einführung der GPUs der RTX-Serie im Jahr 2018 als einen Wendepunkt für ihn und das Unternehmen. „Sie wussten es damals noch nicht, aber wir wussten es. Es war ein entscheidender Moment … man kann mit Sicherheit sagen, dass sich die Wette gelohnt hat“, sagte er.

Huang sah voraus, dass die Rasterisierung an ihre Grenzen gestoßen war und die Zukunft der GPU im Echtzeit-Raytracing lag. „Es war erforderlich, dass wir die GPU neu erfanden, Raytracing-Beschleuniger hinzufügten, die Software für das Rendering neu erfanden und alle Algorithmen neu erfanden, die wir für die Rasterung und programmierbare Schattierung erstellt hatten. Und das war nicht genug. Um das zu ermöglichen, mussten wir erstmals Computergrafik und künstliche Intelligenz (KI) zusammenbringen“, erzählt er. Diese Strategie katapultierte NVIDIA auch in ein Neuland und verwandelte das Unternehmen von einem Anbieter von Grafikbeschleunigungshardware in ein KI-Unternehmen.

Auf der diesjährigen SIGGRAPH stellte Huang die GH200 Grace Hopper GPU der nächsten Generation vor. Er nannte es den Superchip „für das Zeitalter des beschleunigten Rechnens und der generativen KI“. Er hielt die Hardware hoch und sagte: „Es verwandelt im Grunde genommen zwei Superchips in einen supergroßen Superchip, eine riesige GPU und eine riesige CPU.“ Die CPU verfügt jetzt über 144 Kerne, die GPU verfügt über eine Framebuffer-Bandbreite von 10 TB pro Sekunde“, sagte er.

Die Dual-Konfiguration „liefert bis zu 3,5-mal mehr Speicherkapazität und 3-mal mehr Bandbreite als das Angebot der aktuellen Generation“, heißt es in der Pressemitteilung von NVIDIA. Darüber hinaus „umfasst es einen einzelnen Server mit 144 Arm Neoverse-Kernen, acht Petaflops KI-Leistung und 282 GB der neuesten HBM3e-Speichertechnologie.“

Grace Hopper zielt auf generative KI-Workloads ab, beispielhaft dargestellt durch den Chatbot ChatGPT, den aufforderungsbasierten Bildgenerator Midjourney und andere ähnliche KI-gesteuerte Anwendungen.

„Das Zeitalter der generativen KI steht vor der Tür – wenn man so will, der iPhone-Moment der KI, in dem alle Technologien der künstlichen Intelligenz so zusammenkamen, dass wir jetzt in den Genuss von KI kommen können“, sagte Huang.

Der Simulationssoftwareentwickler Ansys hat AnsysGPT auf den Markt gebracht, einen virtuellen Assistenten, der die Verarbeitung natürlicher Sprache im ChatGPT-Stil in seine Angebote integriert. Dies ist Neuland für FEA- und CFD-Anbieter, aber die Softwareanbieter, die KI-gestützte Lösungen entwickeln, sehen erhebliche Chancen für die Technologie, ein höheres Maß an Simulationsgenauigkeit zu ermöglichen und es gleichzeitig für Benutzer einfacher zu machen, erweiterte Analysen einzurichten und durchzuführen.

Ein Ort, an dem Entwickler zu Schulungszwecken Zugang zu großen Sprachmodellen (LLMs) erhalten können, ist Hugging Face, eine Online-KI-Community. Das Unternehmen sagt, seine Mission sei es, „gutes maschinelles Lernen zu demokratisieren“. Auf der SIGGRAPH gab NVIDIA eine Partnerschaft mit Hugging Face bekannt, die Entwicklern Zugriff auf NVIDIA DGX Cloud AI Supercomputing innerhalb der Hugging Face-Plattform bietet.

„Im Rahmen der Zusammenarbeit wird Hugging Face einen neuen Service namens Training Cluster as a Service anbieten, um die Erstellung neuer und benutzerdefinierter generativer KI-Modelle für Unternehmen zu vereinfachen. Der von NVIDIA DGX Cloud betriebene Dienst wird in den kommenden Monaten verfügbar sein“, sagt NVIDIA.

Um die Entwicklung von KI-Anwendungen zu fördern, kündigte NVIDIA NVIDIA AI Workbench an, ein Toolkit zum schnellen Verwenden, Erstellen, Testen und Anpassen vorab trainierter generativer KI-Modelle und LLMs auf PCs, Workstations und Remote-Ressourcen. Es bringt beispiellose Rationalisierung und Automatisierung auf lokale Maschinen und bietet Datenwissenschaftlern und Entwicklern eine einfache und skalierbare Benutzererfahrung, wo auch immer sie arbeiten möchten.

Die offene Architektur löst offene Probleme der Portabilität und Reproduzierbarkeit zwischen Maschinen und Plattformen, und die benutzerfreundliche Benutzeroberfläche bietet diese Lösung für ein breites Spektrum an Fähigkeiten für Unternehmensbenutzer und Einzelverbraucher. AI Workbench ist nicht nur für Experten. Es ist für alle da. Huang sagte: „Wenn Sie Ihr Projekt migrieren möchten, damit alle Ihre Kollegen es verwenden und andere Modelle optimieren können, können Sie ihm einfach sagen, wohin Sie es migrieren möchten. Und mit einem Klick wird das Projekt migriert, mit allen Laufzeiten, allen Bibliotheken, allen Komplexitäten, und es läuft auf Workstations und im Rechenzentrum. Es läuft in der Cloud – ein einziger Codekörper.“

Wichtig ist, dass AI Workbench das Problem der letzten Meile für Einzelpersonen und Teams löst, die mit der auf der Messe angekündigten neuen Reihe von AI Workstations beginnen und skalieren möchten. die über NVIDIA RTX 6000 Ada Generation GPUs, NVIDIA Omniverse und NVIDIA AI Enterprise Software verfügen. Ebenfalls erhältlich sind Workstations, die mit NVIDIA RTX 5000, 4500 und 4000 Ada Generation GPUs konfiguriert sind, alle bald von Dell Technologies und anderen OEM-Partnern erhältlich.

„Nur wenige Workloads sind so anspruchsvoll wie generative KI- und Digitalisierungsanwendungen, die einen Full-Stack-Ansatz für die Datenverarbeitung erfordern“, sagte Bob Pette, VP of Professional Visualization bei NVIDIA. „Profis können diese Aufgaben jetzt auf einem Desktop mit den neuesten NVIDIA-basierten RTX-Workstations bewältigen und so riesige, digitalisierte Welten im neuen Zeitalter der generativen KI aufbauen.“