Der NGC-Katalog beschleunigt End-to-End-Workflows mit Containern der Enterprise-Klasse, vorab trainierten KI-Modellen und branchenspezifischen SDKs, die lokal, in der Cloud oder in der Peripherie bereitgestellt werden können.
NVIDIA NGC™ bietet eine Sammlung vollständig verwalteter Cloud-Dienste, einschließlich NeMo LLM, BioNemo und Riva Studio für NLU und KI-Sprachlösungen. KI-Anwender können NVIDIA Base Command für das Modelltraining, NVIDIA Fleet Command für die Modellverwaltung und die NGC Private Registry zum sicheren Teilen proprietärer KI-Software nutzen. Darüber hinaus hostet NGC einen Katalog GPU-optimierter KI-Software, SDKs und Jupyter Notebooks, die helfen, KI-Workflows zu beschleunigen, und Unterstützung über NVIDIA AI Enterprise bieten.
Der NGC-Katalog beschleunigt End-to-End-Workflows mit Containern der Enterprise-Klasse, vorab trainierten KI-Modellen und branchenspezifischen SDKs, die lokal, in der Cloud oder in der Peripherie bereitgestellt werden können.
Staatliche Organisationen, Fortune-500-Unternehmen, Hochleistungsrechenzentren, Hochschulen und sogar KI-Start-up-Unternehmen verwenden Software aus dem NGC-Katalog, um ihre Anwendungen der nächsten Generation zu erstellen.
Von HPC über Gesprächs-KI bis hin zu medizinischer Bildgebung und Empfehlungsdiensten und vielem mehr: NGC Collections bietet sofort einsatzbereite Container, vorab trainierte Modelle, SDKs und Helm-Charts für verschiedene Anwendungsfälle und Branchen – an einem Ort, um Ihren Anwendungsentwicklungs- und Bereitstellungsprozess zu beschleunigen.
Sprachmodellierung ist eine Aufgabe bei der Verarbeitung natürlicher Sprache (Natural Language Processing, NLP), mit der die Wahrscheinlichkeit einer vorgegebenen Wortsequenz in einem Satz bestimmt wird.
Empfehlungsdienste sind eine Art Informationsfiltersystem, das versucht, die "Bewertung" oder "Präferenz" vorherzusagen, die ein Benutzer einem Element geben würde.
Bildsegmentierung ist das Feld der Bildverarbeitung, bei dem es darum geht, ein Bild in mehrere Untergruppen oder Regionen zu unterteilen, die besondere Objekte oder Teilbereiche darstellen.
Maschinelle Übersetzung ist die Aufgabe des Übersetzens von Text aus einer Sprache in eine andere.
Bei der Objekterkennung geht es nicht nur darum, das Vorhandensein und den Ort von Objekten in Bildern und Videos zu erkennen, sondern sie auch in alltägliche Objekte zu kategorisieren.
Zu den Systemen der automatischen Spracherkennung (Automatic Speech Recognition, ASR) gehören die Bereitstellung von Sprachbefehlen für einen interaktiven virtuellen Assistenten, die Umwandlung von Audio in Untertitel in einem Onlinevideo und vieles mehr.
Sprachsynthese oder Text–zu-Sprache ist die Aufgabe des künstlichen Erzeugens von menschlicher Sprache aus Transkripten. Text-zu-Sprache-Modelle werden verwendet, wenn ein Mobilgerät Text auf einer Webseite in Sprache umwandelt.
High Performance Computing (HPC) ist eines der wichtigsten Werkzeuge, die die Computerwissenschaft voranbringen. Und dieses Universum der wissenschaftlichen Berechnungen hat sich in alle Richtungen ausgedehnt.
Von Deep-Learning-Containern, die monatlich aktualisiert werden, um maximale Leistung aus Ihren GPUs zu extrahieren, zu den modernsten KI-Modellen, die verwendet werden, um Benchmark-Rekorde in MLPerf aufzustellen, ist der NGC-Katalog eine wichtige Komponente, um schneller Lösungen zu erreichen und die Markteinführungszeit zu verkürzen.
Container werden strengen Sicherheitsüberprüfungen auf häufige Schwachstellen und Risiken (Common Vulnerabilities and Exposures, CVEs), Kryptoschlüssel, private Schlüssel und Metadaten unterzogen, bevor sie im Katalog veröffentlicht werden. Für jeden Container werden Sicherheitsbewertungen und detaillierte Prüfungsberichte bereitgestellt, um herauszufinden, ob er die Sicherheitsrichtlinien Ihres Unternehmens erfüllt.
Die NGC Private Registry bietet einen sicheren, Cloud-nativen Raum, in dem Sie Ihre benutzerdefinierten Container, Modelle, Modellskripte und Helm-Charts speichern und innerhalb Ihrer Organisation teilen können. Kunden, die Enterprise-Support mit NVIDIA DGX™ oder NVIDIA-zertifizierten Systemen™ erworben haben, haben Zugriff auf die NGC Private Registry.
Software aus dem NGC-Katalog kann auf Bare-Metal-Servern, Kubernetes oder in virtualisierten Umgebungen ausgeführt und lokal, in der Cloud oder im Edge bereitgestellt werden. Sie maximiert so die Auslastung von Grafikprozessoren sowie die Portabilität und Skalierbarkeit von Anwendungen. Benutzer können den gesamten Lebenszyklus der KI-Entwicklung mit NVIDIA Base Command verwalten.
Die Software des NGC-Katalogs läuft auf einer Vielzahl von GPU-beschleunigten Plattformen von NVIDIA, einschließlich NVIDIA-zertifizierter Systeme, NVIDIA DGX-Systeme, Workstations mit NVIDIA TITAN und NVIDIA RTX™ sowie virtueller Umgebungen mit NVIDIA Virtual Compute Server.
Software aus dem NGC-Katalog kann auf GPU-gestützten Instanzen bereitgestellt werden. Die Software kann direkt auf virtuellen Maschinen (VMs) oder auf Kubernetes-Diensten bereitgestellt werden, die von großen Clouddienstleistern (CSPs) angeboten werden. KI-Software von NVIDIA macht es Unternehmen leicht, ihre Lösungen in der Cloud zu entwickeln und bereitzustellen.
Da sich das Computing über Rechenzentren hinaus und in den Edge ausdehnt, kann die Software aus dem NGC-Katalog auf Kubernetes-basierten Edge-Systemen bereitgestellt werden, für Inferenz mit geringer Latenz und hohem Durchsatz. Mit NVIDIA Fleet Command™ können Sie KI-Anwendungen von NGC über verteilte Edge-Infrastrukturen hinweg sicher bereitstellen, verwalten und skalieren.
Der NGC-Katalog bietet eine Reihe von Ressourcen, die die Anforderungen von Datenwissenschaftlern, Entwicklern und Forschern mit unterschiedlichem Know-how erfüllen. Hierzu gehören Container, vorab trainierte Modelle, domänenspezifische SDKs, anwendungsfallbasierte Sammlungen und Helm-Charts für die schnellsten KI-Implementierungen.
Der NGC-Katalog enthält das NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server und NVIDIA TensorRT™, die es Entwicklern von Deep-Learning-Anwendungen und Datenwissenschaftlern ermöglichen, Deep-Learning-Modelle neu zu trainieren und sie einfach für die Inferenz zu optimieren und bereitzustellen.
Der NGC-Katalog hostet Container für die wichtigste KI- und Datenwissenschaftssoftware, die von NVIDIA abgestimmt, getestet und optimiert wurde. Außerdem sind vollständig getestete Container für HPC-Anwendungen und Datenanalysen verfügbar, sodass Benutzer Lösungen aus einem getesteten Framework mit vollständiger Kontrolle erstellen können.
Vorab trainierte Modelle, detaillierte Codeskripts mit Schritt-für-Schritt-Anweisungen und Hilfsskripts für eine Vielzahl gängiger KI-Aufgaben, die für NVIDIA Tensor Core-GPUs optimiert sind, ermöglichen einen idealen Start. Modelle lassen sich ganz einfach neu trainieren, indem nur einige Schichten aktualisiert werden, was wertvolle Zeit spart. Jedes Modell enthält eine Modellzusammenfassung, in der Details zum Datensatz aufgeführt sind, der zum Trainieren des Modells verwendet wurde. Ferner enthält sie eine detaillierte Dokumentation und Informationen zu den Einschränkungen des Modells.
Mit Sammlungen lassen sich kompatible Framework-Container, Modelle, Juptyer Notebooks und weitere Ressourcen ganz einfach entdecken, um schneller mit KI zu starten. Die jeweiligen Sammlungen enthalten zudem detaillierte Dokumentationen zur Bereitstellung der Inhalte für bestimmte Anwendungsfälle.
Der NGC-Katalog bietet sofort einsatzbereite Sammlungen für verschiedene Anwendungen, darunter NLP, ASR, intelligente Videoanalysen und Objekterkennung.
Helm-Charts automatisieren die Softwarebereitstellung auf Kubernetes-Clustern. Der NGC-Katalog hostet Kubernetes-fähige Helm-Charts, die eine konsistente und sichere Bereitstellung von Software von NVIDIA und Drittanbietern vereinfachen.
NVIDIA GPU Operator ist eine Suite von NVIDIA-Treibern, Container-Laufzeit, Geräte-Plug-ins und Verwaltungssoftware, die IT-Teams in Kubernetes-Clustern installieren können, um Benutzern schnelleren Zugriff auf ihre Workloads zu ermöglichen.
Der NGC-Katalog enthält das NVIDIA TAO Toolkit, NVIDIA Triton™ Inference Server und NVIDIA TensorRT™, die es Entwicklern von Deep-Learning-Anwendungen und Datenwissenschaftlern ermöglichen, Deep-Learning-Modelle neu zu trainieren und sie einfach für die Inferenz zu optimieren und bereitzustellen.
Erfahren Sie, wie DeepZen, KI-Unternehmen mit Schwerpunkt menschenähnliche Sprache mit Emotionen, den NGC-Katalog nutzt, um Prozesse wie Audioaufnahmen und Voiceovers zu automatisieren.
Erfahren Sie, wie das KI-Start-up-Unternehmen Neurala Deep-Learning-Training und -Inferenz für seine Brain Builder-Plattform um das 8-Fache beschleunigt.
Erfahren Sie, wie HPC-Administratoren an der Clemson University GPU-optimierte Container unterstützen, um Wissenschaftlern bei der Beschleunigung ihrer Forschung zu helfen.
Erfahren Sie, wie die University of Arizona Container aus dem NGC-Katalog einsetzt, um ihre wissenschaftliche Forschung zu beschleunigen, indem sie 3D-Point-Clouds direkt auf Drohnen erstellen.
Beschleunigen Ihres Workflows mit dem NGC-Katalog
NVIDIA-Partner bieten eine Reihe von Lösungen für Datenwissenschaft, KI-Training und -Inferenz, High Performance Computing (HPC) und Visualisierung.
Erfahren Sie, wie Sie Ihre GPU-optimierte Software im NGC-Katalog veröffentlichen können.
Lesen Sie mehr über die neuesten Updates und Ankündigungen des NGC-Katalogs.
In diesen Video-Tutorials erfahren Sie, wie Sie den NGC-Katalog verwenden können.
Sehen Sie sich alle wichtigen NGC-Sitzungen on demand an.
In diesen Schritt-für-Schritt-Anleitungen erfahren Sie, wie Sie den NGC-Katalog verwenden können.
Der NGC-Katalog bietet eine umfangreiche Sammlung an GPU-optimierten Containern für KI, maschinelles Lernen und HPC, die getestet und auf NVIDIA-Grafikprozessoren lokal, in der Cloud oder in der Peripherie umgehend einsetzbar sind. Darüber hinaus bietet der Katalog vorab trainierte Modelle, Modellskripts und Branchenlösungen, die sich einfach in vorhandene Workflows integrieren lassen.
Das Kompilieren und Bereitstellen von Deep Learning-Frameworks ist zeitaufwendig und fehleranfällig. Die Optimierung von KI-Software erfordert Know-how. Für die Erstellung von Modellen sind Know-how, Zeit und Rechenressourcen erforderlich. Der NGC-Katalog kümmert sich um diese Herausforderungen mit grafikprozessoroptimierter Software und Tools, sodass sich Datenwissenschaftler, Entwickler, IT und Nutzer auf die Entwicklung ihrer Lösungen konzentrieren können.
Jeder Container verfügt über einen vorab integrierten Satz von grafikprozessorbeschleunigter Software. Der Stack umfasst die ausgewählte Anwendung oder das Framework, das NVIDIA CUDA®-Toolkit, beschleunigte Bibliotheken und andere erforderliche Treiber, die alle getestet und optimiert wurden, sodass sie sofort ohne zusätzliches Setup zusammenarbeiten können.
Der NGC-Katalog umfasst erstklassige KI-Software, einschließlich TensorFlow, PyTorch, MxNet, NVIDIA TensorRT, RAPIDS™ und vieles mehr. Entdecken Sie im NGC-Katalog die vollständige Liste.
Die NGC-Container werden auf PCs, Workstations, HPC-Clustern, NVIDIA DGX-Systemen, auf NVIDIA-Grafikprozessoren unterstützter Cloud-Anbieter und in NVIDIA-zertifizierten Systemen ausgeführt. Die Container werden in Docker- und Singularity-Laufzeitumgebungen ausgeführt. Weitere Informationen finden Sie in der NGC-Dokumentation.
NVIDIA bietet Image-Dateien für virtuelle Maschinen im Marketplace-Bereich jedes unterstützten Cloud-Service-Anbieters an. Um einen NGC-Container auszuführen, wählen Sie einfach den entsprechenden Instanztyp, führen Sie das NGC-Image aus und ziehen Sie den Container aus dem NGC-Katalog hinein. Die genauen Schritte variieren je nach Cloud-Anbieter, aber Sie finden eine Schritt-für-Schritt-Anleitung in der NGC-Dokumentation.
Die beliebteste Deep-Learning-Software, wie TensorFlow, PyTorch und MXNet, wird monatlich von NVIDIA-Technikern aktualisiert, um den gesamten Software-Stack zu optimieren und Ihre NVIDIA-Grafikprozessoren bestmöglich zu nutzen.
Die Container aus dem NGC-Katalog können kostenfrei heruntergeladen werden (gemäß den Nutzungsbedingungen). Für die Ausführung in der Cloud verfügt jeder Cloud-Service-Anbieter jedoch über seine eigenen Preise für GPU-Recheninstanzen.
Nein, es ist ein Portal für die Bereitstellung GPU-optimierter Software sowie von Enterprise-Services und Software.
Die NGC Private Registry wurde entwickelt, um Nutzern einen sicheren Raum zu bieten, um benutzerdefinierte Container, Modelle, Modellskripte und Helm-Charts innerhalb des Unternehmens zu speichern und zu teilen. Mit der Private Registry können Nutzer ihre IP-Adressen schützen und gleichzeitig die Zusammenarbeit fördern.
Die Nutzer haben Zugriff auf das NVIDIA Developer Forum. Zur großen Community dieses Forums gehören KI- und Grafikprozessorexperten, die Kunden, Partner oder Mitarbeiter von NVIDIA sind.
Darüber hinaus bieten NGC-Supportdienste Unterstützung auf den Ebenen L1 bis L3 für NVIDIA-zertifizierte Systeme, die über unsere OEM-Partner verfügbar sind.
NVIDIA-zertifizierte Systeme, die aus NVIDIA EGX™- und HGX-Plattformen™ bestehen, ermöglichen es Unternehmen, bedenkenlos leistungsoptimierte Hardware- und Softwarelösungen auszuwählen, die ihre KI-Workloads sicher und optimal ausführen – sowohl in kleineren Konfigurationen als auch in großem Umfang. Sehen Sie sich die vollständige Liste der NVIDIA-zertifizierten Systeme an.
Weitere Informationen finden Sie unter https://ngc.nvidia.com/legal/terms.