Nvidia und Llama 3.1 helfen Unternehmen beim Bau von Supercomputern

Nvidia, ein multinationales Technologieunternehmen, hat die Veröffentlichung eines neuen Dienstes angekündigt, der Unternehmen und Ländern dabei hilft, maßgeschneiderte und spezialisierte Supercomputer mit Metas neuestem LLM, Llama 3.1, zu bauen.

Nvidia hat zwei neue Dienste veröffentlicht, die sich an Unternehmen und Länder richten. Der Technologieriese hat einen Dienst innerhalb der Nvidia AI Foundry und Inferenz-Microservices innerhalb der NVIDIA NIM veröffentlicht. Beide Dienste nutzen die neueste Open-Source-LLM-Bibliothek von Meta, Llama 3.1, und können generative KI-Supercomputer erstellen.

Nvidia AI Foundry wird Unternehmen und Ländern dabei helfen, Super-LLM-Modelle zu erstellen, die auf spezifische Branchenanforderungen und -bedürfnisse zugeschnitten sind. Dies ist durch den Einsatz von Llama 3.1 und der Software, Hardware und dem Talent von Nvidia möglich. Unternehmen und Länder haben die Möglichkeit, diese Supermodels mithilfe proprietärer oder synthetischer Daten zu trainieren, die von Llama 3.1 und dem Nvidia Nemotron-Belohnungsmodell generiert werden.

Lesen Sie auch: Tesla wird 2025 mit dem Einsatz humanoider Roboter beginnen, sagt Elon Musk

Das heute veröffentlichte Llama 3.1 verfügt über 405 Milliarden Parameter und ist in der Lage, mit Closed-Source-KI-Modellen wie ChatGPT und Gemini zu konkurrieren. Meta verbessert Llama kontinuierlich, indem es Add-ons bereitstellt, die mit der Vorlage funktionieren. Meta und Nvidia haben zusammengearbeitet, um Llama 3.1 in Nvidia-Dienste zu integrieren und die Lösung vom ersten Tag an verfügbar zu machen. Nvidia-CEO Jensen Huang sagte:

„…NVIDIA AI Foundry hat Llama 3.1 integriert und ist bereit, Unternehmen bei der Erstellung und Bereitstellung benutzerdefinierter Llama-Supermodelle zu unterstützen.“ 

Die generativen KI-Modelle von Llama 3.1 werden auf über 16.000 Nvidia H100 Tensor Core GPUs trainiert. Darüber hinaus sind sie für beschleunigtes Computing und Nvidia-Software optimiert, die den Einsatz in Rechenzentren, Clouds und GPU-basierten Personalcomputern ermöglicht.

Lesen Sie auch: Meta stellt größere Version des KI-Modells Llama 3 vor

Derzeit haben viele Unternehmen auf der ganzen Welt Zugriff auf NIM-Microservices für Llama. Accenture ist der erste Kunde, der maßgeschneiderte Llama-Supermodels für Aramco, AT&T und Uber baut. Diese Unternehmen werden die ersten sein, die mit Llama 3.1 auf NIM-Microservices zugreifen. Nach erfolgreicher Erstellung benutzerdefinierter Modelle kann ein Unternehmen die Microservices von Nvidia, eine OP-Plattform und eine Cloud-Plattform zum Ausführen der Modelle auswählen.

Letzte Woche hat Mistral AI in Zusammenarbeit mit Nvidia ein neues 12B-Modell namens Mistral NeMo veröffentlicht. Das Modell ist als NIMMI-Inferenz-Microservice von Nvidia verfügbar. Was die neue GPU-Hardware betrifft, behauptete ein Leaker, dass das Hardware-Technologieunternehmen eine RTX 5090D der neuen Generation nur für den chinesischen Markt herausbringen werde. Die neue GPU wird der Nachfolger der RTX 4090D sein.