Nvidia und Lenovo schmieden Allianz für „AI Cloud Gigafactories“
Die beiden Unternehmen setzen auf eine steigende Nachfrage nach lokaler KI-Implementierung, sowohl auf Edge-Geräten als auch in Hyperscale-Umgebungen für Unternehmenskunden.
Published on Jan. 09, 2026

Mit ihrer gemeinsamen Initiative „AI Cloud Gigafactory“ wagen Lenovo und Nvidia einen ambitionierten Schritt. Sie lässt sich als der Versuch beschreiben, die physische Bereitstellung von künstlicher Intelligenz zu industrialisieren.
Die Vorstandschefs beider Unternehmen traten am 6. Januar 2026 auf der CES in Las Vegas gemeinsam auf die Bühne, um die Zusammenarbeit anzukündigen.
„Während KI jede Branche verändert, werden Unternehmen in jedem Land KI-Fabriken bauen oder mieten, um Intelligenz zu produzieren“, sagte Jensen Huang, Gründer und CEO von Nvidia, bei der Veranstaltung einer Pressemitteilung von Lenovo zufolge.
„Gemeinsam liefern Nvidia und Lenovo Full-Stack-Computing-Plattformen, die agentische KI-Systeme antreiben, von der Cloud und On-Premises-Rechenzentren bis hin zum Edge und zu Robotiksystemen.“
In der KI-Ära wird Wert nicht mehr nur an der verfügbaren Rechenleistung gemessen, sondern auch daran, wie schnell sie Ergebnisse liefert.
Ziel der Partnerschaft sei es, skalierbare KI-Fabrikdesigns bereitzustellen, mit denen sich fortgeschrittene KI-Umgebungen so schnell wie möglich ausrollen lassen, hieß es.
„In der KI-Ära wird Wert nicht mehr nur an der verfügbaren Rechenleistung gemessen, sondern auch daran, wie schnell sie Ergebnisse liefert“, sagte Yang Yuanqing, Chairman und CEO von Lenovo.
Indem Lenovo seine Computing-Hardware mit Nvidias GPUs und Software kombiniert, verspricht das Unternehmen das Schaffen einer „inferencing-optimierten“ Infrastruktur. Beide setzen gemeinsam darauf, dass viele Unternehmen KI-Lösungen brauchen, die riesige Datenmengen in just dem Moment in Erkenntnisse verwandeln, in dem diese Daten entstehen.
Noch ist offen, wie viele Cloud-Dienstleister und große Unternehmen sich für solche KI-Cloud-Produkte „von-der-Stange“ entscheiden werden, um ihre KI-Infrastruktur zu skalieren. Angesichts der Marktposition beider Unternehmen ist der Schritt zwar ambitioniert, aber durchaus realistisch.
Lenovo nutzte seinen CES-Auftritt zudem, um sein Bekenntnis zu einer „Hybrid-AI“-Philosophie zu unterstreichen, also zur Verschmelzung von persönlicher, Unternehmens- und öffentlicher Intelligenz.
Ein zentrales Element dieses Konzepts ist eine neue KI-Plattform namens Qira, die auf PCs, Tablets, Smartphones, Wearables und anderen Geräten von Lenovo und Motorola läuft.
Qira, positioniert als „persönlicher, superintelligenter Agent“, soll Geräte in die Lage versetzen, KI-Intelligenz direkt auf der Edge-Ebene bereitzustellen und nur dann eine Verbindung zur Cloud und zu größeren KI-Modellen aufzubauen, wenn es unbedingt nötig ist. Die Geräte benötigen keine separaten Apps, merken sich den Kontext und erkennen Nutzerpräferenzen, wenn Anwender von Lenovo-Laptops zu Smart Glasses oder Motorola-Phones wechseln.
Diese Architektur ermöglicht es, sensible oder kontextbezogene Daten auf persönlichen Endgeräten oder in Unternehmenssystemen zu halten, wo sie von kleineren KI-Modellen verarbeitet werden. Nur bei Bedarf sollen diese Systeme selektiv größere öffentliche Modelle anrufen, so Lenovo.
Das erinnert an Apples Ansatz des „On-Device plus Private Cloud Compute“. Wie Apple argumentiert auch Lenovo, dass sein Hybrid-AI-Design hilft, Daten möglichst auf dem Endgerät und damit privat zu halten.
Lenovo geht jedoch einen Schritt weiter als Apple, indem das Unternehmen sein Drei-Ebenen-Narrativ (persönlich, Unternehmen, öffentlich) stark betont und sowohl PCs als auch Rechenzentrums-Infrastruktur adressiert.
Die „AI Cloud Gigafactories“ sind darauf ausgelegt, On-Premises- und Cloud-Ressourcen für schnelles Inferencing im großen Maßstab zu kombinieren. Die Idee ist, Rechenzentren, die Cloud und Edge-Geräte in einer einzigen Orchestrierungs-Schicht für KI zusammenzuführen.
Lenovo wird in Zukunft allerdings sehr transparent darlegen müssen, wo das Unternehmen Daten speichert und wie diese verarbeitet werden, merkten Analysten an.
Klar ist: Lenovo versucht, sein breites Produktportfolio und seine wachsende Palette an KI-Lösungen sowohl für Verbraucher als auch für Unternehmenskunden strategisch auszuspielen. Ein auf der CES gezeigtes Beispiel war das „Lenovo ThinkSystem SR675i“, laut Unternehmen ein „Powerhouse-Performance-KI-Inferencing-Server, der überall vollständige LLMs ausführen kann, mit massiver Skalierbarkeit, für die größten Workloads und beschleunigte Simulationen in der Fertigung, in kritischen Gesundheitsanwendungen und im Finanzsektor“.
