CHINA AI2X BRIEFING

How AI is reshaping China’s Industries


GPU-KI-Supercluster sind Chinas Antwort auf den „Chip War“ der USA

Der erste KI-Supercluster mit 10.000 GPUs wurde vom Supercomputerhersteller Sugon vorgestellt

Published on Jan. 02, 2026

Sugon debuts scaleX, China's first physical 10,000-accelerator AI supercluster. Source: Sugon

Chinas erster physisch fertig gebauter KI-Supercluster mit 10.000 Beschleunigerkarten soll angeblich mehr als 5 EFLOPS Gesamtrechenleistung liefern, berichtet Semi Insights (auf Chinesisch). Das wäre ein technologischer Durchbruch für Chinas Bestrebungen, selbst Hochleistungsrechner zum Trainieren von KI-Modellen zu entwickeln.

Bei der Produkteinführung am 17. Dezember 2025 erklärte Sugon, sein Cluster mit der Bezeichnung scaleX erreiche sei sowohl beim Training als auch bei der Inferenz wesentlich effizienter als herkömmliche Systeme. Das System eigne sich damit für KI-Modelle mit Billionen von Parametern.

Sugon, offiziell Dawning Information Industry Company Ltd., hat seinen Sitz im Pekinger Stadtteil Zhongguancun, der manchmal als „Chinas Silicon Valley“ bezeichnet wird. Das Unternehmen wurde von Forschern aus dem Umfeld der Chinesischen Akademie der Wissenschaften gegründet und stellt Supercomputer sowie IT-Infrastruktur her. Sugon ist an der Börse in Shanghai notiert.

Eigenen Angaben zufolge baut das neue System auf früheren Entwicklungen des Unternehmens auf und verfügt über das weltweit erste Supernode-Design mit 640 GPUs pro Rack. Insgesamt sind 16 solcher Supernodes miteinander verbunden, die zusammen 10.240 Beschleunigerkarten einsetzen, mehr als 5 EFLOPS an Rechenleistung bereitstellen und einen PUE-Wert von nur 1,04 erreichen.

Es ist eine alternative Strategie chinesischer Hersteller im Wettbewerb mit Nvidia & Co: Indem sie selbst gefertigte GPUs zu immer größeren Clustern verknüpfen, umgehen sie faktisch die US-Exportbeschränkungen. In deren Folge waren der Verkauf von hochleistungsfähigen KI-Chips und Lithografiemaschinen zu ihrer Herstellung nach China eingestellt worden.

Während sich die USA auf immer leistungsfähigere Einzelchips von Unternehmen wie Nvidia konzentrieren, schlägt China einen anderen Weg ein.

Der Cluster-Ansatz macht auch desshalb Sinn, weil das Moore’sche Gesetz zunehmend an seine physikalischen Grenzen stößt. Es werden innovative Wege bei der Entwicklung von Hardware gebraucht, um mit der stark wachsenden Nachfrage aus den Rechenzentren Schritt zu halten. Einzelne Rechenknoten sind nicht mehr in der Lage, den Computing-Bedarf moderner KI-Anwendungen zu erfüllen.

„Während sich die USA auf immer leistungsfähigere Einzelchips von Unternehmen wie Nvidia konzentrieren, verfolgt China einen anderen Ansatz und strebt vergleichbare Ergebnisse durch groß skalierte Systemarchitekturen und Softwareoptimierung an“, schreibt die chinesische Wochenzeitung Caixin in ihrem Bericht über den neuen Supercluster von Sugon.

„Da der Zugang zu modernen Halbleiterfertigungen eingeschränkt ist, setzen chinesische Unternehmen auf clusterbasierte Architekturen, die Tausende leistungsschwächerer heimischer Chips über Hochgeschwindigkeits-Links zusammenschalten, um so wettbewerbsfähige Systemleistungen zu erzielen, wenn auch zu höheren Energiekosten“, schreibt Caixin.

Huawei gilt als Vorreiter dieses Ansatzes. Nachdem das Unternehmen 2020 unter US-Sanktionen gestellt worden war, entwickelten seine Ingenieure das Konzept der „Supernodes“, in denen Tausende Ascend-Chips auf einheitlichen Plattformen integriert werden.

Der im März 2025 vorgestellte Huawei-Supernode Atlas 900 verbindet 384 Ascend-910C-Chips und erreicht eine Spitzenleistung von 300 PFLOPS, also 300 Billiarden Gleitkomma-Operationen pro Sekunde (300 × 1015 FLOPS). Zum Zeitpunkt seiner Einführung galt er als der leistungsfähigste bekannte KI-Rechenknoten der Erde.

Huawei hat bereits noch leistungsstärkere Nachfolgemodelle angekündigt. Der Atlas 950 soll 2026 verfügbar werden und 8.192 Chips zusammenschalten, während der für 2027 geplante Atlas 960 mehr als 15.000 Chips verbinden soll. Damit ist das Ende der Skalierung allerdings noch nicht unbedingt erreicht.

Zwar hat jeder einzelne Ascend-910C-Chip von Huawei nur etwa ein Drittel der Leistung aktueller GPUs von Nvidia, dass Huaweis Cluster-Ansatz auf Systemebene nahezu die doppelte Rechenleistung liefern kann, heißt es in einem Vergleich von Semi Analysis.

Das modulare Clusterdesign erlaubt theoretisch eine weitere Skalierung auf Hunderttausende von Chips, um extrem große KI-Modelle zu trainieren. Allerdings müssen dabei noch einige technische Hürden genommen werden.

Sowohl bei Huawei als auch bei Sugon sind sich die Entwickler bewusst, dass das Software-Ökosystem die größte Hürde bleibt, um Marktanteile von Nvidia zu gewinnen. Ihre Antwort darauf ist eine stärkere Orientierung in Richtung Open-Source-Lösungen.

„Unsere Hoffnung ist es, eine offene Architektur zu nutzen, um die von uns aufgebauten Technologien entlang der gesamten Wertschöpfungskette verfügbar zu machen, sodass sich unsere Partner auf ihre jeweiligen Stärken konzentrieren können und wir so gemeinsam zum Ziel kommen“, sagte Li Bin, Senior Vice President von Sugon, in einer Rede bei der Vorstellung des 10.000-GPU-KI-Superclusters seines Unternehmens.

Keep Reading

No posts found