Die KI-Hardware durchlebt einen tiefgreifenden Wandel. Der Trend geht weg von universellen Prozessoren hin zu spezialisierten KI-CPUs und maßgeschneiderten Chips. Führende Konzerne setzen damit auf maximale Leistung und Energieeffizienz für die wachsenden KI-Anforderungen. Diese Entwicklung verändert nicht nur den PC-Markt, sondern auch die Architektur von Rechenzentren grundlegend.

Anzeige

Während die Hardware-Entwicklung rasant voranschreitet, schafft der Gesetzgeber nun den verbindlichen Rahmen für den Einsatz dieser Technologien. Dieser kostenlose Leitfaden erklärt kompakt die Anforderungen der neuen EU-KI-Verordnung für Unternehmen. EU-KI-Verordnung: Jetzt kostenlosen Umsetzungsleitfaden sichern

Arm greift mit eigenem KI-Chip den Servermarkt an

Ein strategischer Paukenschlag kam diese Woche von Arm. Der britische Chip-Designer, bisher vor allem als Lizenzgeber für geistiges Eigentum bekannt, steigt mit seiner ersten eigenen Prozessor-Produktion in den lukrativen Servermarkt ein. Der neue Arm AGI CPU ist speziell für die Steuerung sogenannter agentenbasierter KI in Rechenzentren konzipiert.

Das ist eine Zeitenwende für das Unternehmen. Nach über 35 Jahren als reiner IP-Anbieter wird Arm nun zum direkten Konkurrenten von Intel und AMD. Der neue chip basiert auf der Neoverse V3-Plattform, vereint 136 Rechenkerne in einem 300-Watt-Design und soll die Koordination zwischen KI-Beschleunigern übernehmen. Der Hintergrund: Laufende KI-Agenten erzeugen eine Flut von Daten (Tokens), die verarbeitet werden müssen – eine Aufgabe für leistungsstarke CPUs.

Meta (Facebook) ist als erster Großkunde und Entwicklungspartner an Bord. Das Social-Media-Unternehmen will seine gigawattstarken Rechenzentren und eigenen MTIA-Beschleuniger mit dem neuen Chip optimieren. Arm verspricht mehr als die doppelte Leistung pro Server-Rack im Vergleich zu x86-CPUs bei deutlich geringerem Stromverbrauch. Ab dem Geschäftsjahr 2028 rechnet das Unternehmen mit signifikanten Einnahmen aus diesem neuen Geschäftszweig.

Nvidia setzt mit Rubin-Plattform auf KI-Ausführung

Parallel dazu schärft der Grafikkarten-Gigant Nvidia sein Profil. Auf der GTC 2026-Konferenz Mitte März stellte das Unternehmen seine Rubin-Plattform vor. Der Fokus liegt klar auf der KI-Inferenz, also der Ausführung bereits trainierter Modelle. Bisher dominierte Nvidia vor allem den Markt für das Training von KI.

Die Rubin-Architektur ist ein komplettes, sechs Chips umfassendes System für servergroße KI-Anlagen. Herzstück ist der neue NVIDIA Vera CPU mit 88 speziellen Arm-Kernen, der die Arbeit in KI-„Fabriken“ orchestrieren soll. Die Plattform teilt die Inferenz-Aufgaben auf: Der Haupt-Rubin-GPU arbeitet mit Hochgeschwindigkeitsspeicher (HBM4), während eine Variante (Rubin CPX) mit GDDR7-Speicher die rechenintensive Erstverarbeitung übernimmt.

Nvidia-Chef Jensen Huang sieht in der effizienten Inferenz die nächste große Wachstumschance. Wenn Unternehmen generative KI-Modelle im großen Stil einsetzen, werden Kosten und Leistung bei der Ausführung entscheidend. Die Nachfrageprognose des Konzerns für KI-Chips bis 2027 hat sich auf eine Billion US-Dollar erhöht – vor allem getrieben von Inferenz-Anwendungen.

Tech-Giganten entwickeln ihre eigenen KI-Chips

Die großen Cloud-Anbieter gehen noch einen Schritt weiter. Sie entwerfen zunehmend ihre eigenen, maßgeschneiderten KI-Chips (ASICs), um für ihre spezifischen Aufgaben maximale Effizienz zu erreichen und unabhängiger von Zulieferern zu werden.

  • Google positioniert sich als „KI-Hypercomputer“-Firma. Die hauseigenen Tensor Processing Units (TPU v7) und die ARM-basierten Axion-CPUs sind der Treiber. Mit den Axion-Prozessoren hat Google über 100.000 interne Dienste – darunter YouTube und Gmail – von x86-CPUs migriert und damit die Energieeffizienz um 60 Prozent gesteigert.
  • Meta brachte im März 2026 vier neue Chips der MTIA-Familie an den Start. Der Beschleuniger MTIA 400 wird bereits in den eigenen Rechenzentren eingesetzt. Laut Meta-Ingenieurchef Yee Jiun Song bieten eigene Chips die beste Preis-Leistung und mehr Vielfalt in der Lieferkette.
  • Amazon Web Services (AWS) setzt seit Jahren auf eigene Silizium-Entwürfe wie Graviton für Standard-Anwendungen und Trainium für KI-Training.

Folgen für den Markt: Engpässe und steigende Preise

Der Boom bei KI-Hardware hat spürbare Auswirkungen auf den gesamten Halbleitermarkt. Ein großer Profiteur ist der Chip-Designer Broadcom. Das Unternehmen verzeichnete im ersten Quartal 2026 einen Anstieg der KI-Chip-Umsätze um 106 Prozent im Jahresvergleich. Bis 2027 könnte der Jahresumsatz in diesem Bereich die 100-Milliarden-Dollar-Marke überschreiten. Broadcom ist ein zentraler Partner für Cloud-Konzerne, die eigene Chips entwickeln.

Die hohe Nachfrage führt jedoch auch zu Engpässen. Seit Ende Februar 2026 mehren sich Berichte über eine erneute globale chip-Knappheit, die vor allem CPUs von Intel und AMD betrifft. Die Folge: Lieferzeiten verlängern sich und die Preise für High-End-Server-CPUs steigen um durchschnittlich 10 bis 15 Prozent. Auch die Nachfrage nach Standard-Servern bleibt hoch, was die Verfügbarkeit für PC-Hersteller zusätzlich belastet. Diese Situation treibt die Hersteller dazu, nach Alternativen wie den stromsparenden Arm-Architekturen zu suchen.

Anzeige

Die technologische Aufrüstung bringt auch neue regulatorische Hürden mit sich, die seit August 2024 verbindlich gelten. Erfahren Sie in diesem Experten-Report, wie Sie KI-Systeme richtig klassifizieren und dokumentieren, um teure Bußgelder zu vermeiden. Kostenlosen KI-Leitfaden für Unternehmen herunterladen

Ausblick: Effizienz und Spezialisierung bestimmen die Zukunft

Die Zukunft der KI-Hardware ist klar von zwei Trends geprägt: Spezialisierung und Energieeffizienz. Der Druck, die Gesamtkosten für den Betrieb riesiger KI-Modelle zu senken – besonders in der Inferenz-Phase –, treibt die Entwicklung eigener Chips voran.

Maßgeschneiderte KI-Chips können die Kosten für die Inferenz im Vergleich zu herkömmlichen GPU-Lösungen um 40 bis 60 Prozent senken, bei gleichbleibender oder besserer Leistung. Zudem verbrauchen sie pro Inferenz-Vorgang 30 bis 50 Prozent weniger Strom. Das ist angesichts der enormen Energiekosten und der Umweltdebatte um Rechenzentren ein entscheidender Faktor.

Der Aufstieg der „agentischen KI“, bei der Systeme eigenständig planen und handeln, wird die Nachfrage nach leistungsstarken, effizienten CPUs weiter befeuern. Gleichzeitig arbeiten die Hersteller an Software-Tools, um die Migration von KI-Modellen zwischen verschiedenen Chip-Architekturen zu erleichtern. Der Markt diversifiziert sich: Es entstehen Spezialchips für Training, Inferenz, Vernetzung und speicherintensive Aufgaben. Diese Innovationen werden entscheidend sein, um das volle Potenzial der Künstlichen Intelligenz auszuschöpfen – von der Cloud bis zum Smartphone.