banner
Nachrichtenzentrum
Erstklassige Komponenten, präzises Qualitätsmanagement.

Auf der Computex stellt Intel den „Meteor Lake“-Prozessor vor: KI steht im Mittelpunkt

Aug 02, 2023

TAIPEI – Im Jahr 2022 stellte Intel sein Konzept einer VPU vor, einer neuen Siliziumkomponente für seine kommenden „Meteor Lake“-Prozessoren. Bei einer Veranstaltung, die nur auf Einladung in Taipeh stattfand, stellte der CPU-Riese den ersten funktionsfähigen Meteor-Lake-Prozessor vor, teilte ein paar weitere Details zu diesen Chips der nächsten Generation mit und sprach über ihre Fähigkeiten im derzeit angesagtesten Bereich: KI. Die VPU wird dabei eine zentrale Rolle spielen.

John Rayfield, Intels Vizepräsident und General Manager für Client-KI, traf sich am Wochenende vor der Computex mit einer ausgewählten Gruppe von Journalisten, um ein paar Demos mit dem ersten mit einer VPU ausgestatteten Meteor-Lake-Chip durchzuführen, der aus der Deckung kam. Das genaue Meteor-Lake-Chipmodell sowie seine detaillierten Geschwindigkeiten und Feeds wurden nicht bekannt gegeben. Es wurde jedoch klargestellt, dass Meteor Lake seinen Ursprung im Mobilfunkmarkt haben wird. Denn beim neuen VPU-Modul dreht sich alles um Energieeffizienz und darum, dieser neuen Verarbeitungskomponente anspruchsvolle KI-bezogene Aufgaben zu übertragen.

Intels nächste Prozessorgeneration wurde mit diesem neuesten „Lake“-Codenamen getauft, und Intel hat in der Demo einige seiner Prinzipien dargelegt. Die Vorgängergenerationen Alder Lake (Core der 12. Generation) und Raptor Lake (Core der 13. Generation) legten Wert auf Leistung durch ihr Hybriddesign mit neuen Performance-Kernen (P-Cores) und effizienten Kernen (E-Core) auf dem Chip. Bei diesen Generationen kam es zu Steigerungen bei IPC, Frequenz und Leistung pro Watt.

Im Laufe der Entwicklung hat Intel viel mit Microsoft zusammengearbeitet, um sicherzustellen, dass seine Prozessoren Aufgaben auf die richtigen Kerne verlagern, was sich in Windows 11 und im Thread Director-Tool von Intel manifestierte. Darüber hinaus wird Meteor Lake von Anfang an den Schwerpunkt auf Energieeffizienz durch eine Kombination aus neuer Prozesstechnologie und der Hinzufügung der VPU im neuen, modularen Chipdesign von Meteor Lake legen, wobei sogenannte „Chiplets“ oder „Kacheln“ zum Einsatz kommen ."

Software dazu zu bringen, mit einer neuen Prozessorkomponente gut zu funktionieren, ist natürlich der Trick, aber die Arbeit mit Alder und Raptor Lake bedeutet, dass es ein großes App-Ökosystem gibt, das mitgebracht werden kann; Die ISV-Unterstützung ist vorhanden und laut Rayfield liegt die Stärke von Intel in der riesigen Basis von x86-Anwendungen.

Ein Teil dessen, was die Migration zur VPU ermöglicht, ist das Ergebnis von Intels Foveros-Technologie (viel mehr unter dem Link) und der Übernahme des Chipherstellers Movidius im Jahr 2016. Vereinfacht ausgedrückt verwendet Foveros eine 3D-Stapeltechnologie, die es ermöglicht, Chipmodule oder Chiplets zu schichten, anstatt sie nebeneinander anzuordnen. Im Fall von Meteor Lake wird eines dieser Module die VPU sein, von der der Chipriese sagt, dass sie das Geheimnis dieser Generation sein wird.

Zu einzelnen Meteor-Lake-Chips hat Intel noch nichts verraten. Wie letztes Jahr in einer Präsentation auf der Hot Chips-Konferenz erwähnt, wird Meteor Lake auf dem Intel 4-Prozess hergestellt (im Gegensatz zum Intel 7, der von Alder und Raptor Lake verwendet wird). Die folgende „Arrow Lake“-Generation wird auf dem 20A-Prozess von Intel basieren. Zur Erinnerung: Die Zahl hinter „Intel“ in seinen Prozessnamen entspricht nicht mehr der Nanometergröße in der Prozesstechnik.

Beim Hochfahren von Meteor Lake auf Intel 4 legt das Unternehmen Wert auf Energiemanagement und Hypereffizienz der nächsten Generation. Meteor Lake wird auch Intels neueste Überarbeitung seiner On-Chip-Grafik enthalten, die auf Intel Arc und in diesem Fall auf der „Alchemist“-Architektur von Arc basieren wird. Die Arc-Integration bringt Unterstützung für Schlüsseltechnologien wie DirectX 12 Ultimate, XeSS (Supersampling) und Raytracing in einem Low-Power-Format. Intel-Vertreter wollten keine näheren Einzelheiten zum On-Chip-Arc preisgeben, bestanden jedoch darauf, dass die Grafikbeschleunigung „viel besser“ sein wird als bei bestehenden integrierten Grafiklösungen (IGP) von Intel. Der Arc IGP wird in Bezug auf die reine Leistung nicht mit den Arc-Desktop-Karten von Intel mithalten können, da er eine sehr unterschiedliche Leistungshüllkurve hat. Es handelt sich jedoch um das gleiche Design, das als Chiplet verwendet wird und bei geringerer Temperatur arbeitet.

Die mit Abstand größte Entwicklung hier dürfte jedoch die VPU sein, die für die lokale Inferenzierung auf dem PC zuständig ist. Rayfield betonte sogar, dass dies ein Wendepunkt im PC-Bereich sei, mit der Integration effizienter lokaler Client-KI-Verarbeitung und den damit verbundenen Möglichkeiten. „Wir sind dabei, die Wende bei PCs zu schaffen, bei denen sich die Benutzeroberfläche radikal ändern wird“, sagte er. „Die Benutzeroberfläche wird sich in den nächsten fünf Jahren stärker verändern als in den letzten 20 … im positiven Sinne.“

Intel sieht sich ideal positioniert, um KI zu nutzen und im Zuge der Weiterentwicklung der Technologie den Weg für nützliche Endbenutzererlebnisse zu ebnen. Rayfield wies zum einen darauf hin, dass Latenz ein Problem bei KI sei, wenn KI in eine Benutzeroberfläche integriert sei. Aufgrund früherer Computererfahrungen erwartet der Benutzer sofortige Antworten, mit denen cloudbasierte Lösungen einfach nicht mithalten können. Es gibt auch grundlegende Herausforderungen im Zusammenhang mit den Kosten für die Skalierung von KI-Anwendungen wie ChatGPT auf viele Millionen PC-Benutzer. Die Kosten sind einfach unerschwinglich, im Gegensatz dazu, einen Teil der Verarbeitungslast auf die Client-Seite zu verlagern. Die lokale Ausführung eines Teils der Arbeit ermöglicht eine massive verteilte Skalierung, eine bessere Kontrolle des Datenschutzes (Ihre Daten bleiben lokal) und eine geringe Latenz (die Berechnung erfolgt auf Ihrem Gerät).

Wie sieht das eigentlich in der aktuellen Computerwelt aus? Heutzutage wird KI in Client-Plattformen für Dinge wie Echtzeit-Hintergrundersetzung und -Unschärfe bei Videoanrufen sowie spontane Rauschunterdrückung eingesetzt. Diese Aufgaben verwenden Inferenzmodelle, die auf CPU und GPU funktionieren; Je größer die Auswirkungen und die Erwartungen der Benutzer werden, desto anspruchsvoller werden die Rechenprobleme, und auch der Stromverbrauch kann zum Problem werden. Allerdings sind die bekannteren und erkennbareren Formen der KI, die die Welt im Sturm erobern, wie ChatGPT und Stable Diffusion(Öffnet ein neues Fenster), cloudbasiert. Rayfield führte einige Statistiken an, die auf einen 50-fachen Anstieg des Rechenleistungsbedarfs für die dynamische Rauschunterdrückung von 2021 bis 2023 und einen noch enormeren Anstieg des Bedarfs für generative KI-Arbeit auf Basis großer Sprachmodelle (LLMs) hinweisen, als Beispiel für Microsofts Co- Pilot. Diese explodierenden Anforderungen bedeuten viel Potenzial, einen Teil dieses Bedarfs auf lokale Inferenzen auf niedrigem Leistungsniveau zu verlagern.

Die VPU, die als Kachel auf dem Meteor Lake ankommt, ist ein neuronaler Beschleuniger. Die CPU und die GPU werden weiterhin ihre eigenen Aufgaben erhalten, und dies wird eine heterogene Plattform bleiben, aber es bietet große Vorteile, die VPU für schwere KI-Aufgaben zu belasten. Allerdings werden einige kleinere KI-bezogene Aufgaben von Fall zu Fall weiterhin vom CPU-Teil erledigt, wenn es sich nicht lohnt, sie über den Gerätetreiber zu übertragen.

Während Intels grundlegende Zusammenarbeit mit Microsoft in den letzten Jahren von entscheidender Bedeutung sein wird, unternimmt der Chiphersteller auch in verschiedenen Kanälen Anstrengungen. Nehmen Sie zum Beispiel ONNX, ein KI-Open-Source-Containerformat, zu dem Intel beiträgt. Das Unternehmen hat außerdem Anstrengungen unternommen, um die stromsparende Beschleunigung von VPUs für webbasierte Apps zugänglich zu machen. Das Unternehmen hat sich auch an den Bemühungen wichtiger Dienstprogramme wie Open Broadcaster System (OBS), Audacity und Blender beteiligt, Plug-Ins zu entwickeln, mit denen diese bahnbrechenden Softwareteile die Vorteile der VPU nutzen können.

Darüber hinaus verfügt das Unternehmen über einen eigenen OpenVINO-Tool-Stack für KI, der sich auf die Zuordnung von Arbeitslasten zu verschiedenen Kacheln und die Optimierung der Arbeitslasten für die verschiedenen Engines konzentriert. Intel arbeitet auch mit einer Vielzahl von ISVs zusammen, die die VPU nutzen können, um bei allgemeinen KI-Erlebnissen zu helfen. Heutzutage gehören dazu beispielsweise die Anwendung von Hintergrundunschärfe, ohne die Vordergrundobjekte zu beschädigen, was eigentlich ziemlich rechenintensiv ist, um gut zu funktionieren.

In Kombination mit den Open-Source-Bemühungen ist dies ein notwendiger Teil des Puzzles. „Mehr als 75 % davon sind Softwareprobleme“, sagte Rayfield. „Wir sind in erster Linie ein Hardware-Unternehmen, aber das Problem liegt hauptsächlich in der Software.“

Was also die vor Ort auf der Computex gezeigte Demo betrifft: Es handelte sich um sehr frühe Hardware und noch sehr frühe Tage. Intel arbeitete mit einem seiner System-OEMs zusammen, um eine Demo-Plattform für Mobilgeräte (Laptops) zu entwickeln. Der Name des Systemherstellers wurde durch Intel-Aufkleber geschmackvoll verdeckt. Und im echten Demoformat war die Arbeit mit einigem Aufwand verbunden. Beispielsweise war die Tastatur des Laptops mit früher Hardware nicht funktionsfähig.

Rayfield und der Rest der Intel-Gruppe demonstrierten jedoch die Verwendung des lokal ausgeführten Stable Diffusion AI-Bildgenerators mit einer Kombination aus CPU, GPU und VPU im Open-Source-Bildeditor GIMP. Es wurde mit einem OpenVINO-Plug-in ausgeführt.

Die Bilderzeugungsaufgaben wurden auf dem eigentlichen System ausgeführt, wobei der Laptop überhaupt nicht mit dem Internet verbunden war. Die gleichen Samen in der stabilen Diffusion wurden von Durchgang zu Durchgang konstant gehalten. Hier können Sie die Stable Diffusion-Ergebnisse der Demo-Eingabeaufforderung sehen, bei der es sich um „einen Astronauten, der auf einem Pferd auf dem Mond reitet“ handelte.

Als der Task-Manager von Windows 11 aktiv war, war klar, dass die VPU-Neuronal-Engine („NPU“ im Bild hier) während des Laufs angegriffen wurde. (Das Bild unten dient nur zur Veranschaulichung der VPU/NPU im Task-Manager; das Lastdiagramm ist flach dargestellt, da die Demo zum Zeitpunkt der Aufnahme beendet war.) Wie Rayfield erklärte, wird das Prozessorpaket in Meteor Lake als Ganzes aus vier Prozessoren bestehen Kacheln, von denen jede ein SOC und eine davon die VPU ist.

Letztendlich werden wir Meteor Lake wahrscheinlich zuerst in Laptops sehen, insbesondere im mobilen Thin-and-Light-Segment. Bei dieser Art von PCs kann eine VPU am meisten zur Energieeffizienz beitragen, da KI-Funktionen in kommende Software und Plug-Ins integriert sind. Letztendlich wird die VPU jedoch auf alle Meteor-Lake-Segmente skaliert und alle SKUs der Meteor-Lake-Reihe werden eine VPU-Kachel integrieren.

Intel will Meteor Lake bis Ende 2023 ausliefern, weitere Details werden im Laufe des Sommers im Vorfeld der Veröffentlichung bekannt gegeben. Bleiben Sie dran!

Melden Sie sich jetzt für „Neuigkeiten“ anum jeden Morgen unsere Top-Storys in Ihren Posteingang zu bekommen.

Dieser Newsletter kann Werbung, Angebote oder Affiliate-Links enthalten. Wenn Sie einen Newsletter abonnieren, erklären Sie sich mit unseren Nutzungsbedingungen und Datenschutzrichtlinien einverstanden. Sie können den Newsletter jederzeit abbestellen.

Ihr Abonnement wurde bestätigt. Behalten Sie Ihren Posteingang im Auge!

Was ist jetzt neu?