Neueste aiWare4+ Automotive NPU bietet verbesserte Programmierbarkeit,
Flexibilität und Skalierbarkeit bei höchster Effizienz
Die 4. Generation der aiWare™ Automotive NPU-Hardware-IP wurde sowohl in der
Hardware als auch in der Software erheblich verbessert. Sie liefert bis zu 1000
TOPS mit einer branchenführenden Effizienz von bis zu 98 % und unterstützt die
neuesten KI-Trends wie Transformer Networks, FP8 und strukturierte feinkörnige
Sparsity
BUDAPEST, Ungarn, Dec. 14, 2022 (GLOBE NEWSWIRE) -- aiMotive preisgekrönten
aiWare Automotive NPU Hardware IP vorgestellt. aiWare4+ baut auf dem Erfolg von
aiWare4 in automobilen Produktions-SoCs wie dem Apache5 und Apache6 von
Nextchip auf, indem die Hardware-Architektur verfeinert und das Software-SDK
erheblich verbessert wurde. Zusammen ermöglichen sie die effizientere
Ausführung einer weitaus breiteren Palette von Workloads, wie z. B.
Transformator-Netzwerke und andere neue KI-Netzwerktopologien. Unterstützung
für FP8 sowie INT8-Berechnungen und spezielle Sparsity-Hardwareunterstützung
sind ebenfalls in aiWare4+ enthalten.
Die einzigartige, skalierbare „Data-First“ -Hardwarearchitektur kombiniert
Konzepte wie Fast-Memory-Ausführung, parallele On-Chip-E/A, hierarchische
Hardware-Kachelung und Wellenfrontverarbeitung, um die höchstmögliche PPA zu
liefern.
Zu den erweiterten Funktionen für aiWare4 + gehören: Verbesserte
Programmierbarkeit: Signifikante Verbesserungen der aiWare-Hardwarearchitektur
und des SDK-Portfolios an Tools ermöglichen es den Anwendern, vollen Zugriff
auf jeden Teil der internen Ausführungspipeline von aiWare zu erhalten, ohne
den hochgradig KI-zentrierten Ansatz zu beeinträchtigen, der Tools wie das
interaktive aiWare Studio sowohl bei Forschungs- als auch bei
Produktionsingenieuren so beliebt macht Volle FP8-Unterstützung: Mit aiWare4+
wurde die volle Unterstützung für FP8 zusätzlich zur INT8-Quantisierung für die
Workload-Ausführung hinzugefügt Breitere Netzwerkunterstützung: SDK-Upgrades
ermöglichen es Anwendern, eine höhere Leistung nicht nur für CNNs, sondern auch
für die neuesten aufkommenden Branchentrends wie Transformatornetze,
Belegungsnetze und LSTMs zu erzielen. Benutzer von aiWare4+ werden auch von
Hardwareverbesserungen profitieren, die erhebliche Leistungs- und
Effizienzsteigerungen für Workloads wie Transformatorennetzwerke bieten
Erweiterte Sparsity-Unterstützung: aiWare4+ Hardware-Upgrades bedeuten, dass
jede gewichtete Sparsamkeit zu einem minimalen Stromverbrauch der NPU pro Takt
führt, was einen optimierten Stromverbrauch für eine möglichst breite Palette
von Workloads gewährleistet Verbesserte Skalierbarkeit: aiWare4+ ist so
konzipiert, dass es von 10 TOPS bis zu 1000+ TOPS skaliert werden kann. Dabei
wird eine Multi-Core-Architektur verwendet, um den Durchsatz zu erhöhen und
gleichzeitig eine hohe Effizienz beizubehalten (Einschränkungen bei der Ct- und
externen Speicherbandbreite). Darüber hinaus bietet aiWare4+ verschachteltes
Multitasking, das die Leistung und Effizienz bei mehreren Workloads optimiert.
Das aiMotive-Team von KI-Forschern verfolgt ständig die neuesten Entwicklungen
in der KI-Branche im Automobilbereich und vergleicht unsere Methoden
unermüdlich mit den besten in der Branche. aiWare4+ bietet weiterhin die
höchste NPU-Effizienz der Automobilbranche von bis zu 98 % für eine Vielzahl
von KI-Workloads und ermöglicht so eine überragende Leistung mit weniger
Silizium und weniger Energie.
„Als wir aiWare4 auslieferten, wussten wir, dass unsere hochgradig angepasste
Hardware-Architektur uns in die Lage versetzte, im Vergleich zu anderen
automobilen Inferenz-NPUs auf dem Markt eine überragende Effizienz und PPA zu
liefern“, erklärt Mustafa Ali, Product Director, aiWare bei aiMotive. „Einige
unserer Kunden erkannten zwar unsere führende Rolle bei der CNN-Effizienz an,
waren jedoch besorgt über die Programmierbarkeit von aiWare im Vergleich zu
konventionelleren Architekturen wie DSP- oder GPU-basierten NPUs. Diese
neuesten aiWare4+ und aiWare SDK Upgrades stellen sicher, dass unsere Kunden
aiWare für eine breite Palette von KI-Workloads programmieren können und dabei
eine zukunftssichere Flexibilität erreichen, die mit einigen der bekanntesten
SoCs und DSP-basierten NPUs vergleichbar ist, ohne unsere branchenführende
NPU-Effizienz zu beeinträchtigen.“
aiMotive wird aiWare4+ RTL ab dem zweiten Quartal 2023 an führende Kunden
ausliefern, während das SDK bereits heute eine frühe Unterstützung für die
meisten der neuen Funktionen bietet und 2023 in Produktionsqualität verfügbar
sein wird.
Anmerkungen
Anmerkung 1: PPA: Power, Performance and Area
Anmerkung 2: Siehe aiWare3 Benchmarks auf dem Apache5 SoC von Nextchip
Über aiMotive:
Weitere Informationen: aimotive.com/about-us
Für weitere Informationen über aiWare4+ klicken Sie hier .
Kontakt:
Bence Boda
Marketing & Communications Manager
T: +36301828085
E: bence.boda@aimotive.com