Skip to Content

Was ist eine Neural Processing Unit (NPU)?

Künstliche Intelligenz und maschinelles Lernen (AI/ML) sind aufregende Technologien, die riesige Versprechen machen, aber wir erreichen gemeinsam die Grenzen unserer Fähigkeiten, um sie zu erreichen. Insgesamt nähern sich unsere AI-Ziele und ML-Ziele schnell den Grenzen des Möglichen. Wenn es in AI und ML eine Zukunft geben wird, sind neuronale Verarbeitungseinheiten (NPUs) der Schlüssel.

Für Unternehmen, die AI Workloads in großem Maßstab ernst nehmen, hilft Ihnen das Verständnis, was ein NPU ist, wie es funktioniert und was es kann, dabei, die richtige Entscheidung darüber zu treffen, wie Sie Ihre Pipelines aufbauen können. Die richtige Storage-Lösung ist entscheidend, da die meisten nicht mit der Geschwindigkeit Schritt halten können, die NPUs bieten.

Was ist eine neuronale Verarbeitungseinheit?

Eine neuronale Verarbeitungseinheit ist eine spezialisierte Hardware, die mit dem Fokus auf der Beschleunigung von Berechnungen neuronaler Netzwerke entwickelt wurde. Dank ihres Designs verbessern NPUs die Geschwindigkeit und Effizienz von AISystemen drastisch. 

Verwechseln Sie NPUs nicht mit einer aufgerüsteten vertrauten Technologie: NPUs sind ein großer Schritt nach vorne für die AI/ML-Verarbeitung. NPUs sind für die Ausführung der Algorithmen optimiert, die AI und ML ermöglichen. Sie sind besonders effizient bei Aufgaben wie Bilderkennung und Verarbeitung natürlicher Sprache, die eine schnelle Verarbeitung riesiger Mengen an Multimediadaten erfordern.

NPUs konkurrieren nicht unbedingt mit ihren besser erkennbaren Gegenstücken, CPUs (Zentraleinheiten) und GPUs (Grafikverarbeitungseinheiten). Stattdessen ergänzen sich NPUs zu ihnen und ihren Rollen. 

CPUs, selbst die allerbesten, sind immer noch nur Allzweck-Computing-Engines. CPUs sind in der Lage, eine Vielzahl von Aufgaben zu bewältigen, aber es fehlt an spezialisierter Optimierung für eine Reihe von Aufgaben. GPUs hingegen sind auf die parallele Verarbeitung spezialisiert und eignen sich besonders gut für komplexe Berechnungen in Grafiken. Dank des digitalen Währungsminings haben sich GPUs einen Ruf für die Verarbeitung von Workloads für maschinelles Lernen erworben, benötigen jedoch spezielle Schaltkreise, um bei solchen Aufgaben besonders effektiv zu sein.

Wie funktioniert eine neuronale Verarbeitungseinheit?

NPUs wurden speziell für die Verarbeitung von Algorithmen für maschinelles Lernen entwickelt. Während GPUs sehr gut bei der Verarbeitung paralleler Daten sind, sind NPUs speziell für die Berechnungen konzipiert, die zum Ausführen neuronaler Netzwerke erforderlich sind, die für AI/ML-Prozesse verantwortlich sind.

Maschinelle Lernalgorithmen sind die Grundlage und das Gerüst, auf dem AI-Anwendungen aufgebaut werden. Mit der zunehmenden Komplexität neuronaler Netzwerke und Berechnungen für maschinelles Lernen ist der Bedarf nach einer maßgeschneiderten Lösung gestiegen. 

NPUs beschleunigen Deep Learning-Algorithmen, indem sie nativ viele der spezifischen Operationen ausführen, die neuronale Netzwerke benötigen. Anstatt das Framework für die Ausführung dieser Operationen oder für die Ausführung von Umgebungen zu erstellen, die diese erweiterten Berechnungen ermöglichen, sind NPUs speziell für die effiziente Ausführung von AI/ML-Operationen konzipiert. 

NPUs und ihre integrierte Fähigkeit zur Hochleistungsberechnung haben drastische Auswirkungen auf die AI-Performance. Matrix-Multiplikationen und -Faltungen sind spezialisierte Aufgaben, von denen AIProzesse abhängen, und NPUs zeichnen sich aus. Bilderkennung und Sprachverarbeitung sind die Orte, an denen NPUs derzeit die Branche transformieren, mit schnelleren Inferenzzeiten und geringerem Stromverbrauch, was sich auf das Endergebnis eines Unternehmens auswirken kann.

Anwendungen von neuronalen Verarbeitungseinheiten

Die Anwendung neuronaler Verarbeitungseinheiten erstreckt sich auf jede Branche oder jedes Gebiet, die/das eine schnelle, effiziente und skalierbare Verarbeitung von AI/ML-Workloads erfordert. NPUs werden in der Verarbeitung natürlicher Sprache für Stimmungsanalysen, Sprachübersetzungen, Textzusammenfassungen und Chatbots eingesetzt. Bei der Verwendung in der Cybersicherheit verarbeiten NPUs riesige Datenmengen und ermöglichen die Erkennung von Bedrohungen, Anomalien und Eindringlingen. NPUs können visuelle Daten deutlich besser analysieren und werden in autonomen Fahrzeugen und im Gesundheitswesen eingesetzt – zwei Felder, die eine schnelle Bildanalyse erfordern.

Die NPUs der Welt, die uns offenstehen, sind noch weitgehend unerforscht. Auf Verbraucherebene verschwimmen NPUs (die bereits weitgehend in Smartphones und SoC integriert sind) Hintergründe in Videoanrufen und erzeugen AIBilder spontan. Aber das wahre Ausmaß dessen, wozu NPUs in der Lage sind, muss noch aufgezeigt werden.

Vorteile und Einschränkungen von neuronalen Verarbeitungseinheiten

NPUs bieten schnellere Inferenzgeschwindigkeiten und beschleunigen Inferenzaufgaben in Deep Learning-Modellen. Wenn Berechnungen neuronaler Netzwerke auf NPUs ausgelastet werden, wird die Latenzzeit reduziert und die Benutzererfahrung kann verbessert werden. NPUs werden zunehmend in Edge- und IoT-Geräten eingesetzt, da sie viel energieeffizienter sind als ihre GPU- und CPU-Pendants.

Aber NPUs haben einen Nachteil: Sie können zu schnell sein. Daten-Storage-Systeme, die aus Data Lakes und Data Warehouses bestehen, wurden als Reaktion auf die harten, physischen Einschränkungen der Datenverarbeitungsgeschwindigkeiten entwickelt. Die Geschwindigkeit von NPUs kann herkömmliche Storage-Systeme überfordern.

Um skaliert richtig eingesetzt zu werden, benötigen NPUs eine ganzheitliche Storage-Lösung, die schnell genug ist, um Schritt zu halten. Auf Unternehmensebene muss Storage speziell für AI entwickelt werden. Nehmen wir zum Beispiel Pure Storage ® FlashBlade//S™, die als durchgängige, gemeinsam genutzte, skalierbare Architektur entwickelt wurde, die in der Lage ist, große AI/ML-Pipelines zu verarbeiten.

Es gibt auch eine KI-fähige Infrastruktur. AIRI ® ist eine Full-Stack-Lösung, die die AI-Implementierung vereinfacht und schnell und effizient skaliert, und wurde entwickelt, um den potenziellen Nachteil der blästigen Geschwindigkeiten von NPUs in ein Asset zu verwandeln. 

Neurale Verarbeitungseinheiten vs. Grafikverarbeitungseinheiten

Wie bereits erwähnt, unterscheiden sich NPUs und GPUs in Architektur, Performance und Anwendung erheblich. NPUs und GPUs sind verschiedene Hardwarekomponenten, die jeweils für das optimiert sind, was sie am besten können: NPUs für AI/ML-Aufgaben und GPUs für Grafik-Rendering. 

Da NPUs spezialisierte Hardware sind, die speziell für die Beschleunigung von Berechnungen neuronaler Netzwerke entwickelt wurde, ist ihre Architektur speziell für Deep Learning-Aufgaben konzipiert. GPUs hingegen müssen für Deep Learning-Aufgaben umfunktioniert werden und sind beim Grafik-Rendering viel stärker. GPUs verfügen über eine generalisierte Architektur mit Tausenden von Kernen. NPUs verfügen über ein optimierteres Design mit dedizierter Hardware für Aufgaben wie Matrixmultiplikationen und Faltungen. 

NPUs neigen dazu, GPUs bei Echtzeit-Inferenzaufgaben in Edge-Geräten zu übertreffen, bei denen niedrige Latenzzeiten und Energieeffizienz entscheidend sind. NPUs sind auch in Anwendungen vorzuziehen, die eine geräteinterne AI-Verarbeitung erfordern – denken Sie an autonome Fahrzeuge und IoT-Geräte. Und NPUs übertreffen GPUs für AI-Workload-Geschwindigkeiten in ressourcenbegrenzten Umgebungen.

Fazit

In jedem Projekt gibt es einen ständigen Kompromiss zwischen dem richtigen Tool für jeden Teil der Aufgabe und der Einfachheit eines einzigen, generalisierten Tools. Dieser Kompromiss ist beispielsweise der Grund, warum Amateur-Holzarbeiter nicht in eine Rundsäge, eine Gehrungssäge, eine Puzzlesäge, eine Tischsäge, eine Bandsäge, eine Drehsäge und eine Kettensäge investieren, bis sie eine für das Projekt, an dem sie arbeiten, benötigen. Ähnlich verlief die AI/ML-Welt bis vor Kurzem mit GPUs völlig in Ordnung.

Neurale Verarbeitungseinheiten sind leistungsstarke, maßgeschneiderte Tools für Algorithmen für künstliche Intelligenz und maschinelles Lernen. NPUs könnten das Gesicht von AI/ML-Workloads sehr gut revolutionieren. Und es ist sinnvoll, dass immer mehr Netzwerke und Unternehmen in sie investieren: AI und ML sind bereit, unsere Kultur, Technologien und sogar unsere Kunst neu zu gestalten.

Um die volle Leistung und Effizienz von NPUs im großen Maßstab zu nutzen, müssen Sie neu überdenken, was auf der Storage-Seite des Hauses möglich ist. Aber es geht nicht nur darum, das zu überdenken, was mit AI/ML möglich ist, sondern auch darum, Ihre Storage-, Hybrid- oder Cloud-Netzwerke neu zu überdenken, um sicherzustellen, dass Ihre NPUs zwar große Datenmengen schnell aufnehmen und verarbeiten, sondern auch eine Storage-Lösung haben, die mithalten kann.

11/2024
Pure Storage FlashBlade and Ethernet for HPC Workloads
NFS with Pure Storage® FlashBlade® and Ethernet delivers high performance and data consistency for high performance computing (HPC) workloads.
White Paper
7 Seiten
KONTAKTIEREN SIE UNS
Fragen, Kommentare?

Haben Sie eine Frage oder einen Kommentar zu Produkten oder Zertifizierungen von Pure?  Wir helfen Ihnen gerne!

Termin für Demo vereinbaren

Vereinbaren Sie einen Termin für eine Live-Demo und sehen Sie selbst, wie Pure Ihnen helfen kann, Ihre Daten in überzeugende Ergebnisse zu verwandeln. 

Rufen Sie uns an: +49 89 26200662
Presse:
 pr@purestorage.com

 

Pure Storage Germany GmbH

Mies-van-der-Rohe-Straße 6

80807 München

Deutschland

info@purestorage.com

SCHLIESSEN
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.