Künstliche Edge-Intelligenz (Edge-KI) kombiniert künstliche Intelligenz und Edge-Computing, um KI-Workflows zu erstellen, die von zentralisierten Rechenzentren bis zum Rand des Unternehmens reichen Netzwerk.
Edge-Künstliche Intelligenz verstehen
Während die meisten KI-Anwendungen vollständig innerhalb von entwickelt und ausgeführt werden Cloud, befürwortet Edge AI Workflows, die sich von zentralisierten Rechenzentren im Cloud an Endpunkte, die verschiedene Benutzergeräte umfassen können.
Edge AI kombiniert Edge-Computing und künstliche Intelligenz, um die Berechnung und Datenspeicherung so nah wie möglich am Ort der Anfrage zu ermöglichen. Daraus ergeben sich zahlreiche Vorteile:
- Reduzierter Bandbreitenverbrauch.
- Geringere Latenz.
- Weniger Gewichts- und Größenbeschränkungen.
- Hohe Verfügbarkeit.
- Verbesserte Sicherheit.
- Verbesserte Modell Genauigkeit.
- Echtzeitanalysen und
- Reduzierte Kosten (im Vergleich zu Cloud-basierte KI).
Um diese Vorteile zu erzielen, führt Edge AI maschinelle Lernalgorithmen am Edge aus Netzwerk damit Informationen und Daten direkt in IoT-Geräten verarbeitet werden können. Edge AI erfordert kein privates Rechenzentrum oder eine Zentrale Cloud Rechenleistung und kann sogar auf vorhandenen CPUs und weniger leistungsfähigen Mikrocontrollern (MCUs) ausgeführt werden.
Wie funktioniert die Edge-KI-Technologie?
KI nutzt Deep Neural Netzwerk (DNN)-Strukturen zur Replikation menschlicher Kognition und Intelligenz. Diese Netzwerke wurden darauf trainiert, spezifische Fragen zu beantworten, indem sie Variationen der Frage und die richtigen Antworten ausgesetzt wurden.
Ausbildung Modell Auf diese Weise werden riesige Datenmengen benötigt, die häufig in einem Rechenzentrum oder im Rechenzentrum gespeichert werden Cloud, und der Prozess des Trainings und der Konfiguration der Modell erfordert manchmal die Zusammenarbeit zwischen Data Scientists. Einmal die Modell trainiert wurde, wird es zu einer Inferenzmaschine, die reale Fragen beantworten kann.
Bei Edge AI läuft die Interferenz-Engine auf einem IoT-Gerät. Wenn künstliche Intelligenz ein Problem identifiziert, werden Daten in die hochgeladen Cloud weiter auszubilden Modelldem „Vermischten Geschmack“. Seine Modell ersetzt dann die weniger verfeinerte Inferenz-Engine am Rand und erzeugt eine Rückkopplungsschleife, wo die Rand-KI Modell (und damit das Gerät) wird mit der Zeit intelligenter.
Während dieser Prozess abläuft, gibt es keine menschliche Beteiligung.
Edge-KI-Anwendungsfälle
Edge AI ist in fast jedem zu finden Energiegewinnung, aber hier sind ein paar häufige Anwendungsfälle.
Fertigung
Edge AI wird in der Fertigung eingesetzt, um eine Verbesserung zu ermöglichen Smartgeräte App über kritische Anlagen und auch um vorausschauende Wartung in den Betrieb zu integrieren. Bei letzterem können Sensordaten den Ausfall einer Maschine vorhersagen und warnen Management zu der Tatsache.
Autonome Fahrzeuge
Die Fähigkeit der Edge-KI, Daten in Echtzeit zu verarbeiten, ist entscheidend für die Lebensfähigkeit autonomer Fahrzeuge. Auf diese Fahrzeuge kann man sich nicht verlassen Cloud-basierte KI, da es oft Sekunden dauern kann, bis die Daten verarbeitet sind.
Auf der Straße und insbesondere in Sachen Kollisionsvermeidung können diese wenigen Sekunden den Unterschied ausmachen life und Tod für den Passagier.
Unterhaltung
Edge AI ist auch im Kontext von nützlich VR, AR, und gemischte Realität. Die Größe von VR Brillen, die Videoinhalte streamen, können reduziert werden, indem Rechenleistung auf Edge-Server in der Nähe des Geräts übertragen wird.
Microsoft HoloLens 2 ist ein AR Headset mit einem holografischen Computer, das derzeit von Kunden in den Bereichen Fertigung, Konstruktion, Bildung und Gesundheitswesen verwendet wird, um die Effizienz zu steigern und Kosten zu senken.
Edge Künstliche Intelligenz und dezentrale KI
Das Edge-Paradigma der künstlichen Intelligenz könnte die dezentralere Entwicklung der KI unterstützen.
In der Tat ist das Hauptrisiko einer großen KI Energiegewinnung ist die Entwicklung eines zu zentralisierten Systems. Dies geschieht insbesondere dann, wenn KI-Modelle jederzeit auf die Daten der Benutzer zugreifen können, mit der Begründung, ein hyperpersonalisiertes Erlebnis in Echtzeit zu liefern.
Stattdessen kann mit künstlicher Edge-Intelligenz das hyperpersonalisierte Erlebnis am Rand des bereitgestellt werden Netzwerk, als die KI Modell, greift nur spontan über das Gerät auf die Daten des Benutzers zu, wobei die Daten das Gerät nie verlassen, wodurch die KI aktiviert wird Modell um hochgradig personalisierte, kontextbezogene Erlebnisse bereitzustellen.
Der Benutzer genießt diese Erfahrungen, während die Daten das Gerät des Benutzers nie verlassen, wodurch der Datenschutz stärker in den Mittelpunkt gestellt wird.
Mit dieser Art von Netzwerk, müssen sich die zentralen Spieler nur um das Vortraining des großen Generativen kümmern Modell und ein datenschutzorientiertes System zur Identitätsprüfung.
Die zentralen Thesen
- Künstliche Edge-Intelligenz (Edge-KI) kombiniert künstliche Intelligenz und Edge-Computing, um KI-Workflows zu erstellen, die von zentralisierten Rechenzentren bis zum Rand des Unternehmens reichen Netzwerk.
- Während die meisten KI-Anwendungen vollständig innerhalb von entwickelt und ausgeführt werden Cloud, befürwortet Edge AI Workflows, die von zentralisierten Rechenzentren bis zu Endpunkten reichen, die verschiedene Benutzergeräte umfassen.
- Edge AI führt maschinelle Lernalgorithmen am Rand des aus Netzwerk damit Informationen und Daten direkt in IoT-Geräten verarbeitet werden können. Dies schafft mehrere Vorteile wie reduzierte Latenz, verbesserte Privatsphäre und reduzierten Bandbreitenverbrauch.
Lesen Sie weiter: Geschichte von OpenAI, KI-Geschäftsmodelle, AI Wirtschaft.
Vernetzte Geschäftsmodellanalysen
KI-Paradigma
Stabilitäts-KI-Geschäftsmodell
Stabilität des KI-Ökosystems