edge-künstliche-intelligenz

Was ist künstliche Edge-Intelligenz?

Künstliche Edge-Intelligenz (Edge-KI) kombiniert künstliche Intelligenz und Edge-Computing, um KI-Workflows zu erstellen, die von zentralisierten Rechenzentren bis zum Rand des Unternehmens reichen Netzwerk.

Edge-Künstliche Intelligenz verstehen

Während die meisten KI-Anwendungen vollständig innerhalb von entwickelt und ausgeführt werden Cloud, befürwortet Edge AI Workflows, die sich von zentralisierten Rechenzentren im Cloud an Endpunkte, die verschiedene Benutzergeräte umfassen können. 

Edge AI kombiniert Edge-Computing und künstliche Intelligenz, um die Berechnung und Datenspeicherung so nah wie möglich am Ort der Anfrage zu ermöglichen. Daraus ergeben sich zahlreiche Vorteile: 

  • Reduzierter Bandbreitenverbrauch.
  • Geringere Latenz. 
  • Weniger Gewichts- und Größenbeschränkungen.
  • Hohe Verfügbarkeit.
  • Verbesserte Sicherheit.
  • Verbesserte Modell Genauigkeit.
  • Echtzeitanalysen und
  • Reduzierte Kosten (im Vergleich zu Cloud-basierte KI).

Um diese Vorteile zu erzielen, führt Edge AI maschinelle Lernalgorithmen am Edge aus Netzwerk damit Informationen und Daten direkt in IoT-Geräten verarbeitet werden können. Edge AI erfordert kein privates Rechenzentrum oder eine Zentrale Cloud Rechenleistung und kann sogar auf vorhandenen CPUs und weniger leistungsfähigen Mikrocontrollern (MCUs) ausgeführt werden.

Wie funktioniert die Edge-KI-Technologie?

KI nutzt Deep Neural Netzwerk (DNN)-Strukturen zur Replikation menschlicher Kognition und Intelligenz. Diese Netzwerke wurden darauf trainiert, spezifische Fragen zu beantworten, indem sie Variationen der Frage und die richtigen Antworten ausgesetzt wurden. 

Ausbildung Modell Auf diese Weise werden riesige Datenmengen benötigt, die häufig in einem Rechenzentrum oder im Rechenzentrum gespeichert werden Cloud, und der Prozess des Trainings und der Konfiguration der Modell erfordert manchmal die Zusammenarbeit zwischen Data Scientists. Einmal die Modell trainiert wurde, wird es zu einer Inferenzmaschine, die reale Fragen beantworten kann.

Bei Edge AI läuft die Interferenz-Engine auf einem IoT-Gerät. Wenn künstliche Intelligenz ein Problem identifiziert, werden Daten in die hochgeladen Cloud weiter auszubilden Modelldem „Vermischten Geschmack“. Seine Modell ersetzt dann die weniger verfeinerte Inferenz-Engine am Rand und erzeugt eine Rückkopplungsschleife, wo die Rand-KI Modell (und damit das Gerät) wird mit der Zeit intelligenter.

Während dieser Prozess abläuft, gibt es keine menschliche Beteiligung. 

Edge-KI-Anwendungsfälle

Edge AI ist in fast jedem zu finden Energiegewinnung, aber hier sind ein paar häufige Anwendungsfälle.

Fertigung

Edge AI wird in der Fertigung eingesetzt, um eine Verbesserung zu ermöglichen Smartgeräte App über kritische Anlagen und auch um vorausschauende Wartung in den Betrieb zu integrieren. Bei letzterem können Sensordaten den Ausfall einer Maschine vorhersagen und warnen Management zu der Tatsache.

Autonome Fahrzeuge

Die Fähigkeit der Edge-KI, Daten in Echtzeit zu verarbeiten, ist entscheidend für die Lebensfähigkeit autonomer Fahrzeuge. Auf diese Fahrzeuge kann man sich nicht verlassen Cloud-basierte KI, da es oft Sekunden dauern kann, bis die Daten verarbeitet sind.

Auf der Straße und insbesondere in Sachen Kollisionsvermeidung können diese wenigen Sekunden den Unterschied ausmachen life und Tod für den Passagier.

Unterhaltung

Edge AI ist auch im Kontext von nützlich VR, AR, und gemischte Realität. Die Größe von VR Brillen, die Videoinhalte streamen, können reduziert werden, indem Rechenleistung auf Edge-Server in der Nähe des Geräts übertragen wird.

Microsoft HoloLens 2 ist ein AR Headset mit einem holografischen Computer, das derzeit von Kunden in den Bereichen Fertigung, Konstruktion, Bildung und Gesundheitswesen verwendet wird, um die Effizienz zu steigern und Kosten zu senken.

Edge Künstliche Intelligenz und dezentrale KI

Das Edge-Paradigma der künstlichen Intelligenz könnte die dezentralere Entwicklung der KI unterstützen.

In der Tat ist das Hauptrisiko einer großen KI Energiegewinnung ist die Entwicklung eines zu zentralisierten Systems. Dies geschieht insbesondere dann, wenn KI-Modelle jederzeit auf die Daten der Benutzer zugreifen können, mit der Begründung, ein hyperpersonalisiertes Erlebnis in Echtzeit zu liefern.

Stattdessen kann mit künstlicher Edge-Intelligenz das hyperpersonalisierte Erlebnis am Rand des bereitgestellt werden Netzwerk, als die KI Modell, greift nur spontan über das Gerät auf die Daten des Benutzers zu, wobei die Daten das Gerät nie verlassen, wodurch die KI aktiviert wird Modell um hochgradig personalisierte, kontextbezogene Erlebnisse bereitzustellen.

Der Benutzer genießt diese Erfahrungen, während die Daten das Gerät des Benutzers nie verlassen, wodurch der Datenschutz stärker in den Mittelpunkt gestellt wird.

Mit dieser Art von Netzwerk, müssen sich die zentralen Spieler nur um das Vortraining des großen Generativen kümmern Modell und ein datenschutzorientiertes System zur Identitätsprüfung.

Die zentralen Thesen

  • Künstliche Edge-Intelligenz (Edge-KI) kombiniert künstliche Intelligenz und Edge-Computing, um KI-Workflows zu erstellen, die von zentralisierten Rechenzentren bis zum Rand des Unternehmens reichen Netzwerk.
  • Während die meisten KI-Anwendungen vollständig innerhalb von entwickelt und ausgeführt werden Cloud, befürwortet Edge AI Workflows, die von zentralisierten Rechenzentren bis zu Endpunkten reichen, die verschiedene Benutzergeräte umfassen.
  • Edge AI führt maschinelle Lernalgorithmen am Rand des aus Netzwerk damit Informationen und Daten direkt in IoT-Geräten verarbeitet werden können. Dies schafft mehrere Vorteile wie reduzierte Latenz, verbesserte Privatsphäre und reduzierten Bandbreitenverbrauch.

Lesen Sie weiter: Geschichte von OpenAI, KI-Geschäftsmodelle, AI Wirtschaft.

Vernetzte Geschäftsmodellanalysen

KI-Paradigma

aktuelles KI-Paradigma

Vortraining

Vortraining

Große Sprachmodelle

große-sprachmodelle-llms
Large Language Models (LLMs) sind KI-Tools, die Text lesen, zusammenfassen und übersetzen können. Auf diese Weise können sie Wörter vorhersagen und Sätze bilden, die widerspiegeln, wie Menschen schreiben und sprechen.

Generative Modelle

Generative-Modelle

Schnelles Engineering

Prompt-Engineering
Prompt Engineering ist ein Konzept zur Verarbeitung natürlicher Sprache (NLP), bei dem Eingaben entdeckt werden, die wünschenswerte oder nützliche Ergebnisse liefern. Wie bei den meisten Prozessen bestimmt die Qualität der Eingaben die Qualität der Ausgaben im Prompt Engineering. Das Entwerfen effektiver Eingabeaufforderungen erhöht die Wahrscheinlichkeit, dass die Modell wird eine Antwort zurückgeben, die sowohl günstig als auch kontextbezogen ist. Das von OpenAI entwickelte CLIP (Contrastive Language-Image Pre-training) Modell ist ein Beispiel für eine Modell die Eingabeaufforderungen verwendet, um Bilder und Bildunterschriften aus über 400 Millionen Bild-Bildunterschrift-Paaren zu klassifizieren.

OpenAI-Organisationsstruktur

openai-organisationsstruktur
OpenAI ist ein Forschungslabor für künstliche Intelligenz, das in ein gewinnorientiertes Unternehmen umgewandelt wurde Organisation im Jahr 2019. Das Unternehmen Struktur ist um zwei Unternehmen herum organisiert: OpenAI, Inc., eine Delaware LLC mit einem einzigen Mitglied, die von OpenAI Non-Profit kontrolliert wird, und OpenAI LP, eine begrenzte, gewinnorientierte Organisation Organisation. Die OpenAI LP wird vom Vorstand von OpenAI, Inc (der Stiftung) geleitet, die als General Partner fungiert. Gleichzeitig bestehen Limited Partners aus Mitarbeitern der LP, einigen Vorstandsmitgliedern und anderen Investoren wie Reid Hoffmans gemeinnütziger Stiftung Khosla Ventures und Microsoft, der führende Investor in der LP.

OpenAI-Geschäftsmodell

wie-verdient-openai-geld
OpenAI hat die grundlegende Ebene der KI aufgebaut Energiegewinnung. Mit großen generativen Modellen wie GPT-3 und DALL-E bietet OpenAI API-Zugriff für Unternehmen, die Anwendungen auf der Grundlage ihrer grundlegenden Modelle entwickeln möchten, während sie diese Modelle in ihre Produkte integrieren und diese Modelle mit proprietären Daten und zusätzlicher KI anpassen können Merkmale. Andererseits veröffentlichte OpenAI auch ChatGPT, das sich um ein Freemium herum entwickelte Modell. Microsoft vertreibt auch Opener-Produkte durch seine Handelspartnerschaft.

OpenAI/Microsoft

openai-microsoft
OpenAI und Microsoft aus kaufmännischer Sicht zusammengeschlossen. Die Geschichte der Partnerschaft begann 2016 und konsolidierte sich 2019, als Microsoft eine Milliarde Dollar in die Partnerschaft investierte. Es macht jetzt einen Sprung nach vorne, da Microsoft Gespräche führt, um 10 Milliarden US-Dollar in diese Partnerschaft zu stecken. Microsoft entwickelt über OpenAI seinen Azure-KI-Supercomputer, verbessert gleichzeitig seine Azure-Unternehmensplattform und integriert die Modelle von OpenAI in seine Geschäft und Verbraucherprodukte (GitHub, Office, Bing).

Stabilitäts-KI-Geschäftsmodell

wie-macht-stabilität-ai-geld
Stability AI ist die Entität hinter Stable Diffusion. Stability verdient Geld mit unseren KI-Produkten und mit der Bereitstellung von KI-Beratungsdiensten für Unternehmen. Stability AI monetarisiert Stable Diffusion über die APIs von DreamStudio. Während es auch Open Source für jedermann zum Herunterladen und Verwenden freigibt. Stability AI verdient auch Geld über enterprise Dienstleistungen, wo sein Kernentwicklungsteam die Möglichkeit dazu bietet enterprise Kunden zu bedienen, Treppe, und passen Sie Stable Diffusion oder andere große generative Modelle an ihre an Bedürfnisse.

Stabilität des KI-Ökosystems

Stabilität-AI-Ökosystem

Über den Autor

Nach oben scrollen
FourWeekMBA