Vor weniger als sechs Jahren gegründet, OpenAI vertritt die Philosophie, dass riesige Unternehmen die fortschrittliche Technologieentwicklung nicht kontrollieren sollten. Der Gemeinnützige Organisation zielt darauf ab, künstliche Intelligenz (KI) zu erforschen, um ihr Potenzial und ihren Nutzen für die Gesellschaft zu entdecken. Ziel ist es, Open-Source-Software und -Anwendungen zu produzieren, die es verschiedenen Forschern ermöglichen, KI-Systeme zu entwickeln. Seit Beginn des Organisation, hat es mehrere beeindruckende Errungenschaften erzielt, die der Hauptfokus dieses Artikels sind.
Was ist OpenAI?
Der gemeinnützige Verein Organisation OpenAI hat ein Forschungslabor eingerichtet, das darauf abzielt, KI-Technologie zu fördern, die der Gesellschaft zugute kommt.
Es wurde ursprünglich Ende 2015 von mehreren Unternehmern gegründet, darunter Elon Musk, Sam Altman und viele andere.
Sie alle haben 1 Milliarde US-Dollar zugesagt, um die Entwicklung von entwicklerfreundlichen KI-Systemen zu unterstützen.
Obwohl Musk nach drei Jahren aus der Organisation ausschied, blieb er ein Spender und Verfechter von OpenAI.
Das Unternehmen entfernte sich anscheinend von seinen ursprünglichen Zielen, die Entwicklung von Software zu vermeiden, um finanzielle Erträge zu erzielen.
Im Jahr 2019 akzeptierte OpenAI eine Investition in Höhe von 1 Milliarde US-Dollar von Microsoft, einem der bekanntesten Technologieunternehmen der Welt.
Am 23. Januar 2023 haben Microsoft und OpenAI einen mehrjährigen Vertrag über mehrere Milliarden abgeschlossen, in dem Microsoft OpenAI die Infrastruktur zur Verfügung stellt, um seine Produkte weiterzuentwickeln und zu betreiben.
Und Microsoft erhält kommerzielle Exklusivität bei der Integration und Verteilung dieser Produkte.
Als OpenAI erklärt:
Diese mehrjährige Multi-Milliarden-Dollar-Investition von Microsoft folgt ihren früheren Investitionen in den Jahren 2019 und 2021 und wird es uns ermöglichen, unsere unabhängige Forschung fortzusetzen und KI zu entwickeln, die immer sicherer, nützlicher und leistungsfähiger wird.
Als Microsoft angekündigt Der Deal wird sich um drei Säulen bewegen:
Supercomputing im Maßstab
Microsoft wird seine Investitionen in die Entwicklung und den Einsatz spezialisierter Supercomputing-Systeme erhöhen, um die bahnbrechende unabhängige KI-Forschung von OpenAI zu beschleunigen. Wir werden auch weiterhin die führende KI-Infrastruktur von Azure ausbauen, um Kunden bei der Erstellung und Bereitstellung ihrer KI-Anwendungen auf globaler Ebene zu unterstützen.
Neue KI-gestützte Erfahrungen
Microsoft wird die Modelle von OpenAI in allen Verbraucher- und enterprise Produkte und führen neue Kategorien digitaler Erlebnisse ein, die auf der Technologie von OpenAI basieren. Dazu gehören die von Microsoft Azure OpenAI-Dienst, die es Entwicklern ermöglicht, hochmoderne KI-Anwendungen durch direkten Zugriff auf OpenAI-Modelle zu erstellen, die von Azures vertrauenswürdigen unterstützt werden, enterprise-Grade-Funktionen und KI-optimierte Infrastruktur und Tools.
Exklusiver Cloud-Anbieter
Als exklusiver Cloud-Anbieter von OpenAI wird Azure alle OpenAI-Workloads für Forschung, Produkte und API-Dienste unterstützen.
OpenAI-Produkte im Laufe der Jahre
Die Organisation wurde gemeinnützig strukturiert, um sich auf ihr Hauptziel zu konzentrieren – die Erforschung der KI-Technologie.
Der Hauptzweck von OpenAI besteht darin, künstliche Intelligenz zu nutzen, die positive, langfristige Auswirkungen hat.
Die Weiterentwicklung einer leistungsstarken Technologie wie KI birgt immer Risiken.
Das Erforschen solch komplexer Technologie neigt dazu, missbraucht zu werden.
Mit so großer Kraft machen sie es zu ihrem Mission um eine positive und erfolgreiche Zukunft zu garantieren.
Insgesamt entwickelt die Organisation Technologien, um Menschen zu befähigen, KI zum Wohle der Welt einzusetzen.
Der Fokus der OpenAI-Forschung geht über die künstliche Intelligenz selbst hinaus.
Sie tauchten in das Paradigma des maschinellen Lernens ein, das als Verstärkungslernen bezeichnet wird.
Dabei geht es um das Training von Lernmodellen, die zur Grundlage künftigen Handelns werden. In diesem Sinne sind hier die Produkte und Anwendungen, die OpenAI im Laufe der Jahre entwickelt hat.
Fitnessstudio
Eine der ersten Software, die die gemeinnützige Organisation entwickelt hat, heißt Gym.
Es ist eine Open-Source-Bibliothek, in der Forscher Reinforcement-Learning-Algorithmen entdecken können.
Diese Software bietet Entwicklern eine Fülle von Möglichkeiten, verschiedene KI-Umgebungen zu erkunden.
Das Toolkit umfasst auch KI-Forschungspublikationen zur einfacheren Entdeckung ihrer neuesten Entwicklungen.
Ende 2017 haben Entwickler es versäumt, die Dokumentationsseite zu pflegen und Informationen zu ihrer jüngsten Arbeit auf die GitHub-Seite von Open AI zu übertragen.
DiebstahlSumo
RoboSumo beinhaltet humanoide „meta-lernende“ Roboter, die gegeneinander antreten.
Das Hauptziel besteht darin, simulierte KI-Technologien physische Fähigkeiten erlernen zu lassen, darunter Ducken, Schieben und Bewegen.
In der Arena schafft das Wettbewerbsumfeld eine Intelligenz, die es der KI ermöglicht, Widrigkeiten zu überwinden und sich an sich ändernde Bedingungen anzupassen.
Das Ergebnis dieser Forschung kam zu dem Schluss, dass Agenten mit starken Winden einer völlig neuen Umgebung ausgesetzt sind.
Durch kontradiktorisches Lernen wandte es seine neu entdeckte Intelligenz auf allgemeine Weise an.
Debattenspiel
The Debate Game ist eine weitere Anwendung, die 2018 von Open AI entwickelt wurde.
Maschinen debattieren verschiedene Spielzeugprobleme in Gegenwart eines menschlichen Richters.
In der Hoffnung, erklärbare KI zu entwickeln, untersucht diese Forschung den Einfluss von KI auf wichtige Entscheidungen.
Daktylus
Open AI hat Dactyl entwickelt, um Objekte mit Hilfe einer Shadow Dexterous Hand zu manipulieren.
Begleitet von Code für Reinforcement-Learning-Algorithmen, der in Open AI Five verwendet wird, untersucht Dactyl die Rolle von KI in der Robotik.
Generative Modelle der offenen KI
Eines der wichtigsten Themen, die Open AI untersucht hat, sind generative Modelle.
Um die Fähigkeiten der künstlichen Intelligenz zu bestimmen, nutzten die Forscher diese Modelle.
Dabei werden die Modelle durch die großen Datenmengen trainiert, die aus einer Domäne generiert werden.
Beispielsweise lesen generative Modelle ein Buch, um ihr Lernen zu verstärken und Daten zu erstellen, die diesem ähneln.
Damit dies erfolgreicher ist, integrieren die neuronalen Netze in mehrere Parameter, die deutlich kleiner sind als ihre Trainingsnetze.
Auf diese Weise müssen die Modelle den Umfang der Daten selbstständig erkunden und eine Kopie erstellen.
GPT
Die allererste Veröffentlichung über die Sprache Modell des generativen Vortrainings (GPT), das im Juni 2018 vorgestellt wurde.
Die Forscher entwickelten detaillierte Daten darüber, wie die generative Modell der Sprache erwirbt Wissen von der Open AI-Website.
GPT-2
Als Nachfolger von GPT verwendet GPT-2 generative Modelle, um die folgenden Wörter innerhalb eines 40-Gigabyte-Internettextes vorherzusagen.
Diese Transformer-basierte Sprache Modell kann 1.5 Milliarden Parameter auf einem Datensatz von 8 Millionen Seiten erreichen.
Reinforcement Learning wird genutzt, um Modelle mit einem einfachen Ziel zu trainieren, das das nächste Wort vorhersagt. ich
Es wird mit Textfolgen versehen, die über ein bestimmtes Thema sprechen.
Obwohl die Modelle verschiedenen Domänen ausgesetzt sind, ist es faszinierend, dass sie Text innerhalb des Beispieltextkontexts vorhersagen können.
GPT-2 kann Aufgaben ausführen, die das Beantworten von Fragen, das Leseverständnis, die Zusammenfassung und die Übersetzung umfassen.
Die Modelle beginnen mit der genauen Vorhersage von Text, nachdem sie aus einigen Sprachaufgaben gelernt haben, die Rohtext darstellen.
Dadurch können Aufgaben unbeaufsichtigt erledigt werden.
Aufgrund der Bedenken hinsichtlich des möglichen Missbrauchs einer solchen fortschrittlichen Technologie hat Open AI das Training nicht veröffentlicht Modell für GPT-2.
Interessierte können jedoch noch an einer kleineren experimentieren Modell seine Fähigkeiten auszuprobieren.
GPT-3
GPT-3 wurde ursprünglich im Mai 2020 von Open AI eingeführt.
Der Zugriff auf die private Beta-Version dieser Technologie steht nur wenigen Personen zur Verfügung, die vor der Veröffentlichung Anfragen gesendet haben.
Open AI ermutigt diejenigen mit Zugang, die Fähigkeiten von GPT-3 zu erkunden. GPT-3 sollte integriert werden Geschäft Betrieb als Gewerbe PRODUKTE kurz.
Das ultimative Ziel ist die Einrichtung Abonnement-basierte Zahlungsoptionen für diejenigen, die die Vorteile nutzen möchten Modell über die Wolke.
GPT-3 wurde jedoch erworben, um im September 2020 exklusiv an Microsoft lizenziert zu werden.
Als Vorgänger von GPT-2 verbessert es die Vorhersagefähigkeiten, wenn es Textströmen mit einer Reihe unterschiedlicher Stile ausgesetzt ist.
GPT-175 erhöht seine Parameter auf 3 Milliarden und entwickelt sich zur führenden Sprache Modell das überwindet bestimmte Einschränkungen, die von GPT-2 nicht überwunden werden können.
ChatGPT und die Explosion kommerzieller KI-Anwendungsfälle
Mit dem Aufkommen generativer Modelle und der exponentiellen Verbesserung von GPT-3 wurde eine Reihe von Unternehmen auf diesen Akteuren aufgebaut.
Die neueste Version von OpenAI einer Konversationsschnittstelle namens ChatGPT hat jeden in der Branche verblüfft.
Als ich es getestet habe, war ich von seinen praktischen Fähigkeiten überwältigt.
Wir dachten, die KI würde anfangen, rückwärts zu arbeiten, indem sie körperliche Arbeit oder weniger spezialisierte Arbeiter unterbricht und sich stromaufwärts zu Wissensarbeitern bewegt.
Stattdessen geschah das Gegenteil!
KI funktioniert derzeit unglaublich gut für kreative Unternehmungen und zeigt damit, dass es sehr schwer ist, die Entwicklung der Technologie vorherzusagen.
Das bedeutet, dass die gesamte wissensbasierte Wirtschaft die erste sein könnte, die durch KI komplett neu definiert wird.
Aber was ist ChatGPT?
Ich habe ihn gebeten, sich selbst zu definieren, und das hat er gesagt!

Ich habe ChatGPT gefragt, ob es Google töten würde.
Im Moment haben wir zusätzlich zu OpenAI und anderen generativen Modellen bereits den Aufstieg von Multimilliarden-Unternehmen erlebt!
Allein im Jahr 2022:
– Stabilitäts-KI kündigte eine Finanzierung von 101 Millionen US-Dollar für künstliche Open-Source-Intelligenz an.
– Jasper AI, Ein Startup, das eine Plattform für „KI-Inhalte“ entwickelt, hat 125 Millionen US-Dollar bei einer Bewertung von 1.5 Milliarden US-Dollar aufgebracht.
– OpenAI, Mit einem Wert von fast 20 Milliarden US-Dollar befindet sich Microsoft in fortgeschrittenen Gesprächen über weitere Finanzierung.
Jedes Startup wird in den nächsten fünf Jahren zu einem KI-Unternehmen.
Dadurch werden noch schlankere Startups entstehen, die mit kleinen Teams Billionen-Dollar-Imperien aufbauen können!
OpenAI-Geschäftsmodell
Im Moment ist OpenAI um zwei Einheiten herum organisiert, eine ist gemeinnützig und die andere eine „gedeckelte und profitieren Sie davon," Organisation.
Dieser Übergang begann im Jahr 2019.
Das KI-Forschungslabor
In einer Post Bereits im Juni 2016, als OpenAI seine Forschung zu generativen Modellen intensivierte, erklärten sie auch das Ziel dessen, was zu dieser Zeit in erster Linie ein Forschungslabor war.
Wie sie damals erklärten:
OpenAIs Mission ist es, sichere KI zu bauen und sicherzustellen, dass die Vorteile von KI so weit und gleichmäßig wie möglich verteilt werden. Wir versuchen, KI als Teil einer größeren Community aufzubauen, und wir möchten unsere Pläne und Fähigkeiten auf diesem Weg teilen. Wir arbeiten auch daran, die Governance-Struktur unserer Organisation zu festigen, und werden unsere Gedanken dazu später in diesem Jahr teilen.
Bereits 2016, als OpenAI begann, seine Forschung zu generativen Modellen zu intensivieren, die eine erhebliche Rechenleistung erforderten, ging es eine Partnerschaft mit Microsoft ein.
Als OpenAI erklärt, begannen sie damals damit, die meisten ihrer großangelegten Experimente auf Azure auszuführen, wodurch Azure zu seiner primären Cloud wurde Plattform für Deep Learning und KI.
Wie auch Microsoft angekündigt Bereits 2016 war das Hauptziel der Partnerschaft, „Künstliche Intelligenz (KI) zu demokratisieren, sie aus den Elfenbeintürmen zu holen und für alle zugänglich zu machen“.
Microsoft würde dies durch einen viergleisigen Ansatz tun, den das Unternehmen wie folgt beschrieb:
- Nutzen Sie künstliche Intelligenz, um die Art und Weise, wie wir mit dem Ambient Computing, den Agenten, in unserem Leben interagieren, grundlegend zu verändern.
- Füllen Sie jede Anwendung, mit der wir interagieren, auf jedem Gerät und zu jedem Zeitpunkt mit Intelligenz aus.
- Machen Sie dieselben intelligenten Fähigkeiten, die in unsere eigenen Apps einfließen – die kognitiven Fähigkeiten – für jeden Anwendungsentwickler auf der ganzen Welt verfügbar.
- Bauen Sie den leistungsstärksten KI-Supercomputer der Welt und machen Sie ihn über die Cloud für jedermann verfügbar, damit alle seine Leistung nutzen und große und kleine KI-Herausforderungen meistern können.

Das war der Beginn einer Partnerschaft, die zu einem der wichtigsten Deals unserer Zeit führen sollte, der milliardenschweren kommerziellen Partnerschaft zwischen Microsoft und OpenAI!
Der Wendepunkt, GPT-2
Im Februar 2019, als OpenAI seit einigen Jahren an der Skalierung generativer Modelle arbeitete, wurde klar, dass der Weg nach vorne vielversprechend war.
Und das wurde mit der Veröffentlichung von GPT-2 deutlich.
Als OpenAI erklärt damals:
Wir haben eine großangelegte unbeaufsichtigte Sprache trainiert Modell das kohärente Textabsätze generiert, bei vielen Sprachmodellierungs-Benchmarks eine Spitzenleistung erzielt und rudimentäres Leseverständnis, maschinelle Übersetzung, Fragenbeantwortung und Zusammenfassung durchführt – alles ohne aufgabenspezifisches Training.
GPT-2 war der Nachfolger von GPT, veröffentlicht im Juni 2018.
GPT oder Generative Pre-Training Transformer kombiniert zwei bestehende Ideen: Transformer funktioniert unbeaufsichtigtes Vortraining.
Wie OpenAI bereits im Jahr 2018 erklärte,
- Zuerst trainieren sie einen Transformator Modell auf eine sehr große Datenmenge auf unbeaufsichtigte Weise – mit Sprachmodellierung als Trainingssignal.
- Dann stimmen sie das ab Modell auf viel kleinere überwachte Datensätze, um bestimmte Aufgaben zu lösen.
Der Wendepunkt dieses Ansatzes war die Beseitigung der wichtigsten Nachteile des überwachten Lernens.
In der Tat, wie OpenAI bereits 2018 erklärte:
Überwachtes Lernen ist der Kern der meisten jüngsten Erfolge des maschinellen Lernens. Es kann jedoch große, sorgfältig bereinigte und teure Datensätze erfordern, um gut zu funktionieren. Unüberwachtes Lernen ist attraktiv, weil es diese Nachteile beseitigen kann. Da das unüberwachte Lernen den Engpass der expliziten Kennzeichnung durch den Menschen beseitigt, lässt es sich auch gut mit den aktuellen Trends der zunehmenden Rechenleistung und Verfügbarkeit von Rohdaten skalieren. Unüberwachtes Lernen ist ein sehr aktives Forschungsgebiet, aber die praktischen Anwendungen sind oft noch begrenzt.
Dieser Schritt ist entscheidend, um die Schnittstelle zwischen Cloud und KI zu verstehen.
Während unüberwachtes Lernen diesen großen generativen Modellen zwar einen Sprung nach vorne verschaffte, erwies es sich in Bezug auf die Rechenleistung auch als extrem teuer, diese Art von Training durchzuführen (das nur einmal durchgeführt werden muss).
Tatsächlich hat OpenAI im Jahr 2018 die enormen Computeranforderungen von generativen Modellen wie GPT hervorgehoben, die sich weiterentwickeln.
Rechenanforderungen: Viele frühere Ansätze für NLP-Aufgaben trainieren relativ kleine Modelle auf einer einzelnen GPU von Grund auf neu. Unser Ansatz erfordert einen teuren Vorschulungsschritt – 1 Monat auf 8 GPUs. Glücklicherweise muss dies nur einmal gemacht werden und wir veröffentlichen unsere Modell damit andere es vermeiden können. Es ist auch ein großes Modell (im Vergleich zu früheren Arbeiten) und verbraucht folglich mehr Rechenleistung und Speicher – wir haben eine Transformer-Architektur mit 37 Schichten (12 Blöcke) verwendet und trainieren mit Sequenzen von bis zu 512 Token. Die meisten Experimente wurden auf 4- und 8-GPU-Systemen durchgeführt. Die Modell stellt sich sehr schnell auf neue Aufgaben ein, was dazu beiträgt, den zusätzlichen Ressourcenbedarf zu verringern.
Doch mit einer bestehenden Partnerschaft mit Microsoft Azure wurde das Vortrainieren dieser Modelle unter Verwendung einer enormen Menge an Rechenleistung machbar.
Und das führte auch zur Veröffentlichung von GPT-2.
Diese Modell wurde trainiert, einfach das nächste Wort in 40 GB Internettext vorherzusagen.
GPT-2 wurde mit 1.5 Milliarden Parametern und einem Datensatz von 8 Millionen Webseiten trainiert.
GPT-2 war ein direktes Scale-up von GPT, mit mehr als dem 10-fachen der Parameter und trainiert mit mehr als dem 10-fachen der Datenmenge.
Das ist es, Waage!
GPT-2 wurde jedoch nur in a veröffentlicht kleine Ausführung, da OpenAI befürchtete, dass damit Inhalte im Web manipuliert werden könnten.
Daher entschied sich OpenAI für eine stufenweise Veröffentlichung von GPT-2, die die schrittweise Veröffentlichung einer Modellfamilie im Laufe der Zeit beinhaltet.
Der Zweck dieser schrittweisen Freigabe von GPT-2 wäre es, den Menschen Zeit zu geben, die Eigenschaften dieser Modelle zu bewerten, ihre gesellschaftlichen Auswirkungen zu diskutieren und die Auswirkungen der Freigabe nach jeder Phase zu bewerten.
Schließlich würde OpenAI im selben Jahr eine größere Version von GPT-2 veröffentlichen, wobei einige Schlüsselparameter berücksichtigt wurden:
- Die Benutzerfreundlichkeit (durch verschiedene Benutzer) ist unterschiedlich Modell Größen zum Generieren von kohärentem Text.
- Die Rolle des Menschen im Textgenerierungsprozess.
- Die Wahrscheinlichkeit und der Zeitpunkt der zukünftigen Replikation und Veröffentlichung durch andere.
- Nachweis der Verwendung in freier Wildbahn und fachkundige Schlussfolgerungen über nicht beobachtbare Verwendungen.
Vom Forschungslabor zu einer gewinnorientierten, begrenzten Organisation
Als die OpenAI-Forschung schnell voranschritt, hätte das Team möglicherweise erkannt, dass sie durch eine weitere Skalierung dieser Modelle (durch mehr Parameter und mehr Daten) eine viel leistungsfähigere Version von GPT erstellen könnten.
Das war auch die Zeit, in der sich OpenAI von einem Forschungslabor zu einer hybriden, zweiköpfigen Einheit wandelte.
In der Tat, einige Monate vor der Ankündigung einer Partnerschaft mit Microsoft im Wert von einer Milliarde Dollar (die möglicherweise die Entwicklung von GPT-3 beschleunigt hat), OpenAI kündigte die Erstellung einer LP an.
Wie OpenAI im März 2019 erklärte, als die Erstellung der LP zustande kam, „Wir haben OpenAI LP gegründet, ein neues Unternehmen mit „gedeckeltem Gewinn“, das es uns ermöglicht, unsere Investitionen in Rechenleistung und Talent schnell zu erhöhen und gleichzeitig Checks and Balances einzubeziehen, um unsere Mission zu verwirklichen.“
Wie OpenAI hervorhob, war die Erstellung der LP ein Weg, nachdem sie verstanden hatten, dass der größte Teil des Fortschritts ab GPT-2 in der Zukunft auf die Skalierung abzielte (mehr Rechenleistung erforderlich, um mehr Parameter einzugeben und mehr Daten zu verarbeiten). mehr Kapital einbringen, um diese Modelle zu skalieren.
Dennoch fungierte die LP als eine begrenzte Organisation. Das bedeutet, dass ab einem bestimmten Schwellenwert alle zusätzlichen Einnahmen, die durch die generativen Modelle von OpenAI generiert werden, an die gemeinnützige Organisation zurückfließen würden.
Darüber hinaus die OpenAI LP's insgesamt Mission würde mit der gemeinnützigen Organisation ausgerichtet sein und so die Schaffung und Einführung sicherer und vorteilhafter AGI sicherstellen – bevor Renditen für Investoren generiert werden.

Um die OpenAI LP auf ihrem Weg zu halten Mission, das gewinnorientierte, gedeckelte Unternehmen, wird vom Vorstand der OpenAI Nonprofit kontrolliert.
Der Nonprofit-Vorstand besteht aus Mitarbeitern der LP wie Greg Brockman (Vorsitzender und Präsident), Ilya Sutskever (Chief Scientist) und Sam Altman (CEO).
Und die Nicht-Mitarbeiter Adam D'Angelo (Mitbegründer und CEO von Quora), Reid Hoffman (Mitbegründer von LinkedIn, jetzt im Besitz von Microsoft), Will Hurd, Tasha McCauley, Helen Toner und Shivon Zilis.
Zu den Investoren der LP gehörten Microsoft, die gemeinnützige Stiftung von Reid Hoffman und Khosla Ventures.

Da OpenAI die Struktur in zwei Einheiten aufteilte (OpenAI LP, geführt von der gemeinnützigen OpenAI), wurden auch die Regeln zur Vermeidung von Interessenkonflikten festgelegt.
Tatsächlich darf nur eine Minderheit der Vorstandsmitglieder gleichzeitig finanzielle Beteiligungen an der Partnerschaft halten.
Darüber hinaus können nur Vorstandsmitglieder ohne solche Beteiligungen über Entscheidungen abstimmen, bei denen die Interessen von Kommanditisten und OpenAI Nonprofits liegen Mission können widersprüchlich sein – einschließlich aller Entscheidungen über Auszahlungen an Investoren und Mitarbeiter.
OpenAI LP zählte im Jahr 2019, als es gegründet wurde, bereits rund 100 Personen, die in drei Hauptbereiche organisiert waren:
- Fähigkeiten (Fortschritt dessen, was KI-Systeme leisten können).
- Sicherheit (Gewährleistung, dass diese Systeme an menschlichen Werten ausgerichtet sind).
- Und Politik (Gewährleistung einer angemessenen Governance für solche Systeme).
Das ist OpenAI organisatorische Struktur sieht immer noch so aus wie heute.
Die Partnerschaft mit Microsoft im Wert von einer Milliarde Dollar
Als OpenAI seine LP gründete, gelang es ihm auch, die Partnerschaft mit Microsoft auszubauen, Ankündigung eine Milliarde Dollar in diese Partnerschaft im Juli 2019 investiert.
Wie OpenAI erklärte, würde die Partnerschaft genutzt „um eine Hard- und Software zu entwickeln Plattform innerhalb von Microsoft Azure, das auf AGI skalieren wird.“
OpenAI würde zusammen mit Microsoft gemeinsam die neuen Azure-KI-Supercomputing-Technologien entwickeln.
Damit öffnet sich Microsoft als exklusiver OpenAI-Cloud-Anbieter.
Dies würde sich für Microsoft Azure als entscheidende und erfolgreiche Wette erweisen, da es (dank OpenAI) seine Fähigkeiten in großen KI-Systemen entwickelt hat.
Als Microsoft erklärt, im Jahr 2019:
- Microsoft und OpenAI werden gemeinsam neue Azure-KI-Supercomputing-Technologien entwickeln.
- OpenAI wird seine Dienste für die Ausführung auf Microsoft Azure portieren, mit dem es neue KI-Technologien entwickeln und das Versprechen der künstlichen allgemeinen Intelligenz einlösen wird.
- Microsoft wird der bevorzugte Partner von OpenAI für die Kommerzialisierung neuer KI-Technologien.
Mit der finanziellen Unterstützung von Microsoft und der Fähigkeit, diese KI-Modelle in eine leistungsstarke KI-Cloud-Infrastruktur wie Azure zu schieben, war es dem OpenAI-Team endlich möglich, seine Modelle weiter zu skalieren, was zur Veröffentlichung von GPT-3 führte!
GPT-3
Bis Juni 2020 würde GPT-3 zusammen mit den APIs veröffentlicht, was die Ausstellung einer ganzen Branche ermöglichen würde.
Und ein paar Monate später, im September 2020, kündigte OpenAI die kommerzielle Lizenzierung von GPT-3 an Microsoft an. Das wäre aus mehreren Gründen ein Wendepunkt.
Erstens ermöglichten die offenen APIs jedem, eine zu erstellen Geschäft auf der Grundschicht.
Zweitens zeigte es, dass diese generativen Modelle mit weiterer Skalierung viel leistungsfähiger werden könnten.
Drittens wurde die Partnerschaft mit Microsoft weiter besiegelt, die mit der Azure AI Cloud-Infrastruktur zur de facto Computing Plattform für OpenAI.
ChatGPT, der iPhone-Moment. Ein Segen und ein Fluch!
Bis November 2022 veröffentlichte OpenAI ChatGPT, eine Konversationsschnittstelle, die auf der neuesten Version von GPT basiert und auf menschliche Interaktionen abgestimmt ist.
Das hat das Internet kaputt gemacht!
Das hat mir jedoch gezeigt, dass die ChatGPT-Skalierbarkeit nicht nur ein technologisches Problem ist, sondern in erster Linie ein Geschäftsmodellierung Problem.
Damit OpenAI seine Dynamik beibehalten und aufrechterhalten kann, musste es tatsächlich eine Implosion aufgrund dieses Hyperwachstums vermeiden.
Das brachte OpenAI in Bedrängnis. Stellen Sie einerseits sicher, dass es den kostenlosen Datenverkehr von ChatGPT aufrechterhalten kann.
Andererseits sollte sichergestellt werden, dass sich das Forschungsteam weiterhin auf die Weiterentwicklung von GPT-4 konzentrieren konnte.
Und ein dritter und ebenfalls wichtiger Teil ist, dass OpenAI in der Lage wäre, die Open APIs-Infrastruktur auf der Grundlage von a aufrechtzuerhalten Geschäft Ökosystem, das seit 2020 geschaffen wurde.
Diese Dinge zusammen gestalten den OpenAI-Microsoft-Deal.
Ok, jetzt macht es Sinn, zurückzugehen und den Deal noch einmal zu überprüfen im Licht von die Zeitleiste oben!
ChatGPT Premium und auf der Suche nach einem Geschäftsmodell!
Falls Sie es nicht verfolgt haben, scheint Microsoft tatsächlich zu planen, 10 Milliarden US-Dollar in die Partnerschaft mit OpenAI zu stecken, im Austausch für eine beträchtliche Beteiligung an For und profitieren Sie davon, Organisation.
In der Tat OpenAI Geschäft Modell, wie wir gesehen haben, ist eine Kombination aus for und profitieren Sie davon,, und gemeinnützig. Also, was ist los, gerade jetzt?
Auf der anderen Seite untersucht OpenAI eine Premium-Version von ChatGPT, wie sie von Greg Brockman (Chairman & President) geteilt wird.
Auf der anderen Seite sucht OpenAI nach einer weiteren Kapitalzufuhr von Microsoft.
Man darf gespannt sein, ob sich durch den Deal etwas an der Unternehmensstruktur von OpenAI ändert.
Wie funktioniert das Geschäftsmodell von OpenAI?

Lesen: OpenAI-Geschäftsmodell.
Wie funktioniert die Partnerschaft zwischen OpenAI und Microsoft?

Wie funktioniert die Unternehmens- und Organisationsstruktur von OpenAI?

Lesen Sie weiter: Geschichte von OpenAI, KI-Geschäftsmodelle, AI Wirtschaft.
Vernetzte Geschäftsmodellanalysen
KI-Paradigma







Stabilitäts-KI-Geschäftsmodell

Stabilität des KI-Ökosystems

Lesen: Microsoft/OpenAI-Partnerschaft.
Lesen Sie weiter: KI-Chips, KI-Geschäftsmodelle, Unternehmens-KI, Wie viel ist die KI-Industrie wert?, KI-Ökonomie.
Wichtigste kostenlose Anleitungen: