En 2017, Kevin Kelly expliquait :
Je prédis que la formule pour les 10,000 XNUMX prochaines startups est que vous prenez quelque chose et que vous y ajoutez de l'IA. On va répéter ça un million de fois, et ça va être vraiment énorme.
Quelques années en arrière, nous y sommes.
Vous pouvez voir comment, jusqu'à présent, chaque industrie a été touchée par l'IA.
Et la partie intéressante ? Nous n'en sommes encore qu'au début de ce processus, qui est celui où la prochaine industrie de plusieurs billions de dollars est en train d'être créée.
Le tournant pour moi, professionnellement, a été 2019, avec GPT-2, depuis que j'ai vu une explosion d'entreprises basées sur le cloud (IaaS, PaaS et SaaS) fournissant divers types de services basés sur l'IA.
De l'entreprise analyse à la génération de contenu, à l'optimisation et à de nombreux autres services, l'IA semble marcher de pair avec l'infrastructure basée sur le cloud.
En bref, les modèles d'IA, nécessitant une puissance de calcul massive, ont encore stimulé toute une industrie, de l'IaaS, du PaaS et du SaaS.
Mais il y a bien plus que cela.
L'IA a stimulé un tout nouvel écosystème de développeurs, composé à la fois d'outils open source et propriétaires, qui sont pour la plupart gratuits, qui sont utilisés par les acteurs IaaS pour rendre leurs services basés sur le cloud plus attrayants.
Nous verrons comment tout cela fonctionne.
Mais si nous devions donner une structure aux modèles commerciaux de l'IA, comment cela fonctionnerait-il ?
Permettez-moi d'abord de clarifier quelques points.
Aujourd'hui, l'IA est principalement basée sur l'apprentissage en profondeur
L'apprentissage en profondeur est un sous-ensemble de l'apprentissage automatique, qui est un sous-ensemble de l'IA.
Bref, si vous entendez quelqu'un parler d'IA, c'est tellement générique que ça ne veut vraiment rien dire du tout.
Cependant, pour un public plus large, expliquer les choses, en termes d'IA, aide plus de gens à comprendre de quoi nous parlons.
En fait, si vous le souhaitez, l'IA consiste simplement à rendre quelque chose de plus intelligent.
L'apprentissage automatique, au contraire, vise à créer des modèles/algorithmes qui peuvent apprendre et s'améliorer au fil du temps.
Et l'apprentissage en profondeur est un autre sous-ensemble de l'apprentissage automatique, qui vise à imiter la façon dont les humains apprennent (bien sûr, comme nous le verrons, la façon dont la machine arrive aux résultats est complètement différente de la façon dont l'humain le fait).
Ces modèles d'apprentissage en profondeur sont devenus assez incroyables pour effectuer avec succès des tâches très complexes. Notamment dans deux domaines : le traitement automatique du langage naturel et l'informatique vision.
Architecture basée sur transformateur, tout est question d'attention
Le véritable tournant, pour l'industrie de l'IA, s'est produit en 2017. Depuis le début des années 2000, le monde de l'IA vivait une renaissance, grâce au deep learning.
En fait, au début des années 2000, le terme apprentissage en profondeur a commencé à être de plus en plus associé aux réseaux de neurones profonds.
L'une des percées est survenue lorsque, et son équipe, ont montré qu'il était possible de former une seule couche de neurones à l'aide d'un auto-encodeur.
L'ancien paradigme
Comme Geoffrey Hinton l'a expliqué dans son TED, en 2018, la différence entre l'ancien et le nouveau paradigme :
Si vous voulez qu'un ordinateur fasse quelque chose à l'ancienne, c'est d'écrire un programme. C'est-à-dire que vous déterminez comment vous le faites vous-même, et sa pression dans les détails, vous dites à l'ordinateur exactement quoi faire et les ordinateurs vous aiment, mais plus rapidement.
En bref, dans cet ancien paradigme, c'est l'humain qui détermine le problème et écrit un programme logiciel qui indique à l'ordinateur exactement comment exécuter ce problème.
Étant donné que l'ordinateur est extrêmement rapide, il le fera extrêmement bien.
Pourtant, ce vieux paradigme, vous dit aussi que la machine n'a aucune flexibilité. Il ne peut accomplir que la tâche restreinte qui lui a été confiée.
Et pour que la machine exécute la tâche plus efficacement, cela nécessitait une amélioration continue de la part de l'humain, qui devait mettre à jour le logiciel, en ajoutant des lignes de codes, pour rendre la machine plus efficace pour la tâche.
Le nouveau paradigme
Dans le nouveau paradigme, comme l'explique Geoffrey Hinton :
La nouvelle façon est de dire à l'ordinateur de faire semblant d'être dans votre réseau avec un algorithme d'apprentissage qui programme, mais après cela, si vous voulez résoudre un problème particulier, vous montrez simplement des exemples.
C'est l'essence de l'apprentissage en profondeur.
Un exemple, explique Geoffrey Hinton, est celui de faire reconnaître une image par la machine :
Supposons donc que vous vouliez résoudre le problème de je vous donne tous les pixels de l'image. C'est trois nombres par pixel pour la couleur, il y en a comme disons un million et vous devez transformer ces trois millions de nombres en une chaîne de mots. Cela dit ce qu'il y a dans l'image qui est un programme difficile à écrire. Les gens ont essayé pendant 50 ans et ne se sont même pas approchés, mais maintenant un réseau neuronal peut le faire.
Pourquoi est-ce si important?
Eh bien, parce que cela n'a plus d'importance que l'humain soit capable d'écrire un programme pour reconnaître l'image.
Parce que la machine, en s'appuyant sur un réseau de neurones, peut résoudre le problème.
Comment se fait-il qu'ils n'aient pas pu résoudre ce problème pendant 50 ans et qu'ils l'aient ensuite fait ?
Le changement radical était dans l'utilisation de neurones artificiels, capables de peser dans les entrées reçues, et de produire en sortie une fonction non linéaire (capable de traduire des entrées linéaires, en sorties non linéaires) qui s'est avérée assez efficace pour tâches plus complexes.
Un élément clé de ces réseaux profonds est une fonction non linéaire particulière, appelée fonction d'activation.
Aujourd'hui, les modèles d'apprentissage automatique comme le GPT-3 d'OpenAI, le BERT de Google et le Gato de DeepMind sont tous des réseaux de neurones profonds.
Ceux-ci utilisent une architecture particulaire, dite à base de transformateurs.
En fait, dans un article de 2017, intitulé «L'attention est tout ce dont vous avez besoin" (c'est parce qu'un mécanisme appelé "mécanisme de l'attention" est le déclencheur de neurones au sein du réseau de neurones, qui se répercute dans l'ensemble modèle).
Ils ont présenté cette nouvelle architecture incroyable, pour un apprentissage en profondeur modèle, appelé transformateur, qui a ouvert toute l'industrie de l'IA, en particulier dans le domaine du traitement du langage naturel, de l'informatique vision, la conduite autonome et quelques autres domaines.
Comme nous le verrons, cette architecture a généré des modèles d'apprentissage automatique si puissants que certains sont allés jusqu'à imaginer une soi-disant AGI (intelligence générale artificielle).
Ou la capacité des machines à apprendre de manière flexible de nombreuses tâches, tout en développant potentiellement la sensibilité. Comme nous le verrons, c'est loin d'être le cas. D'une part, ici, nous voulons comprendre quelles sont les implications de ces modèles d'apprentissage automatique pour le monde des affaires.
Nous étudierons le potentiel et modèles d'affaires qui peut se développer grâce à ces modèles de machine learning ? Nous examinerons à la fois l'écosystème du développeur et l'écosystème commercial qui l'entoure.
Jetons un coup d'œil rapide à l'architecture de ces réseaux de neurones profonds, pour comprendre comment ils fonctionnent, à un niveau basique :
Depuis lors, les transformateurs ont été à la base de tous les modèles révolutionnaires tels que Google BERT et OpenAI GPT3.
Et tout commence par "l'attention".
Comme NVIDIA Explique:
Un transformateur modèle est un réseau de neurones qui apprend le contexte et donc la signification en suivant les relations dans des données séquentielles comme les mots de cette phrase.
Par conséquent, comme l'explique NVIDIA, les applications utilisant des données séquentielles de texte, d'image ou de vidéo sont candidates aux modèles de transformateur.
Dans un papier, en 2021, des chercheurs de Stanford ont souligné comment les modèles basés sur des transformateurs sont devenus des modèles fondamentaux.
Comme expliqué dans le même article :
L'histoire de l'IA en est une d'émergence et d'homogénéisation croissantes. Avec l'introduction de l'apprentissage automatique, la façon dont une tâche est exécutée émerge (est déduite automatiquement) à partir d'exemples ; avec l'apprentissage en profondeur, les fonctionnalités de haut niveau utilisées pour la prédiction émergent ; et avec les modèles de base, même des fonctionnalités avancées telles que l'apprentissage en contexte émergent. Dans le même temps, le machine learning homogénéise les algorithmes d'apprentissage (par exemple, la régression logistique), le deep learning homogénéise modèle architectures (par exemple, les réseaux de neurones convolutifs) et les modèles de base homogénéisent modèle lui-même (par exemple, GPT-3).
La montée des modèles fondamentaux
L'idée centrale des modèles fondamentaux et de l'architecture basée sur les transformateurs est venue de l'idée de transférer des « connaissances » (ou la capacité de résoudre une tâche) d'un domaine à un autre.
Comme expliqué dans le même article :
L'idée de l'apprentissage par transfert consiste à prendre les « connaissances » acquises lors d'une tâche (par exemple, la reconnaissance d'objets dans des images) et de les appliquer à une autre tâche (par exemple, la reconnaissance d'activités dans des vidéos).
En bref:
Au sein de l'apprentissage en profondeur, la préformation est l'approche dominante de l'apprentissage par transfert : modèle est formé sur une tâche de substitution (souvent juste comme un moyen d'atteindre une fin) puis adapté à la tâche d'intérêt en aval via un réglage fin
Par conséquent, nous avons trois moments clés pour l'apprentissage automatique modèle:
- Pré-formation : pour adapter le modèle d'une tâche à une autre (par exemple, imaginez que vous avez un modèle qui génère des descriptions de produits qui ont du sens pour un récemment conçus. Maintenant, vous voulez qu'il génère des descriptions de produits qui ont du sens pour un autre récemment conçus. Des choses comme le ton de la voix et le public cible changent. Cela signifie que, pour que le modèle travailler sur un autre récemment conçus, il doit être pré-formé).
- Essais: pour valider le modèle, et comprendre comment il « se comporte » à plus grande échelle (par exemple, c'est une chose d'avoir un modèle qui génère des produits
- Et mise au point: ou faire le modèle de mieux en mieux pour la tâche à accomplir, en travaillant à la fois sur les entrées (données récupérées modèle) et output (analyse des résultats de la modèle).
Ce qui est différent, cette fois, c'est l'échelle de ces modèles.
Et l'échelle est possible (comme souligné dans le modèle's paper) à travers trois ingrédients de base :
- Quincaillerie (transition du CPU au GPU, avec des entreprises comme NVIDIA pariant la ferme sur l'architecture des puces pour l'IA).
- Développement ultérieur du transformateur modèle architecture.
- Et la disponibilité de beaucoup plus de données d'entraînement.
Différent du passé, où les données devaient être étiquetées, utilisées. Les modèles d'apprentissage automatique modernes (comme le BERT de Google) sont capables d'effectuer des tâches de manière auto-supervisée et avec des données non étiquetées.
Les modèles révolutionnaires d'apprentissage en profondeur (BERT, GPT-3, RoBERTa, BART, T5) sont basés sur l'apprentissage auto-supervisé couplé à l'architecture du transformateur.
L'idée de base est qu'un seul modèle pourrait être utile pour un si large éventail de tâches.
L'industrie des transformateurs a explosé, avec de plus en plus d'arrivées sur le marché.
Tout dépend de l'invite !
De l'homogénéisation et de l'échelle de ces modèles, une caractéristique intéressante a émergé.
En mettant à l'échelle les paramètres disponibles pour un modèle (GPT-3 utilisait 175 milliards de paramètres contre 2 milliard pour GPT-1.5), il permettait un apprentissage en contexte.
Alors qu'en même temps, de manière inattendue, il faisait surgir rapide, ou une description en langage naturel de la tâche), qui peut être utilisée pour affiner modèle et faites-le fonctionner sur d'autres tâches en aval (une tâche spécifique que vous souhaitez résoudre).
Les modèles fondamentaux sont extrêmement puissants car jusqu'à présent, ils sont polyvalents. À partir de données, qu'elles soient étiquetées et structurées, ou non étiquetées et non structurées, les données fondamentales modèle peut s'adapter pour générer diverses tâches.
Le même modèle peut effectuer des réponses aux questions, le sentiment analyse, légendes d'images, reconnaissance d'objets et suivi d'instructions.
Pour avoir l'idée, OpenAI, a un aire de jeux pour GPT-3. Un seul modèle peut être utilisé pour une multitude de tâches. Des questions-réponses à la correction grammaticale, en passant par les traductions, les classifications, les analyses de sentiments et bien plus encore.
À cet égard, Demander (ou la capacité de faire en sorte que la machine exécute une tâche très spécifique) à l'avenir sera une compétence essentielle.
En effet, l'incitation sera essentielle pour générer de l'art, des jeux, du code et bien plus encore.
C'est l'invite qui vous amène de l'entrée à la sortie.
Et la qualité de l'invite (la capacité à décrire la tâche que l'apprentissage automatique modèle doit effectuer) détermine la qualité de la sortie.
Un autre exemple de la façon dont l'IA s'habitue à permettre à n'importe qui de coder est le copilote d'IA de GitHub :
Nous devons commencer par les couches fondamentales.
Commençons par analyser le tout, d'abord du point de vue des développeurs, en construisant les modèles et en les déployant au public.
Et puis nous passons à l'autre bout du spectre et examinons l'écosystème commercial qui l'entoure.
Le flux de travail du modèle d'apprentissage automatique
La première question à se poser est la suivante : si un développeur souhaite créer des modèles d'apprentissage automatique à partir de zéro, quel est le bon point de départ en fonction du flux de travail pour créer un modèle de zéro?
Dans ce cas, il existe divers logiciels d'apprentissage automatique que les développeurs d'IA peuvent exploiter.
En ce sens, il est essentiel de comprendre ce qu'est un flux de travail pour créer un machine learning modèle, et les différents composants dont le développeur aura besoin.
En général, les développeurs créent des modèles d'apprentissage automatique pour résoudre des tâches spécifiques.
Prenons le cas d'un développeur qui veut construire un modèle qui peut générer des descriptions de pages de produits pour un grand site Web de commerce électronique.
Le flux de travail ressemblera à ce qui suit :
- Création de données. Dans cette phase, l'humain rassemble les données nécessaires à la modèle pour effectuer des tâches spécifiques (par exemple, dans le cas de la génération de descriptions de produits, vous souhaitez autant de texte et de données sur les produits existants).
- Conservation des données. Ceci est essentiel pour assurer la qualité des données qui entrent dans le modèle. Et aussi c'est généralement principalement centré sur l'humain.
- Entraînement. C'est la partie de la coutume modèle création basée sur les données recueillies et conservées.
- Adaptation. Dans cette phase, en partant de l'existant modèle, nous le pré-entraînons, pour effectuer de nouvelles tâches (pensez au cas de GPT-3, pour produire du contenu de pages produits sur un site spécifique, cela nécessite que le modèle soit pré-entraîné pour le contexte de ce site, afin de générer contenu pertinent).
- Déploiement. La phase au cours de laquelle le modèle est diffusé dans le monde.
J'ajouterais que dans la plupart des cas d'utilisation commerciale, avant le déploiement, vous commencez généralement par un pilote, qui a pour but de répondre à une question très simple.
Par exemple, le modèle peut-il produire des pages de produits qui ont du sens pour l'humain ?
Dans ce contexte, l'échelle est limitée (par exemple, vous commencez par la génération de 100 à 500 pages de produits maximum).
Et si cela fonctionne, alors vous commencez à déployer.
Après cela, d'après ce que j'ai vu, les prochaines étapes sont les suivantes :
- Itération: ou s'assurer que le modèle peut s'améliorer en lui donnant plus de données.
- Réglage fin: ou s'assurer que le modèle peut s'améliorer considérablement en procédant à la conservation des données.
- Échelle: activation du modèle, sur des volumes de plus en plus importants pour cette tâche spécifique.
Sur la base de ce qui précède, reconstruisons l'écosystème des développeurs pour l'IA.
MLOps : écosystème de développeurs
Avant d'aborder les spécificités du workflow des développeurs, commençons par une question très simple.
Comment programmer un modèle d'apprentissage automatique ? Quelle langue utilisez-vous ?
Vous trouverez ci-dessous les langages de programmation les plus populaires, en 2022, selon les statistiques de GitHub :
Ça vous dit quelque chose ? Python, le langage de programmation le plus populaire est également le langage de programmation AI le plus populaire.
Dans la liste des meilleurs langages de programmation, bien sûr, certains ne sont pas destinés à l'IA. Mais les trois premiers, Python, JavaScript et Java sont les plus populaires pour la programmation IA.
Python est de loin le plus populaire.
Compte tenu de sa simplicité, mais aussi grâce au fait qu'il offre aux programmeurs un ensemble de bibliothèques dans lesquelles puiser et qu'il est interopérable.
Création de données
La partie création de données est une tâche intense centrée sur l'humain, ce qui est extrêmement important car la qualité des données sous-jacentes déterminera la qualité de la sortie du modèle.
En gardant à l'esprit que les données sont également ce qui forme le modèle, donc si un biais provient de ce modèle, cela est dû à la façon dont les données ont été sélectionnées.
D'ailleurs, généralement, un modèle peut être formé avec des données réelles ou synthétiques.
Pour les données du monde réel, pensez à la façon dont Tesla exploite les milliards de kilomètres parcourus par les propriétaires de Tesla, à travers le monde, pour améliorer ses algorithmes de conduite autonome grâce à ses réseaux d'apprentissage en profondeur.
Lorsqu'il s'agit de données synthétiques, elles sont plutôt produites via des simulations informatiques ou des algorithmes, dans le monde numérique.
En général, les données du monde réel par rapport aux données synthétiques sont une question de choix. Toutes les entreprises n'ont pas la possibilité d'accéder à un large éventail de données du monde réel.
Par exemple, des entreprises comme Tesla, Apple ou Google avec des appareils matériels performants sur le marché (voitures Tesla, iPhone, smartphones Android) ont la capacité de collecter une quantité massive de données et de les utiliser pour pré-entraîner leurs modèles et améliorer produits basés sur l'IA rapidement.
D'autres entreprises pourraient ne pas avoir ce changement, donc tirer parti des données synthétiques peut être plus rapide, moins cher et, dans certains cas, plus axé sur la confidentialité.
En fait, l'essor de l'industrie de l'IA a déjà stimulé d'autres industries adjacentes, comme l'industrie des fournisseurs de données synthétiques.
Conservation des données
Une fois que vous avez les données, tout est question de curation. La conservation des données est également chronophage, et pourtant essentielle car elle détermine la qualité du modèle personnalisé que vous allez créer.
De plus, en ce qui concerne la conservation des données, il existe toute une industrie pour cela.
Formation
Pour la partie formation, il existe différents logiciels pour cela. La formation de modèles d'apprentissage automatique est la pièce maîtresse de l'ensemble du flux de travail. En effet, la formation permet de personnaliser les modèles.
D'ailleurs, les infrastructures cloud ont considérablement investi pour créer des outils permettant aux programmeurs et développeurs d'IA. Certains de ces outils sont open source, d'autres sont propriétaires.
De manière générale, les outils d'IA sont un composant essentiel pour les deux infrastructures cloud, ce qui peut permettre aux communautés de développeurs, autour de ces outils, et donc de booster leurs offres cloud.
En bref, l'outil d'IA est le "freemium" qui sert à amplifier le récemment conçus du fournisseur de cloud, tout en incitant les développeurs à héberger leurs modèles au-dessus de leurs infrastructures cloud.
Ce n'est pas un hasard si les outils d'IA les plus utilisés proviennent d'entreprises comme Amazon AWS, Google Cloud, IBM et Azure de Microsoft.
Sortir un outil d'IA, qu'il soit open source ou propriétaire, n'est pas seulement un choix philosophique, c'est aussi un modèle d'affaires choix.
En effet, avec une approche open source, l'outil d'IA ne sera monétisé que lorsque le modèle sera hébergé sur la même infrastructure cloud, bref, il fonctionne comme un premium.
Voici à quoi ressemble l'écosystème d'outils lorsque vous essayez de développer des outils d'IA. Des solutions tout-en-un se développent pour pallier la fragmentation des outils dans l'écosystème de l'IA.
Déploiement
Analysons maintenant l'ensemble de l'écosystème de l'entreprise et comment il s'est organisé autour de ces modèles d'apprentissage automatique.
L'écosystème commercial de l'IA
Architecture de puce
Avec l'essor de l'IA, quelques acteurs technologiques ont tout investi dans la fabrication de puces pour l'IA. Un exemple est NVIDIA, qui a créé une toute nouvelle catégorie d'architecture de puces, basée sur le GPU, dont l'architecture est bien adaptée à l'IA, le levage lourd.
D'autres sociétés comme Intel et Qualcomm se concentrent également sur les puces AI.
Chacune de ces entreprises, avec un accent particulier.
Par exemple, les puces AI de NVIDIA se révèlent extrêmement puissantes pour les jeux, les centres de données et les visualisations professionnelles.
Pourtant, les machines autonomes et intelligentes sont également des domaines critiques sur lesquels NVIDIA parie.
Intel s'est aussi massivement intéressé aux puces IA, ce qui fait partie de ses priorités.
Et ci-dessous, vous trouverez comment chacun de ses produits à puce est utilisé dans diverses industries alimentées par l'IA.
Qualcomm fournit également une pile de puces pour divers cas d'utilisation.
En général, les géants de la technologie ont désormais intégré la fabrication des puces en interne.
Un exemple est Apple qui a finalement commencé à produire ses propres puces, à la fois pour ses téléphones et ses ordinateurs.
Google, a emboîté le pas, en concevant ses propres puces pour les nouvelles générations de téléphones Pixel.
Une nouvelle puce, conçue pour la première fois en interne, a été conçue pour être un système premium sur puce (SoC).
Cette architecture de puce, selon Google, lui permet d'alimenter davantage ses appareils avec l'apprentissage automatique. Par exemple avec des traductions en direct d'une langue à l'autre.
Pourquoi les entreprises investissent-elles à nouveau dans les puces ?
Avec l'essor de l'IA et la fabrication de tout ce qui est intelligent, nous vivons à l'intersection de diverses nouvelles industries qui stimulent la révolution de l'IA (5G, IoT, modèles d'apprentissage automatique, bibliothèques et architecture de puce).
En tant que telle, la fabrication de puces est redevenue un atout stratégique essentiel pour les entreprises qui fabriquent du matériel pour les consommateurs.
Les trois couches de l'IA
Qu'est-ce qui constitue un modèle d'affaires IA ?
Bref, on peut analyser la structure d'une IA modèle d'affaires en examinant quatre couches principales :
Faits saillants
- Intégration de l'IA dans les industries :
- La prédiction de Kevin Kelly : l'IA sera ajoutée à diverses industries pour créer des startups, ce qui aura un impact significatif.
- L’IA a touché tous les secteurs et est en train de créer une nouvelle industrie de plusieurs milliards de dollars.
- L’impact transformateur de l’IA en est encore à ses débuts.
- Infrastructure IA et cloud :
- Deep Learning et sous-ensembles de l’IA :
- Aujourd’hui, l’IA est principalement du deep learning, un sous-ensemble du machine learning, qui est lui-même un sous-ensemble de l’IA.
- L'apprentissage profond imite l'apprentissage humain, avec des modèles excellant dans le traitement du langage naturel et l'informatique. vision.
- La percée de 2017 avec l’architecture basée sur les transformateurs a propulsé l’industrie de l’IA.
- Ancien et nouveau paradigme en IA :
- L'ancien paradigme implique l'écriture de programmes explicites que les machines doivent suivre.
- Le nouveau paradigme utilise des algorithmes d’apprentissage pour permettre aux machines d’apprendre à partir d’exemples.
- L’apprentissage profond permet aux machines de reconnaître des modèles complexes, comme le démontre la reconnaissance d’images.
- Architecture basée sur un transformateur :
- L'article « Attention Is All You Need » a introduit l'architecture basée sur les transformateurs en 2017.
- Les transformateurs sont à la base de modèles révolutionnaires comme Google BERT et OpenAI GPT-3.
- Le mécanisme d'attention et les fonctions d'activation non linéaires sont la clé du succès des réseaux profonds.
- Modèles fondamentaux et apprentissage par transfert :
- Les modèles fondamentaux transfèrent les connaissances d’un domaine à un autre.
- L'apprentissage par transfert implique une pré-formation de modèles sur des tâches de substitution et un ajustement précis pour des tâches spécifiques.
- L'architecture du transformateur et les données de formation volumineuses ont permis la mise à l'échelle des modèles fondamentaux.
- Données synthétiques et formation :
- Des données réelles et synthétiques sont utilisées pour former des modèles.
- La création de données synthétiques à l’aide d’outils d’IA devient une industrie permettant de surmonter les limitations des données.
- La formation des modèles d’apprentissage automatique est une étape critique du flux de travail.
- MLOps et écosystème de développeurs :
- MLOps implique les meilleures pratiques pour créer, exécuter et maintenir des modèles d'apprentissage automatique.
- Python est le langage de programmation le plus populaire pour l'IA.
- Les outils d'IA des fournisseurs de cloud aident les développeurs à créer et à déployer des modèles.
- Écosystème commercial de l'IA :
- Les modèles économiques du cloud (IaaS, PaaS, SaaS) reposent sur le cloud computing.
- L'architecture des puces, telles que les GPU, est cruciale pour les besoins informatiques de l'IA.
- Les entreprises investissent dans les puces IA et les puces internes conception.
- Quatre niveaux de modèle économique de l’IA :
- Couche fondamentale : implique les technologies et les moteurs d’IA.
- Couche de valeur : se concentre sur la création de valeur grâce à des solutions basées sur l'IA.
- Couche de distribution : leviers canaux de distribution pour atteindre les clients.
- Couche financière : génère des revenus grâce à divers modèles de monétisation.
Études de cas sur le modèle commercial de l'IA
Modèle économique OpenAI
Lire: Modèle commercial OpenAI
Modèle d'entreprise Stabilité AI
Modèle commercial d'IA de piste
Modèle commercial de visage étreignant
Cohere IA Business Model
Échelle du modèle commercial de l'IA
Modèle commercial de Lightricks
Modèle commercial Jasper AI
Lire: Modèle commercial d'IA de stabilité
Lire la suite:
- Qu'est-ce que l'innovation de modèle d'entreprise
- Qu'est-ce qu'un modèle d'entreprise
- Qu'est-ce que le développement des affaires
- Qu'est-ce que la stratégie d'entreprise
- Qu'est-ce qu'une proposition de valeur
- Qu'est-ce qu'une startup Lean
- Qu'est-ce que la segmentation du marché
- Qu'est-ce qu'une stratégie marketing
- Qu'est-ce que le piratage de croissance