mlops

MLOps : opérations d'apprentissage automatique et pourquoi c'est important dans les affaires

Machine Learning Ops (MLOps) décrit une suite de meilleures pratiques qui aident avec succès une entreprise à gérer l'intelligence artificielle. Il comprend les compétences, les flux de travail et les processus permettant de créer, d'exécuter et de maintenir des modèles d'apprentissage automatique pour aider divers processus opérationnels au sein des organisations.

AspectExplication
Présentation du conceptMLOps (opérations d'apprentissage automatique) est un ensemble de pratiques et de techniques visant à opérationnaliser et automatiser le cycle de vie du machine learning de bout en bout. Il combine des aspects de machine learning, génie logicielet DevOps pour rationaliser le développement, le déploiement, la surveillance et la maintenance des modèles d'apprentissage automatique en production. MLOps garantit que les projets d'apprentissage automatique sont évolutifs, maintenables et fiables.
Les principes clésMLOps est guidé par plusieurs principes clés :
1. Automatisation: Automatisez les tâches répétitives dans le pipeline d'apprentissage automatique, telles que le prétraitement des données, la formation de modèles et le déploiement.
2. Collaboration: Favoriser la collaboration entre les data scientists, les ingénieurs et les équipes opérationnelles pour garantir une intégration fluide des modèles ML dans la production.
3. Reproductibilité: Conserver un enregistrement de toutes les expériences, codes et données pour permettre la reproductibilité du modèle et le contrôle des versions.
4. Intégration et déploiement continus (CI/CD): Implémenter des pipelines CI/CD pour les tests et le déploiement de modèles.
5. Suivi et gouvernance: Surveiller en permanence les performances, la dérive et la conformité des modèles aux réglementations.
6. Évolutivité: Concevoir des systèmes capables de gérer des charges de travail accrues à mesure que l'adoption de l'apprentissage automatique se développe.
Cycle de vie des MLOpsLe cycle de vie MLOps implique généralement les étapes suivantes :
1. Acquisition et préparation des données: Collecter et prétraiter les données pour la formation du modèle.
2. Développement de modèles: Créez et expérimentez des modèles d’apprentissage automatique.
3. Formation modèle: Former des modèles sur les données préparées.
4. Évaluation du modèle: Évaluez les performances du modèle et sélectionnez le meilleur modèle.
5. Déploiement du modèle: Déployez le modèle sélectionné dans un environnement de production.
6. Surveillance et maintenance du modèle: Surveiller en permanence les performances du modèle et recycler si nécessaire.
7. Modèle de gouvernance et de conformité: S'assurer que les modèles sont conformes aux exigences éthiques, juridiques et réglementaires.
AvantagesLa mise en œuvre de MLOps offre plusieurs avantages :
1. Efficacité accrue: Les processus rationalisés réduisent les temps de développement et de déploiement.
2. Fiabilité améliorée du modèle: La surveillance continue et les tests automatisés détectent les problèmes à un stade précoce.
3. Collaboration: Les équipes interfonctionnelles collaborent plus efficacement.
4. Évolutivité: Les systèmes évolutifs s’adaptent aux charges de travail croissantes d’apprentissage automatique.
5. Reproductibilité: Réplication facile des expériences et des modèles.
6. Rentabilité: La réduction des interventions manuelles réduit les coûts opérationnels.
Défis et RisquesLes défis liés à l'adoption du MLOps incluent la complexité de l'intégration de l'apprentissage automatique à l'infrastructure existante, le besoin de compétences spécialisées et le potentiel de confidentialité des données et de problèmes éthiques, en particulier dans les applications d'IA.
Cas d’usageMLOps est principalement appliqué dans les domaines où les modèles d'apprentissage automatique sont essentiels, notamment analyses prédictives, traitement du langage naturel, vision par ordinateuret systèmes de recommandation. Il est utilisé dans des industries telles que finance, la médecine , e-commerceet fabrication.
Outils et technologiesDivers outils et technologies prennent en charge MLOps, notamment Docker et le Kubernetes pour la conteneurisation et l'orchestration, Jenkins, CI/CD GitLabet Travis CI pour les pipelines CI/CD et les plateformes MLOps spécialisées comme MLflow, Kubeflowet TFX (TensorFlow étendu).

Comprendre les opérations d'apprentissage automatique

Machine Learning Ops est un concept relativement nouveau car l'application commerciale de l'intelligence artificielle (IA) est également un processus émergent.

En effet, l'IA a fait irruption sur la scène il y a moins de dix ans après qu'un chercheur l'ait utilisée pour gagner un concours de reconnaissance d'images.

Depuis cette époque, l'intelligence artificielle peut être vue dans:

  • Traduction de sites Web dans différentes langues.
  • Calcul du risque de crédit pour les demandes d'hypothèque ou de prêt.
  • Réacheminement des appels du service client vers le service approprié.
  • Assister le personnel hospitalier dans l'analyse des radiographies.
  • Rationalisation des opérations logistiques et de la chaîne d'approvisionnement des supermarchés.
  • Automatisation de la génération de texte pour le support client, le référencement et la rédaction.

À mesure que l'IA devient de plus en plus omniprésente, l'apprentissage automatique qui l'alimente doit en faire de même. MLOps a été créé en réponse au besoin des entreprises de suivre un cadre d'apprentissage automatique développé. 

Basé sur les pratiques DevOps, MLOps cherche à combler une déconnexion fondamentale entre le code soigneusement conçu et les données imprévisibles du monde réel. Cette déconnexion peut entraîner des problèmes tels qu'un déploiement lent ou incohérent, une faible reproductibilité et une réduction des performances.

Les quatre principes directeurs de Machine Learning Ops

Comme indiqué, MLOps n'est pas une solution technique unique, mais une suite de meilleures pratiques ou de principes directeurs.

Voici un aperçu de chacun sans ordre particulier :

L'apprentissage automatique doit être reproductible

Autrement dit, les données doivent pouvoir auditer, vérifier et reproduire chaque production modèle.

Le contrôle de version pour le code dans le développement de logiciels est standard.

Mais dans l'apprentissage automatique, les données, les paramètres et les métadonnées doivent tous être versionnés.

En stockant modèle artefacts de formation, les modèle peut également être reproduit si nécessaire.

L'apprentissage automatique doit être collaboratif

MLOps préconise que l'apprentissage automatique modèle la production est visible et collaborative.

Tout, de l'extraction de données à modèle le déploiement doit être abordé en transformant les connaissances tacites en code.

L'apprentissage automatique doit être testé et surveillé

L'apprentissage automatique étant une pratique d'ingénierie, les tests et la surveillance ne doivent pas être négligés.

La performance dans le contexte des MLOps intègre l'importance prédictive ainsi que la performance technique.

Des normes d'adhésion au modèle doivent être définies et les comportements attendus rendus visibles.

L'équipe ne doit pas se fier à ses instincts.

L'apprentissage automatique doit être continu

Il est important de réaliser qu'un modèle d'apprentissage automatique est temporaire et que son cycle de vie dépend du cas d'utilisation et de la dynamique des données sous-jacentes.

Alors qu'un système entièrement automatisé peut diminuer avec le temps, l'apprentissage automatique doit être considéré comme un processus continu où le recyclage est rendu aussi facile que possible.

Implémentation de MLOps dans les opérations commerciales

Dans un sens très large, les entreprises peuvent mettre en œuvre des MLOps en suivant quelques étapes :

Étape 1 – Reconnaître les parties prenantes

Les projets MLOps sont souvent de grandes initiatives complexes et multidisciplinaires qui nécessitent la contribution de différentes parties prenantes.

Ceux-ci incluent des parties prenantes évidentes telles que des ingénieurs en apprentissage automatique, des scientifiques des données et des ingénieurs DevOps.

Cependant, ces projets nécessiteront également la collaboration et la coopération des ingénieurs informatiques, de gestion et de données.

Étape 2 – Investir dans l'infrastructure

Il existe une multitude de produits d'infrastructure sur le marché, et tous ne sont pas nés égaux.

Pour décider du produit à adopter, une entreprise doit prendre en compte :

Reproductibilité

Le produit doit faciliter la rétention des connaissances en science des données.

En effet, la facilité de reproductibilité est régie par le contrôle de la version des données et le suivi des expériences.

Efficacité

Le produit permet-il de gagner du temps ou de l'argent ? Par exemple, l'apprentissage automatique peut-il supprimer le travail manuel pour augmenter la capacité du pipeline ?

Intégrabilité

Le produit s'intégrera-t-il bien aux processus ou systèmes existants ?

Étape 3 - Automatisation

Avant de passer à la production, les projets d'apprentissage automatique doivent être divisés en composants plus petits et plus faciles à gérer.

Ces composants doivent être liés mais pouvoir être développés séparément. 

Le processus de séparation d'un problème en plusieurs composants oblige l'équipe produit à suivre un processus conjoint.

Cela encourage la formation d'un langage bien défini entre ingénieurs et data scientists, qui travaillent en collaboration pour créer un produit capable de se mettre à jour automatiquement.

Cette capacité s'apparente à la pratique DevOps de l'intégration continue (CI).

MLOps et AIaaS

aiaas
L'intelligence artificielle en tant que service (AlaaS) aide les organisations à intégrer des fonctionnalités d'intelligence artificielle (IA) sans l'expertise associée. Habituellement, les services AIaaS sont construits sur des fournisseurs basés sur le cloud comme Amazon AWS, Google Cloud, Microsoft Azure et IMB Cloud, utilisés comme IaaS. Le service, le cadre et les workflows d'IA basés sur ces infrastructures sont proposés aux clients finaux pour divers cas d'utilisation (par exemple, inventaire services de gestion, optimisations de fabrication, génération de texte).
Schéma de la plate-forme d'IA
Source : cloud.google.com

MLOps se compose de différentes phases construites sur une plate-forme d'IA, où les modèles devront être préparés (via l'étiquetage des données, les ensembles de données Big Query et Cloud Storage), construits, validés et déployés.

Et MLOps est un vaste monde, composé de nombreuses pièces mobiles.

La source: cloud.google.com

En effet, avant que le code ML puisse être exploité, comme souligné sur Google Cloud, on dépense beaucoup "configuration, automatisation, collecte de données, vérification des données, test et débogage, gestion des ressources, modèle analyse, la gestion des processus et des métadonnées, l'infrastructure de service et la surveillance. »

Le processus de ML

Les modèles ML suivent plusieurs étapes, un exemple est : Extraction de données > Données analyse > Préparation des données > Entraînement du modèle > Évaluation du modèle > Validation du modèle > Service du modèle > Surveillance du modèle.

Exemples d'opérations d'apprentissage automatique

Vous trouverez ci-dessous quelques exemples de la manière dont les opérations d'apprentissage automatique sont appliquées dans des entreprises telles qu'Uber et Booking.com.

Uber

uber-business-model
Uber est une place de marché à deux faces, une plateforme modèle d'affaires qui relie les conducteurs et les passagers, avec une interface qui comporte des éléments de gamification, qui facilite la connexion et la transaction entre les deux parties. Uber gagne de l'argent en percevant des frais sur les réservations brutes de la plateforme.

Uber Michelangelo est le nom donné à l'apprentissage automatique d'Uber plateforme qui normalise le flux de travail entre les équipes et améliore la coordination.

Avant le développement de Michelangelo, Uber rencontrait des difficultés pour mettre en œuvre des modèles d'apprentissage automatique en raison de la grande taille de l'entreprise et de ses opérations.

Alors que les scientifiques des données développaient des modèles prédictifs, les ingénieurs créaient également des systèmes uniques et sur mesure qui utilisaient ces modèles en production.

En fin de compte, l'impact de l'apprentissage automatique chez Uber s'est limité à tout ce que les scientifiques et les ingénieurs pouvaient créer dans un court laps de temps avec des outils principalement open source.

Michelangelo a été conçu pour fournir un système où des pipelines fiables, uniformes et reproductibles pourraient être construits pour la création et la gestion de données de prédiction et de formation à grande échelle.

Aujourd'hui, les MLOps plateforme standardise les flux de travail et les processus via un système de bout en bout où les utilisateurs peuvent facilement créer et exploiter des systèmes ML.

Alors que Michelangelo gère des dizaines de modèles dans toute l'entreprise pour d'innombrables cas d'utilisation, son application à UberEATS mérite une mention rapide.

modèle économique uber-eats
Uber Eats est une place de marché à trois faces reliant un chauffeur, un restaurateur et un client à Uber Eats plateforme au centre. Le marché à trois faces s'articule autour de trois acteurs : les restaurants versent une commission sur les commandes à Uber Eats ; Les clients paient les petits frais de livraison et, parfois, les frais d'annulation ; Les chauffeurs gagnent en effectuant des livraisons fiables à temps.

Ici, l'apprentissage automatique a été intégré aux prévisions de l'heure de livraison des repas, aux classements des restaurants, aux classements de recherche et à la saisie semi-automatique de la recherche. 

Le calcul du délai de livraison des repas est considéré comme particulièrement complexe et implique de nombreuses pièces mobiles, Michel-Ange utilisant des modèles de régression arborescente pour effectuer des estimations de livraison de bout en bout basées sur de multiples mesures actuelles et historiques.

Booking.com

Booking.com est le plus grand site Web d'agence de voyage en ligne au monde avec des utilisateurs capables de rechercher des millions d'options d'hébergement différentes.

Comme Uber, Booking.com avait besoin d'une solution d'apprentissage automatique complexe pouvant être déployée à grande échelle.

Pour comprendre la situation difficile de l'entreprise, considérons un utilisateur à la recherche d'un logement à Paris.

Au moment de la rédaction de cet article, il existe plus de 4,700 XNUMX établissements, mais il serait irréaliste de s'attendre à ce que l'utilisateur les examine tous.

Alors, comment Booking.com sait-il quelles options afficher ? 

À un niveau quelque peu basique, les algorithmes d'apprentissage automatique répertorient les hôtels en fonction d'entrées telles que l'emplacement, la note d'évaluation, le prix et les équipements.

Les algorithmes prennent également en compte les données disponibles sur l'utilisateur, telles que sa propension à réserver certains types d'hébergement et si le voyage est ou non pour affaires ou pour le plaisir.

Un apprentissage automatique plus complexe est utilisé pour éviter les plateforme servir des résultats qui consistent en des hôtels similaires.

Il serait imprudent pour Booking.com de lister 10 hôtels parisiens 3 étoiles au même prix sur la première page des résultats.

Pour contrer cela, l'apprentissage automatique intègre des aspects de l'économie comportementale tels que le compromis exploration-exploitation.

L'algorithme collectera également des données sur l'utilisateur lorsqu'il recherche un logement.

Peut-être passent-ils plus de temps à chercher des hôtels familiaux avec piscine, ou peut-être affichent-ils une préférence pour une chambre d'hôtes près de la Tour Eiffel.

Un aspect important mais parfois négligé du site Booking.com sont les propriétaires et les hôtes d'hébergement.

Ce groupe d'utilisateurs a ses propres intérêts qui entrent parfois en conflit avec les vacanciers et l'entreprise elle-même.

Dans ce dernier cas, l'apprentissage automatique jouera un rôle de plus en plus important dans la relation de Booking.com avec ses fournisseurs et, par extension, sa viabilité à long terme.

Booking.com est aujourd'hui l'aboutissement de 150 applications d'apprentissage automatique centrées sur le client et développées par des dizaines d'équipes de l'entreprise.

Ceux-ci ont été exposés à des centaines de millions d'utilisateurs et validés via des essais randomisés mais contrôlés.

L'entreprise a conclu que le processus itératif, basé sur des hypothèses, qui s'est inspiré d'autres disciplines, était la clé du succès de l'initiative.

Points clés

  • Machine Learning Ops englobe un ensemble de meilleures pratiques qui aident les organisations à intégrer avec succès l'intelligence artificielle.
  • Machine Learning Ops cherche à combler le fossé entre le code soigneusement écrit et les données imprévisibles du monde réel. Ce faisant, MLOps peut améliorer l'efficacité des cycles de publication de l'apprentissage automatique.
  • La mise en œuvre des opérations d'apprentissage automatique peut être complexe et, par conséquent, dépend de la contribution de nombreuses parties prenantes différentes. Investir dans la bonne infrastructure et se concentrer sur l'automatisation sont également cruciaux. 

Faits saillants des opérations d'apprentissage automatique (MLOps) :

  • Définition: Machine Learning Ops (MLOps) englobe les meilleures pratiques pour exécuter efficacement l'intelligence artificielle dans les opérations commerciales, y compris les compétences, les flux de travail et les processus pour créer, gérer et maintenir des modèles d'apprentissage automatique.
  • Émergence: MLOps est relativement nouveau en raison de l'adoption commerciale de l'intelligence artificielle, apparue il y a moins de dix ans avec des applications telles que la reconnaissance d'images.
  • Cas d’usage: L'IA est désormais largement utilisée dans divers domaines, notamment la traduction linguistique, l'évaluation du risque de crédit, le service client, la santé, la logistique, etc.
  • Défis: MLOps a émergé pour relever des défis tels que le déploiement lent, la faible reproductibilité et les performances incohérentes causées par la déconnexion entre le code et les données du monde réel.
  • Principes directeurs:
    1. Reproductibilité: Capacité à auditer, vérifier et reproduire des modèles de production en versionnant des données, des paramètres et des métadonnées.
    2. Collaboration: Favorise la visibilité et la collaboration dans la production de modèles d'apprentissage automatique en transformant les connaissances tacites en code.
    3. Test et surveillance: met l'accent sur les tests, la surveillance et la définition de normes d'adhésion au modèle pour l'importance prédictive et les performances techniques.
    4. AMÉLIORATION CONTINUE: Traite l'apprentissage automatique comme un processus continu, permettant un recyclage si nécessaire.
  • Étapes de mise en œuvre:
    1. Reconnaître les parties prenantes: Impliquer diverses parties prenantes, notamment des ingénieurs en apprentissage automatique, des scientifiques des données, des ingénieurs DevOps, des informaticiens, des gestionnaires et des ingénieurs de données.
    2. Investir dans les infrastructures: Choisissez des produits d'infrastructure basés sur la reproductibilité, l'efficacité et l'intégrabilité.
    3. Automation: Divisez les projets d'apprentissage automatique en composants gérables, favorisant la collaboration et permettant des mises à jour automatiques.
  • IA en tant que service (AIaaS): L'IA en tant que service offre des fonctionnalités d'IA aux organisations sans nécessiter d'expertise interne en IA. Utilise des plates-formes basées sur le cloud (par exemple, Amazon AWS, Google Cloud, Microsoft Azure) et propose divers services pour différents cas d'utilisation.
  • Phases MLOps: MLOps implique des phases telles que la préparation, la construction, la validation et le déploiement du modèle sur une plate-forme d'IA.
  • Apprentissage automatique dans Uber et Booking.com:
    • Uber: Michelangelo est l'apprentissage automatique d'Uber plateforme qui normalise les flux de travail, coordonne les efforts et gère les modèles dans divers cas d'utilisation.
    • Booking.com: utilise l'apprentissage automatique pour recommander des hébergements en fonction de facteurs tels que l'emplacement, le prix et le comportement des utilisateurs, améliorant ainsi l'expérience utilisateur et les relations avec les hôtes.
  • Key A emporter: MLOps est un ensemble de pratiques qui assure une intégration efficace de l'intelligence artificielle dans les opérations commerciales. Il répond aux défis liés au déploiement, à la gestion et à l'amélioration des modèles d'apprentissage automatique, permettant aux organisations de bénéficier efficacement de l'IA.

Cadres agiles connectés

AIOps

AIOPS
AIOps est l'application de l'intelligence artificielle aux opérations informatiques. Il est devenu particulièrement utile pour la gestion informatique moderne dans des environnements hybrides, distribués et dynamiques. L'AIOps est devenu un composant opérationnel clé des organisations modernes basées sur le numérique, construit autour de logiciels et d'algorithmes.

AgileSHIFT

AgileSHIFT
AgileSHIFT est un cadre qui prépare les individus au changement transformationnel en créant une culture d'agilité.

Méthodologie agile

méthodologie-agile
Agile a commencé comme une méthode de développement légère par rapport au développement de logiciels lourds, qui est le paradigme central des décennies précédentes de développement de logiciels. En 2001, le Manifeste pour le développement logiciel agile est né comme un ensemble de principes définissant le nouveau paradigme du développement logiciel comme une itération continue. Cela influencerait également la façon de faire des affaires.

Gestion de programme agile

gestion-de-programme-agile
La gestion de programme agile est un moyen de gérer, de planifier et de coordonner des travaux interdépendants de manière à mettre l'accent sur la valeur ajoutée pour toutes les parties prenantes clés. La gestion de programme agile (AgilePgM) est une approche agile disciplinée mais flexible pour gérer le changement transformationnel au sein d'une organisation.

Gestion de projet Agile

gestion-de-projet-agile
La gestion de projet agile (APM) est une qui décompose les grands projets en tâches plus petites et plus gérables. Dans la méthodologie APM, chaque projet est réalisé en petites sections - souvent appelées itérations. Chaque itération est complétée selon son cycle de vie de projet, en commençant par le conception et passer aux tests puis à l'assurance qualité.

Modélisation agile

modélisation agile
La modélisation agile (AM) est une méthodologie de modélisation et de documentation de systèmes logiciels. La modélisation agile est essentielle à la livraison rapide et continue de logiciels. Il s'agit d'un ensemble de valeurs, de principes et de pratiques qui guident une modélisation logicielle efficace et légère.

Analyse métier agile

agile-business-analyse
Agile Business Analysis (AgileBA) est une certification sous forme d'orientation et de formation pour les analystes commerciaux qui souhaitent travailler dans des environnements agiles. Pour soutenir ce changement, AgileBA aide également l'analyste métier à relier les projets Agile à une organisation plus large. mission or . Pour s'assurer que les analystes disposent des compétences et de l'expertise nécessaires, la certification AgileBA a été développée.

Leadership agile

leadership agile
Le leadership agile est l'incarnation des principes du manifeste agile par un manager ou une équipe de direction. Le leadership agile a un impact sur deux niveaux importants d'une entreprise. Le niveau structurel définit les rôles, les responsabilités et les indicateurs de performance clés. Le niveau comportemental décrit les actions que les leaders montrent aux autres sur la base des principes agiles. 

Gestion de portefeuille bimodale

gestion-de-portefeuille-bimodal
La gestion de portefeuille bimodale (BimodalPfM) aide une organisation à gérer simultanément des portefeuilles agiles et traditionnels. La gestion de portefeuille bimodale - parfois appelée développement bimodal - a été inventée par la société de recherche et de conseil Gartner. L'entreprise a fait valoir que de nombreuses organisations agiles avaient encore besoin de gérer certains aspects de leurs opérations en utilisant des modèles de livraison traditionnels.

Matrice d'innovation commerciale

innovation-entreprise
Business innovation consiste à créer de nouvelles opportunités pour une organisation de réinventer ses offres de base, ses sources de revenus et d'améliorer la proposition de valeur pour des clients existants ou nouveaux, renouvelant ainsi tout son business model. Entreprise innovation découle de la compréhension de la structure du marché, adaptant ou anticipant ainsi ces changements.

Innovation de modèle d'entreprise

innovation-business-model
Modèle d'affaires innovation consiste à accroître le succès d'une organisation avec des produits et des technologies existants en créant un proposition de valeur capable de propulser un nouveau modèle d'affaires pour augmenter la clientèle et créer un avantage concurrentiel durable. Et tout commence par la maîtrise des clients clés.

Perturbation constructive

perturbation constructive
Un consommateur récemment conçus Une entreprise comme Procter & Gamble (P&G) définit la « perturbation constructive » comme : une volonté de changer, de s'adapter et de créer de nouvelles tendances et technologies qui façonneront notre industrie pour l'avenir. Selon P&G, il s'articule autour de quatre piliers : lean innovation, récemment conçus bâtiment, chaîne d'approvisionnement, numérisation et analyse de données.

Innovation continue

Innovation continue
C'est un processus qui nécessite une boucle de rétroaction continue pour développer un produit de valeur et construire un modèle commercial viable. Continu innovation est un état d'esprit où les produits et services sont conçus et livrés pour les ajuster autour du problème des clients et non de la solution technique de ses fondateurs.

Sprint Design

sprint de conception
A conception sprint est un processus éprouvé de cinq jours où les questions critiques de l'entreprise reçoivent une réponse rapide conception et le prototypage, en se concentrant sur l'utilisateur final. UN conception le sprint commence par un défi hebdomadaire qui devrait se terminer par un prototype, un test à la fin, et donc une leçon apprise à itérer.

Design Thinking

conception-pensée
Tim Brown, président exécutif d'IDEO, a défini conception comme « une approche centrée sur l'humain innovation qui s'inspire de la boîte à outils du concepteur pour intégrer les besoins des personnes, les possibilités de la technologie et les exigences du succès de l'entreprise. Par conséquent, l'opportunité, la faisabilité et la viabilité sont équilibrées pour résoudre les problèmes critiques.

DevOps

ingénierie devops
DevOps fait référence à une série de pratiques exécutées pour effectuer des processus de développement de logiciels automatisés. Il s'agit d'une conjugaison des termes « développement » et « opérations » pour souligner la manière dont les fonctions s'intègrent dans les équipes informatiques. Les stratégies DevOps favorisent la création, le test et le déploiement transparents des produits. Il vise à combler un fossé entre les équipes de développement et d'exploitation afin de rationaliser le développement dans son ensemble.

Agile à double voie

double piste agile
La découverte de produits est un élément essentiel des méthodologies agiles, car son objectif est de s'assurer que les produits que les clients adorent sont créés. La découverte de produits implique l'apprentissage à travers une série de méthodes, y compris conception la réflexion, le lean start-up et les tests A/B pour n'en nommer que quelques-uns. Dual Track Agile est une méthodologie agile contenant deux pistes distinctes : la piste « découverte » et la piste « livraison ».

Développement axé sur les fonctionnalités

développement axé sur les fonctionnalités
Le développement piloté par les fonctionnalités est un processus logiciel pragmatique centré sur le client et l'architecture. Le développement piloté par les fonctionnalités (FDD) est un modèle de développement logiciel agile qui organise le flux de travail en fonction des fonctionnalités à développer ensuite.

extrême Programmation

programmation extrême
eXtreme Programming a été développé à la fin des années 1990 par Ken Beck, Ron Jeffries et Ward Cunningham. Pendant ce temps, le trio travaillait sur le Chrysler Comprehensive Compensation System (C3) pour aider à gérer le système de paie de l'entreprise. eXtreme Programming (XP) est une méthodologie de développement logiciel. Il est conçu pour améliorer la qualité des logiciels et la capacité des logiciels à s'adapter aux besoins changeants des clients.

Notation ICE

modèle de score de glace
Le modèle de notation ICE est une méthodologie agile qui hiérarchise les fonctionnalités à l'aide de données selon trois composants : impact, confiance et facilité de mise en œuvre. Le modèle de notation ICE a été initialement créé par l'auteur et l'expert Sean Ellis pour aider les entreprises à se développer. Aujourd'hui, le modèle est largement utilisé pour hiérarchiser les projets, les fonctionnalités, les initiatives et les déploiements. Il convient parfaitement au développement de produits à un stade précoce où il existe un flux continu d'idées et où l'élan doit être maintenu.

Entonnoir d'innovation

entonnoir d'innovation
An innovation l'entonnoir est un outil ou un processus garantissant que seules les meilleures idées sont exécutées. Dans un sens métaphorique, l'entonnoir sélectionne des idées innovantes pour la viabilité afin que seuls les meilleurs produits, processus ou modèles d'affaires sont lancés sur le marché. Un innovation funnel fournit un cadre pour la sélection et le test d'idées innovantes pour la viabilité.

Matrice d'innovation

types-d-innovation
Selon le niveau de définition du problème et le niveau de définition du domaine, nous avons quatre principaux types d'innovations : la recherche fondamentale (problème et domaine ou non bien définis) ; percée innovation (le domaine n'est pas bien défini, le problème est bien défini) ; soutenir innovation (le problème et le domaine sont bien définis); et perturbateur innovation (le domaine est bien défini, le problème n'est pas bien défini).

Théorie de l'innovation

théorie de l'innovation
La innovation loop est une méthodologie/un cadre dérivé des Bell Labs, qui a produit innovation à grande échelle tout au long du XXe siècle. Ils ont appris à tirer parti d'un hybride innovation modèle de gestion basé sur la science, l'invention, l'ingénierie et la fabrication à grande échelle. En tirant parti du génie individuel, de la créativité et des petits/grands groupes.

Lean vs Agile

méthodologie-lean-vs-agile
La méthodologie Agile a été principalement pensée pour le développement de logiciels (et d'autres disciplines commerciales l'ont également adoptée). La pensée Lean est une technique d'amélioration des processus où les équipes priorisent les flux de valeur pour l'améliorer en permanence. Les deux méthodologies considèrent le client comme le principal moteur de l'amélioration et de la réduction des déchets. Les deux méthodologies considèrent l'amélioration comme quelque chose de continu.

Démarrage Lean

start-up
Une start-up est une entreprise de haute technologie qui essaie de construire une entreprise évolutive modèle d'affaires dans les industries axées sur la technologie. Une start-up suit généralement une méthodologie Lean, où la innovation, entraîné par des boucles virales intégrées est la règle. Ainsi, la conduite et la construction effets de réseau en conséquence de cela .

Kanban

kanban
Kanban est un cadre de fabrication allégée développé pour la première fois par Toyota à la fin des années 1940. Le cadre Kanban est un moyen de visualiser le travail au fur et à mesure qu'il progresse en identifiant les goulots d'étranglement potentiels. Il le fait grâce à un processus appelé fabrication juste à temps (JIT) pour optimiser les processus d'ingénierie, accélérer la fabrication des produits et améliorer la mise sur le marché. .

Développement rapide d'applications

développement rapide d'applications
RAD a été introduit pour la première fois par l'auteur et consultant James Martin en 1991. Martin a reconnu et a ensuite profité de l'infinie malléabilité des logiciels dans la conception de modèles de développement. Le développement rapide d'applications (RAD) est une méthodologie axée sur la livraison rapide grâce à une rétroaction continue et à des itérations fréquentes.

Agile à l'échelle

développement lean agile à l'échelle
Scaled Agile Lean Development (ScALeD) aide les entreprises à découvrir une approche équilibrée de la transition agile et des questions de mise à l'échelle. L'approche ScALed aide les entreprises à répondre avec succès au changement. Inspiré par une combinaison de valeurs lean et agiles, ScALed est basé sur les praticiens et peut être complété par divers cadres et pratiques agiles.

Modèle Spotify

modèle spotify
Le modèle Spotify est une approche autonome de mise à l'échelle agile, axée sur la communication culturelle, la responsabilité et la qualité. Le modèle Spotify a été reconnu pour la première fois en 2012 après Henrik Kniberg, et Anders Ivarsson a publié un livre blanc détaillant comment la société de streaming Spotify a abordé l'agilité. Par conséquent, le modèle Spotify représente une évolution de l'agile.

Développement piloté par les tests

développement piloté par les tests
Comme son nom l'indique, TDD est une technique pilotée par les tests pour fournir rapidement et durablement des logiciels de haute qualité. Il s'agit d'une approche itérative basée sur l'idée qu'un test défaillant doit être écrit avant l'écriture de tout code pour une fonctionnalité ou une fonction. Le développement piloté par les tests (TDD) est une approche du développement logiciel qui s'appuie sur des cycles de développement très courts.

temps de boxe

le timeboxing
Le timeboxing est une technique de gestion du temps simple mais puissante pour améliorer la productivité. Timeboxing décrit le processus de planification proactive d'un bloc de temps à consacrer à une tâche dans le futur. Il a été décrit pour la première fois par l'auteur James Martin dans un livre sur le développement logiciel agile.

Scrum

qu'est-ce-que-scrum
Scrum est une méthodologie co-créée par Ken Schwaber et Jeff Sutherland pour une collaboration d'équipe efficace sur des produits complexes. Scrum a été principalement pensé pour les projets de développement de logiciels afin de fournir de nouvelles capacités logicielles toutes les 2 à 4 semaines. C'est un sous-groupe d'agile également utilisé dans la gestion de projet pour améliorer la productivité des startups.

scrumban

mêlée
Scrumban est un cadre de gestion de projet qui est un hybride de deux méthodologies agiles populaires : Scrum et Kanban. Scrumban est une approche populaire pour aider les entreprises à se concentrer sur les bonnes tâches stratégiques tout en renforçant simultanément leurs processus.

Anti-modèles Scrum

scrum-anti-modèles
Les anti-modèles Scrum décrivent toute solution attrayante et facile à mettre en œuvre qui finit par aggraver un problème. Par conséquent, ce sont les pratiques à ne pas suivre pour éviter que des problèmes n'apparaissent. Certains exemples classiques d'anti-modèles Scrum comprennent les Product Owners absents, les tickets pré-assignés (faisant travailler les individus de manière isolée) et les rétrospectives à prix réduits (où les réunions de revue ne sont pas utiles pour vraiment apporter des améliorations).

Scrum à grande échelle

scrum à grande échelle
Scrum à l'échelle (Scrum@Scale) est un cadre que les équipes Scrum utilisent pour résoudre des problèmes complexes et fournir des produits à haute valeur ajoutée. Scrum at Scale a été créé par le biais d'une joint-venture entre Scrum Alliance et Scrum Inc. La joint-venture était supervisée par Jeff Sutherland, co-créateur de Scrum et l'un des principaux auteurs du Manifeste Agile.

Objectifs étirés

objectifs étendus
Les objectifs étendus décrivent toute tâche qu'une équipe agile prévoit d'accomplir sans s'engager expressément à le faire. Les équipes intègrent des objectifs étendus lors d'un sprint ou d'un incrément de programme (PI) dans le cadre de Scaled Agile. Ils sont utilisés lorsque l'équipe agile n'est pas sûre de sa capacité à atteindre un objectif. Par conséquent, les objectifs étendus sont plutôt des résultats qui, bien qu'extrêmement souhaitables, ne font pas la différence entre le succès ou l'échec de chaque sprint.

Cascade

cascade-modèle
Le modèle de cascade a été décrit pour la première fois par Herbert D. Benington en 1956 lors d'une présentation sur le logiciel utilisé dans l'imagerie radar pendant la guerre froide. Puisqu'il n'existait pas à l'époque de stratégies de développement de logiciels créatives et basées sur les connaissances, la méthode en cascade est devenue une pratique courante. Le modèle en cascade est un cadre de gestion de projet linéaire et séquentiel. 

Lire aussi: Guide des modèles commerciaux, Modèle commercial Sumo Logic, Flocon

innovationMéthodologie agileDémarrage LeanInnovation de modèle d'entrepriseGestion de projet.

Lisez: Industrie de l'IA, Économie de la blockchain, Modèles d'affaires cloud, Modèle d'entreprise C3.ai, Modèle commercial de flocon de neige.

Principaux guides gratuits :

A propos de l'auteur

Remonter en haut
FourWeekMBA