geld verdienen met machine learning/

AI Economy: hoe verdien je geld met machine learning?

Het AI-ecosysteem heeft een miljardenindustrie gegenereerd en het begint allemaal met data. Naar boven gaan in de waarde keten zijn er de Chips (GPU's) die de fysieke opslag van Big Data mogelijk maken (een dominante speler is NVIDIA). 

Die Big Data zal moeten worden opgeslagen op platforms en infrastructuren die MKB-bedrijven zich niet kunnen veroorloven. Dat is waar spelers van houden Google Wolk, Amazone AWS, IBM Cloud en Microsoft Azure komt te hulp. 

Op grote schaal beheersen een paar bedrijven de Enterprise AI-markt; terwijl landen als China, de VS, Japan, Duitsland, het VK en Frankrijk er op grote schaal op inzetten!

Maar met de ontwikkeling van nieuwe AI-bedrijven, zoals OpenAI, is het ecosysteem volledig veranderd en ontwikkelt het zich nu rond drie AI-lagen. 

Het AI-ecosysteem begrijpen

ai-business-ecosysteem

Naast alle buzz en hype die gepaard gaat met nieuwe woorden die de mainstream binnenkomen, is AI een van die disciplines die cruciaal zijn geworden in het huidige economische landschap.

Het AI-ecosysteem bevindt zich nog lang niet in een embryonaal stadium en is een miljarden dollar geworden onderneming, geleid door techreuzen die van IBM naar Google, Microsoft, Amazone, en vele anderen.

Dat betekent niet dat er geen kansen zijn voor nieuwe toetreders. Nogal Het tegenovergestelde.

Het AI-ecosysteem draait om een ​​paar sleutelelementen die ook kunnen worden gezien als de "Toolbox voor AI:"

  • Gegevens of Big Data.
  • Infrastructuur.
  • Algoritmen.

Laten we dieper ingaan op elk van die sleutelelementen voor een AI-ecosysteem. Maar voordat we erin duiken, moeten we begrijpen wie en hoe geld verdient met AI.

Wie verdient er geld met AI?

Er zijn miljarden dollars geïnvesteerd in het AI-ecosysteem, vooral door grote technologiebedrijven.

Dit is goed nieuws, want die technologiebedrijven hebben een ecosysteem gecreëerd dat klaar is om begrepen te worden, zodat je er je eigen bedrijf uit kunt bouwen.

Begrijpen hoe dit ecosysteem werkt, is inderdaad de eerste stap om er geld mee te verdienen.

En het begint allemaal met data!

Het begint allemaal met data

Houd er rekening mee dat het hele punt van AI is om met een enorme hoeveelheid gegevens om te gaan en daadwerkelijk iets nuttigs te kunnen doen.

Kortom, ook al praten we graag over AI en machine learning, het zijn technologieën op zich. In werkelijkheid is de basis van die technologieën data.

Een samengestelde datapijplijn is een basis voor een AI-ecosysteem om in de eerste plaats te werken.

Bedrijven houden van Google, Wolfram Alpha, Amazone, en vele anderen, besteden miljarden aan het onderhouden en beheren van hun gegevens. Als dat al zo is, kunnen we stellen dat voor bedrijven als Google, Data is de belangrijkste troef.

Zoals al uitgelegd in de Blockchain-economie, in de huidige economische wereld, gebouwd op digitalisering, is de regel om die gegevens eigendom te houden. Dat was logisch, want met deze gegevens wordt uiteindelijk geld verdiend met verschillende strategieën.

VerwantBlockchain Economics 101: de theorieën over waarde in een wereld die wordt aangedreven door de blockchain

Laten we een paar tegengestelde voorbeelden geven van hoe gegevens te gelde worden gemaakt:

  • Google gegevens-freemium strategie: Google gebruikt zijn eigen gegevens (verzameld door miljarden zoekopdrachten van gebruikers per dag) om advertenties te verkopen
  • Apple data-omgekeerd-scheermes strategie: iPhones weten veel over u, maar Apple deelt die gegevens niet met marketeers. In plaats daarvan verdient het geld door dure apparaten te verkopen (iPhone is de belangrijkste)

Wanneer Data een kritische massa bereikt, kunnen we het Big Data noemen. Er is niet één definitie van Big Data en deze kan door de jaren heen verschillen.

Gezien het feit dat hoe meer de AI-industrie groeit, hoe goedkoper het verzamelen en verwerken van gegevens zal worden.

Dit zal op zijn beurt de beheer van een steeds grotere hoeveelheid gegevens.

Ter wille van deze discussie, en vanaf het moment van deze het schrijven van, wordt een petabyte opgevat als de eerste eenheid van Big Data:

wat-is-een-petabyte

bron: zoekopslag.techtarget.com

Chips: van CPU naar GPU

nvidia-bedrijfsmodel
NVIDIA is een GPU Design bedrijf, dat zich ontwikkelt en verkoopt onderneming chips voor industrieën die zich uitstrekken van gaming, datacenters, professionele visualisaties en autonoom rijden. NVIDIA bedient grote grote bedrijven als zakelijke klanten en gebruikt een platform strategie waar het zijn hardware combineert met softwaretools om de mogelijkheden van zijn GPU's te verbeteren.

In het verleden kon je rekentaken aan met een simpele CPU.

Totdat computers een grotere hoeveelheid data moesten verwerken. Dit is waar GPU te hulp kwam.

Een GPU of grafische verwerkingseenheid is een elektronisch circuit dat een enorme hoeveelheid gegevens kan manipuleren. Het interessante is dat GPU's zijn ontworpen voor gaming. 

Maar hun vermogen om games met zeer zware graphics te verwerken, maakte deze chips ook uiterst nuttig voor AI. 

In tegenstelling tot de traditionele CPU kan een GPU grote blokken data parallel verwerken, wat hem zeer geschikt maakt voor AI-systemen.

In dit tempo is NVIDIA de kritische speler.

Zoals vermeld in het jaarverslag, al in 2018:

Beginnend met een focus op pc-graphics, vond NVIDIA de grafische verwerkingseenheid of GPU uit om enkele van de meest complexe problemen in de informatica op te lossen. De afgelopen jaren hebben we onze focus verlegd naar het revolutionaire veld van kunstmatige intelligentie, oftewel AI. Gevoed door de aanhoudende vraag naar betere 3D-graphics en de schaal van de gamingmarkt, heeft NVIDIA de GPU ontwikkeld tot een computerbrein op het snijvlak van virtual reality, of VR, high performance computing, of HPC, en AI.

En het vervolgde:

De parallelle verwerkingsmogelijkheden, ondersteund door tot duizenden rekenkernen, zijn essentieel voor het uitvoeren van deep learning-algoritmen. Deze vorm van AI, waarbij software zichzelf schrijft door te leren van data, kan dienen als het brein van computers, robots en zelfrijdende auto's die de wereld kunnen waarnemen en begrijpen.

Vanaf januari 2018 registreerde NVIDIA al bijna tien miljard in inkomsten, en meer dan acht miljard kwam van de verkoop van GPU alleen!

NVIDIA-opbrengsten-GPU

door 2021 Het bedrijfsmodel van NVIDIA was klaar om verder te gaan dan gamen.

NVIDIA heeft inderdaad ook een chip ontwikkeld voor bedrijven als Tesla, die hem gebruiken om zelf te rijden. 

De NVIDIA V100 wordt gebruikt door: Tesla (Beeldbron NVIDIA Corporate Website).

Grote technologiebedrijven, zoals IBM en Google, hebben enorme middelen geïnvesteerd om hun GPU-chips Big Data te laten verwerken.

En net als NVIDIA volgden andere spelers dit voorbeeld om zichzelf te positioneren als AI Chipmakers. 

ai-chip-makers-inkomsten

Ook Intel is enorm geïnteresseerd in AI-chips, wat een van de prioriteiten is.

intel-prioriteiten

En hieronder ziet u hoe elk van zijn chipproducten wordt gebruikt in verschillende AI-aangedreven industrieën.

intel-autonoom-rijden-chip

Qualcomm biedt ook een stapel chips voor verschillende gebruiksscenario's.

qualcomm-producten-door-toepassingen
qualcomm-producten-door-toepassingen
qualcomm-producten-door-toepassingen

Over het algemeen hebben techreuzen de productie van chips nu in eigen beheer gebracht.

Een voorbeeld is Apple dat eindelijk zijn eigen chips begon te produceren, voor zowel zijn telefoons als computers.

Google heeft dit voorbeeld gevolgd door zijn eigen chips te ontwerpen voor de nieuwe generaties Pixel-telefoons.

Een nieuwe chip, voor het eerst intern ontworpen, werd gebouwd als een premium systeem op een chip (SoC).

Bron: Google

Deze chiparchitectuur, beweert Google, stelt het in staat om zijn apparaten verder uit te rusten met machine learning. Bijvoorbeeld met live vertalingen van de ene taal naar de andere.

Waarom investeren bedrijven weer in chips?

Met de opkomst van AI en alles wat slim is, leven we op het snijvlak van verschillende nieuwe industrieën die de AI-revolutie stimuleren (5G, IoT, machine learning-modellen, bibliotheken en chiparchitectuur).

Als zodanig is het maken van chips opnieuw een strategische kerntroef geworden voor bedrijven die hardware maken voor consumenten.

Dit wil geen compleet overzicht zijn van de AI-chipindustrie. Integendeel, om u te laten zien waarom chips opnieuw zo'n belangrijk strategisch goed zijn geworden.

Algoritmen en infrastructuren: de Amazon/Google/Microsoft cloud-oorlog

Om een ​​enorme hoeveelheid gegevens op te slaan, heb je infrastructuur nodig, als je een klein maar ook een medium bent bedrijf is moeilijk te bouwen.

Daarom hebt u een derde partij nodig die die gegevens voor u kan opslaan.

Dit heeft geleid tot de cloudoorlog tussen Amazone AWS, Google Cloudplatform, Microsoft Azure en IBM Cloud. Amazone, Google en Microsoft zijn de dominante spelers.

Googlemaakt in het bijzonder gebruik van een smart Bedrijfsstrategie, die in zekere zin de weg vertegenwoordigt Google doet het.

Inderdaad, als je programmeert of actief bent op het gebied van machine learning, ben je je bewust van Tensorflow, en open source machine learning-bibliotheek.

Google maakt gebruik van de open source model omdat iedereen deze bibliotheek kan gebruiken, waardoor deze na verloop van tijd beter wordt. 

Maar het zorgt er ook voor dat er steeds meer gegevens moeten worden opgeslagen. En raad eens, Google heeft daar een product voor: Google Cloud-platform. 

Daarom, als je een programmeur bent die Tensorflow gebruikt, en je hebt een platform om die gegevens op te slaan, is de kans groot dat u Google Cloud infrastructuur.

De onderliggende cloudinfrastructuren die door deze techreuzen worden aangeboden, hebben een geheel nieuwe industrie gecreëerd, van cloud-bedrijfsmodellen, gemaakt van drie primaire spelers, IaaS, PaaS en SaaS. En een paar anderen daartussenin (FaaS, DaaS). 

cloud-bedrijfsmodellen
wolk bedrijfsmodellen zijn allemaal gebouwd op cloud computing, een concept dat rond 2006 de overhand kreeg toen voormalig Google-CEO Eric Schmit het noemde. Meest cloudgebaseerd bedrijfsmodellen kan worden geclassificeerd als IaaS (Infrastructure as a Service), PaaS (Platform as a Service) of SaaS (Software as a Service). Hoewel met deze modellen voornamelijk inkomsten worden gegenereerd via abonnementen, worden ze te gelde gemaakt via pay-as-you-go-inkomstenmodellen en hybride modellen (abonnementen + pay-as-you-go).

Ondernemingen, bedrijven en landen

Zowel de zakelijke als de zakelijke AI-industrie wordt gedomineerd door enorme spelers die in de loop der jaren een enorme infrastructuur hebben gebouwd voor grote zakelijke klanten (neem Salesforce en Oracle in de klantomgeving). beheer industrie).

Tegelijkertijd investeren landen in AI om duurzame economische groei. China, de VS, Japan, Frankrijk, het VK en Duitsland investeren allemaal in AI.

Laten we eens kijken hoe u in plaats daarvan geld kunt verdienen met AI.

Hoe verdien je geld met AI?

Zoals Kevin Kelly al zei, in zijn boek "Het onvermijdelijke:" 

De bedrijf plannen van de volgende 10,000 startups zijn gemakkelijk te voorspellen: neem X en voeg AI toe. Zoek iets dat beter kan door er online slimheid aan toe te voegen. 

Er zijn een paar manieren om te beginnen met het bouwen van een bedrijf met AI:

  • Start een opstart
  • Contract werk 
  • Baan of stage
  • Schrijf een boek
  • Educatieve inhoud
  • Geautomatiseerde handelsbot
  • Wedstrijden

En een paar kernen prijsstelling modellen: 

Abonnement/houder

Hier bouwt het AI-bedrijf een custom model, via een pilot (gratis of tegen een vast bedrag).

Wanneer de model klaar is, doorloopt het een overgangsfase, die begint te lopen als een abonnement/retainer (gebaseerd op het volume dat wordt verwerkt door de model).

Vanaf daar, eenmaal klaar voor schaal, draagt ​​de prijs een basis abonnement, die boven een bepaald volume zullen stijgen.

De abonnement moet een drempel hebben, waarna het volume de model aankan, kan onbeperkt zijn (dit gebeurt in een zeer geavanceerde fase, die op basis van de service minstens 18-24 maanden kan duren om te ontwikkelen). 

Pay-as-you-go

Deze omvatten diensten van AI-bedrijven, die standaardbibliotheken van machine learning-modellen kunnen bieden, en het bedrijf dat er een kiest, betaalt op basis van het verbruik. 

Hybride prijzen

Deze omvatten AI-modellen die standaard zijn maar tot op zekere hoogte kunnen worden aangepast. In dat geval is een abonnement model, gecombineerd met een pay-as-you-go model zou kunnen doen. 

Een deel van de besparing

In het geval van een bedrijf dat AI-modellen gebruikt om de campagneprestaties te verbeteren, kan het bedrijf de klant kennis laten maken met deze modellen, met een gratis of flatfee-pilot, en zodra dit succesvol blijkt, slechts een % van de besparingen in rekening brengen.

Deze model kan effectiever zijn om de wrijving en acquisitiekosten van de zakelijke klant te verminderen. 

Wat de AI wel en niet kan doen?

Gebaseerd op mijn ervaring in de afgelopen drie jaar, het verfijnen van enterprise services, in de AI verkoop space, dit zijn de applicaties die ik als succesvolle heb gezien: 

Mensen in de lus

Een cruciaal element is dat de mens voorlopig op de hoogte moet zijn.

Welke toepassing u ook kiest, voor de onderneming die u kiest, het is van cruciaal belang om een ​​team van ervaren mensen te hebben die kunnen begrijpen hoe deze modellen op grote schaal moeten worden gehanteerd.

Bij het bouwen van AI-modellen kunnen die aangepaste modellen (gebouwd voor specifieke taken van het bedrijf) in de loop van de tijd steeds relevanter worden.

Het is echter ook van cruciaal belang om de mens op de hoogte te houden, zowel op input- als outputniveau.

Aan de invoerkant is het van cruciaal belang dat mensen tijd besteden aan het verrijken van de gegevens die beschikbaar zijn voor de model en het verbeteren (stel je voor dat je een taal wilt maken) model die uw producten beschrijft, hoe meer informatie u geeft over deze producten, details en kenmerken van de producten, hoe beter de model).

Aan de uitvoerzijde, zoals de model genereert dingen die afgaan, die moeten worden gecorrigeerd en gecontroleerd, wat aansluit op het volgende punt. 

Modelaudit 

Ik betoog - zal groter zijn dan het modelleren zelf! 

Naar mijn mening, als die machine learning-modellen in populariteit groeien en de volgende biljoen dollar industrie stimuleren, zal er een kernprobleem met hen zijn.

Omdat die modellen meestal gebruikmaken van deep learning, betekent dit dat je de input en output kent, maar in het midden is het een zwarte doos. Kortom, er is geen eenvoudige manier om de model, om te weten hoe het van invoer naar uitvoer is gekomen.

In dat scenario is het van groot belang om slimme manieren te bedenken om machine learning-modellen te auditeren. Inderdaad, als je mij vraagt ​​waar ik een AI-bedrijf zou beginnen, zou ik je meteen vertellen dat ik zou beginnen met het bouwen van een toolbox om machine learning-modellen te controleren.

Waarom? Omdat elk bedrijf dat AI-services gebruikt, deze modellen moet kunnen controleren, en er is nu geen juiste manier om dit te doen. Het is nog steeds een Wild West! 

Commoditizable content is het uitgangspunt

Als u deze machine learning-modellen wilt gaan gebruiken, kunt u beginnen met te kijken naar het deel van de: bedrijf die het potentieel heeft om gecommoditiseerd te worden.

Bijvoorbeeld als u een e-commerce winkel heeft, met duizenden of miljoenen productbeschrijvingen. Taalmodellen kunnen behoorlijk effectief zijn om ze op schaal te genereren.

In feite is het voordeel hier dat de taal model kan de productbeschrijving dynamisch wijzigen, ook op basis van seizoensgebonden zoekopdrachten van gebruikers. Dit is een applicatie waarvan ik heb gezien dat deze zeer effectief is gebruikt.

Een ding is echter om de machine de mogelijkheid te geven om een ​​byte tekst op een productpagina te wijzigen, een andere is om de machine de hele pagina te laten herschrijven.

Kortom, u wilt beginnen met een klein gedeelte, dat vanaf daar kan worden gecontroleerd, gemakkelijk gemeten, herhaald, gecorrigeerd en geschaald. 

Modellen opschalen

Een van de moeilijkste onderdelen van het gebruik van machine learning-modellen op bedrijfsniveau is om die modellen betrouwbaar te schalen.

Als u de machine bijvoorbeeld tekst laat genereren voor 100 productpagina's, is dat totaal anders, van duizend of tienduizend.

Op elk schaalniveau neemt de complexiteit waarmee de machine omgaat exponentieel toe, en de kans dat een paar productbeschrijvingen ver weg raken, wordt een mogelijkheid. 

Campagne-optimalisaties

Een andere interessante toepassing van deep learning-modellen is op het gebied van betaalde campagne-optimalisaties, waar de machine op twee manieren kan werken.

Ten eerste neemt de machine ongestructureerde gegevens en maakt er gestructureerde gegevens van. Stel je voor dat je miljoenen uitgeeft aan Facebook-advertentiecampagnes.

Die worden meestal afgehandeld door een prestatiemanager. Want hoe georganiseerd die persoon misschien is bij het afhandelen van deze campagnes wanneer het budget erg groot wordt, het kan ook erg complex worden om goed presterende campagnes te begrijpen.

Dat komt omdat die campagnes mogelijk de juiste etikettering missen. Kortom, de triviale, maar tijdrovende taak om deze campagnes te labelen (zoals het organiseren in clusters die logisch zijn) wordt erg moeilijk.

Ten tweede kan het afhandelen van een groot aantal campagnes ook het experimenteerproces vertragen. Succesvolle campagnes moeten in de loop van de tijd inderdaad voortdurend worden aangepast, gewijzigd en opnieuw getest om de ROI van deze campagnes stabiel te houden.

Deep learning, met neurale netwerken, kan daar heel goed in zijn! Labelen, aanpassen, testen en herhalen van deze campagnes op schaal. 

Andere bronnen: 

Casestudy's:

Lees volgende: Geschiedenis van OpenAI, AI-bedrijfsmodellen, AI Economie.

Verbonden Business Model Analyses

AI-paradigma

huidig-AI-paradigma

Vooropleiding

vooropleiding

Grote taalmodellen

grote-taalmodellen-llms
Grote taalmodellen (LLM's) zijn AI-tools die tekst kunnen lezen, samenvatten en vertalen. Hierdoor kunnen ze woorden voorspellen en zinnen maken die weerspiegelen hoe mensen schrijven en spreken.

Generatieve modellen

generatieve modellen

Snelle techniek

prompt-engineering
Prompt engineering is een concept voor natuurlijke taalverwerking (NLP) waarbij input wordt ontdekt die gewenste of bruikbare resultaten oplevert. Zoals bij de meeste processen bepaalt de kwaliteit van de invoer de kwaliteit van de uitvoer bij snelle engineering. Het ontwerpen van effectieve prompts vergroot de kans dat de model zal een antwoord teruggeven dat zowel gunstig als contextueel is. Ontwikkeld door OpenAI, de CLIP (Contrastive Language-Image Pre-training) model is een voorbeeld van een model dat gebruikmaakt van prompts om afbeeldingen en bijschriften te classificeren van meer dan 400 miljoen paren van afbeeldingsbijschriften.

Lagen van AI

ai-business-ecosysteem

OpenAI-bedrijfsmodel

hoe-verdient-openai-geld
OpenAI heeft de basislaag van de AI-industrie gebouwd. Met grote generatieve modellen zoals GPT-3 en DALL-E, biedt OpenAI API-toegang aan bedrijven die applicaties willen ontwikkelen bovenop de basismodellen, terwijl ze deze modellen in hun producten kunnen pluggen en deze modellen kunnen aanpassen met eigen gegevens en aanvullende AI Kenmerken. Aan de andere kant heeft OpenAI ook ChatGPT uitgebracht, ontwikkeld rond een freemium model. Microsoft commercialiseert ook opener-producten via haar commerciële partnerschap.

OpenAI/Microsoft

openai-microsoft
OpenAI en Microsoft werkten samen vanuit commercieel oogpunt. De geschiedenis van het partnerschap begon in 2016 en werd geconsolideerd in 2019, waarbij Microsoft een miljard dollar in het partnerschap investeerde. Het maakt nu een sprong voorwaarts, met Microsoft in gesprek om $ 10 miljard in dit partnerschap te stoppen. Microsoft ontwikkelt via OpenAI zijn Azure AI Supercomputer, terwijl het zijn Azure Enterprise Platform verbetert en de modellen van OpenAI integreert in zijn bedrijf en consumentenproducten (GitHub, Office, Bing).

Stabiliteit AI-bedrijfsmodel

hoe-verdient-stabiliteit-ai-geld
Stability AI is de entiteit achter Stable Diffusion. Stabiliteit verdient geld aan onze AI-producten en aan het leveren van AI-adviesdiensten aan bedrijven. Stability AI genereert inkomsten met Stable Diffusion via de API's van DreamStudio. Hoewel het ook open-source vrijgeeft voor iedereen om te downloaden en te gebruiken. Stability AI verdient ook geld via bedrijfsservices, waar het kernontwikkelingsteam zakelijke klanten de kans biedt om Stable Diffusion of andere grote generatieve modellen te onderhouden, op te schalen en aan te passen aan hun behoeften.

Stabiliteit AI-ecosysteem

stabiliteit-ai-ecosysteem

Verbonden concepten

DevOps

devops-engineering
DevOps verwijst naar een reeks praktijken die worden uitgevoerd om geautomatiseerde softwareontwikkelingsprocessen uit te voeren. Het is een vervoeging van de term 'ontwikkeling' en 'operations' om te benadrukken hoe functies in IT-teams integreren. DevOps-strategieën bevorderen het naadloos bouwen, testen en implementeren van producten. Het is bedoeld om een ​​brug te slaan tussen ontwikkelings- en operationele teams om de ontwikkeling volledig te stroomlijnen.

DevSecOps

ontwikkelaars
DevSecOps is een reeks disciplines die ontwikkeling, beveiliging en operaties combineren. Het is een filosofie die softwareontwikkelingsbedrijven helpt om snel innovatieve producten te leveren zonder in te boeten aan beveiliging. Hierdoor kunnen potentiële beveiligingsproblemen worden geïdentificeerd tijdens het ontwikkelingsproces - en niet nadat het product is uitgebracht in overeenstemming met de opkomst van continue softwareontwikkelingspraktijken.

Continue intelligentie

continu-intelligentie-bedrijfsmodel
De bedrijf intelligentiemodellen zijn overgegaan op continue intelligentie, waarbij dynamische technologie-infrastructuur wordt gekoppeld aan continue implementatie en levering om continue intelligentie te bieden. Kortom, de software die in de cloud wordt aangeboden, zal worden geïntegreerd met de gegevens van het bedrijf, waarbij gebruik wordt gemaakt van AI/ML om in realtime antwoorden te bieden op actuele problemen waarmee de organisatie mogelijk te maken heeft.

Continue integratie

continue-integratiecontinue-implementatie
Continuous Integration/Continuous Deployment (CI/CD) introduceert automatisering in de stadia van app-ontwikkeling om regelmatig aan klanten te leveren. CI/CD introduceert continue automatisering en monitoring gedurende de hele levenscyclus van de app, van testen tot levering en vervolgens implementatie.

MLops

mlops
Machine Learning Ops (MLOps) beschrijft een reeks best practices die met succes helpen een bedrijf kunstmatige intelligentie uitvoeren. Het bestaat uit de vaardigheden, workflows en processen om machine learning-modellen te maken, uit te voeren en te onderhouden om verschillende operationele processen binnen organisaties te helpen.

RevOps

keert terug
RevOps – een afkorting voor Revenue Operations – is een raamwerk dat tot doel heeft het omzetpotentieel van een organisatie te maximaliseren. RevOps probeert deze afdelingen op elkaar af te stemmen door ze toegang te geven tot dezelfde gegevens en tools. Met gedeelde informatie begrijpt elk zijn rol in de verkooptrechter en kan hij samenwerken om de omzet te verhogen.

AIOps

AIOPS
AIOps is de toepassing van kunstmatige intelligentie op IT-operaties. Het is vooral nuttig geworden voor moderne IT beheer in gehybridiseerde, gedistribueerde en dynamische omgevingen. AIOps is een belangrijk operationeel onderdeel geworden van moderne digitale organisaties, gebouwd rond software en algoritmen.

AdOps

advertentie-ops
Ad Ops – ook bekend als Digital Ad Operations – verwijst naar systemen en processen die de levering van digitale advertenties ondersteunen en beheer. Het concept beschrijft elk proces dat helpt bij het verkoop team advertentiecampagnes beheren, uitvoeren of optimaliseren, waardoor ze een integrerend onderdeel worden van de bedrijf operaties.

Belangrijkste gratis gidsen:

Over de auteur

Laat een reactie achter

Scroll naar boven
FourWeekMBA