AI-supercomputers zijn ultrasnelle processors die enorme hoeveelheden data kunnen beheren en interpreteren schaal.
AI-supercomputers begrijpen
Supercomputers zijn die met niveaus van prestatie die veel verder gaan dan conventionele computers, laptops en andere consumentenapparaten. Dit stelt hen in staat om enorme hoeveelheden data te verwerken en, belangrijker nog, er belangrijke inzichten uit te halen.
Bij uitbreiding zijn AI-supercomputers degenen die de volgende generatie AI-algoritmen kunnen uitvoeren. Ze bestaan uit honderdduizenden individuele processors, een gespecialiseerde netwerk, en een aanzienlijke hoeveelheid opslagruimte. Omdat er zoveel processors zijn, voert elk slechts een klein deel van het werk uit en communiceert het met de anderen om de verwerkingssnelheid te verhogen.
Hoewel AI-supercomputers misschien complex lijken, beheren standaardbesturingssystemen zoals Linux applicaties, netwerken het plannen van taken. Maar met dichtbevolkte printplaten hebben ze de neiging heet te worden en hebben ze een uitgebreid koelsysteem nodig met circulerend koelmiddel en geforceerde lucht die warmte afvoert.
Er wordt voorspeld dat de supercomputermarkt zal ervaren een CAGR van 9.5% tot 2026 gebaseerd op de toegenomen acceptatie van wolk informatica en aanverwante technologieën.
Deze toename zal ook worden veroorzaakt door de behoefte aan systemen die enorme datasets aankunnen om AI-modellen te trainen en te bedienen. Volgens OpenAI is de rekenkracht die nodig is om dergelijke modellen te trainen, geweest verdubbeling elke 3.4 maanden.
Waarom zijn AI-supercomputers van belang in de context van het huidige AI-paradigma?
De transformator architectuur heeft het AI-paradigma volledig verschoven en uiteindelijk AI getransformeerd van smal naar gespecialiseerd.
Maar om die verandering commercieel levensvatbaar en waardevol te laten worden, moest dat wel schaal; hoe?
Door het mogelijk te maken dat grote taalmodellen worden getraind op een enorme hoeveelheid gegevens, door deze op te splitsen in miljarden parameters en door ze lang genoeg te trainen om een AI-engine voor algemeen gebruik te creëren, die vervolgens kan worden aangepast.
Dit hele proces vereiste een enorme hoeveelheid berekeningen en geen enkele berekening. Deze grote taalmodellen zouden dat wel doen schaal via een transformatorarchitectuur die parallel computing vereiste, bereikt via een speciaal soort chip genaamd GPU.
Dus een stel krachtige GPU's, georganiseerd rond een specifieke architectuur, geoptimaliseerd voor parallel computergebruik op de wolk, maakte eerst grote taalmodellen zoals GPT en tools zoals ChatGPT levensvatbaar.
Onderliggend aan de GPT-modellen van OpenAI en ChatGPT is er inderdaad de Microsoft Azure AI Supercomputer, waarop Microsoft heeft sinds 2019 miljarden uitgegeven om te consolideren.
De AI-supercomputer is een cruciaal stukje van de puzzel om de OpenAI-bedrijfsmodel.
Vandaag de AI bedrijfsdeskundigen architectuur bestaat uit drie belangrijke paradigma's:
- De software paradigma (van zeer smal en omslachtig tot algemeen en zeer trainbaar).
- Het hardware-paradigma (van CPU's naar GPU's)
- En de bedrijfsdeskundigen paradigma (de drie lagen AI).
Hoe kunnen AI-supercomputers zware werklasten aan?
Er zijn drie kerncomponenten.
Schakelingen
Zeer kleine draadverbindingen zorgen ervoor dat de printplaat met meer vermogen kan worden belast in vergelijking met die in een standaard desktop-pc. Hierdoor kunnen rekenkundige en logische bewerkingen op een sequentiële manier worden geïnterpreteerd en uitgevoerd.
Nodes
AI-supercomputers hebben talloze CPU's om een hoge rekensnelheid mogelijk te maken. Elk van deze CPU's (nodes) heeft 10 tot 12 cores en er zijn vaak duizenden nodes binnen een architectuur. Werk prestatie ligt vaak in het bereik van biljoenen cycli per seconde.
In behandeling
AI-supercomputers voeren meerdere workloads tegelijk uit met parallelle verwerking. Aangezien duizenden taken tegelijk worden uitgevoerd, is het werk in enkele milliseconden voltooid.
Hierdoor kunnen bedrijven met precisie snellere en nauwkeurigere AI-modellen trainen. Ze kunnen ook belangrijke inzichten toepassen op processen, meer scenario's testen en uiteindelijk de industrieën waarin ze actief zijn vooruit helpen.
Voorbeelden van AI-supercomputers
meta
In januari 2022 kondigde Meta zijn AI Research SuperCluster (RSC) aan en voorspelde dat het halverwege het jaar de snelste supercomputer ter wereld zou worden. RSC werd aanvankelijk gebruikt om modellen in de computer te trainen visie en NLP, maar het bedrijf hoopt op een dag modellen te trainen met biljoenen parameters.
Dit zou RSC in staat stellen om “werk in honderden verschillende talen; naadloos analyseren tekst, afbeeldingen en video's samen; nieuwe augmented reality-tools ontwikkelen, en nog veel meer”. Met andere woorden, RSC zal een belangrijke rol spelen in de ontwikkeling van de Metaverse.
Microsoft
Microsoft bouwde in 2020 een supercomputer voor OpenAI als onderdeel van zijn substantiële investering in het bedrijf. Ontworpen voor OpenAI's machine learning-onderzoek, Microsoft's naamloze supercomputer heeft 285,000 CPU-cores, 10,000 GPU's en zo'n 400 gigabit per seconde aan netwerkconnectiviteit.
De supercomputer wordt gehost in Azure en werd gezien als de eerste stap om krachtige AI-modellen beschikbaar te maken voor andere ontwikkelaars en organisaties om op voort te bouwen.
Nvidia
Nvidia's Cambridge-1 werd gelanceerd in juli 2021 en werd de krachtigste supercomputer in het Verenigd Koninkrijk genoemd. Het zou voornamelijk worden gebruikt door de beste wetenschappers en gezondheidswerkers van het land om de digitaal biologische revolutie.
Het bedrijf merkte op dat zijn AI-supercomputer kan worden opgenomen in nanotechnologieën om dementie beter te begrijpen. Als alternatief zou het kunnen worden gebruikt om de nauwkeurigheid van het identificeren van ziekteveroorzakende variaties in menselijke gensequenties te verbeteren.
Key afhaalrestaurants
- AI-supercomputers zijn ultrasnelle processors die enorme hoeveelheden data kunnen beheren en interpreteren schaal. Om de volgende generatie AI-algoritmen uit te voeren, bestaan ze uit honderdduizenden individuele processors, een gespecialiseerde netwerk, en een aanzienlijke hoeveelheid opslagruimte.
- Er wordt voorspeld dat de supercomputermarkt tot 9.5 een CAGR van 2026% zal doormaken op basis van de toegenomen acceptatie van wolk technologie en de behoefte aan systemen die enorme datasets aankunnen om AI te trainen en te bedienen.
- Drie opmerkelijke AI-supercomputervoorbeelden zijn Meta's AI Research SuperCluster (RSC), Nvidia's Cambridge-1 en Microsoft's naamloze supercomputer die speciaal is gebouwd voor machine learning-onderzoek bij OpenAI.
Belangrijkste kenmerken
- Overzicht AI-supercomputers:
- AI-supercomputers zijn krachtige processors die zijn ontworpen om grote hoeveelheden gegevens te verwerken en complexe AI-algoritmen uit te voeren.
- Ze bestaan uit talrijke individuele verwerkers, een gespecialiseerde netwerken aanzienlijke opslagcapaciteit.
- Deze supercomputers maken gebruik van parallel computing, waarbij meerdere taken tegelijkertijd worden uitgevoerd om hoge verwerkingssnelheden te bereiken.
- Belang in het AI-paradigma:
- AI-supercomputers spelen een cruciale rol bij het mogelijk maken van de training en werking van grote taalmodellen zoals GPT-3.
- De transformatorarchitectuur, die in grote taalmodellen wordt gebruikt, vereist aanzienlijke berekeningen, vaak bereikt met behulp van gespecialiseerde chips zoals GPU's.
- Microsoft Azure AI Supercomputer ondersteunt de GPT-modellen en ChatGPT van OpenAI.
- Componenten en functionaliteit:
- Circuits: AI-supercomputers gebruiken kleine draadverbindingen voor efficiënte stroomvoorziening distributie, waardoor opeenvolgende uitvoering van bewerkingen mogelijk is.
- Knooppunten: Elke supercomputer heeft talrijke CPU's (knooppunten) met meerdere kernen, wat een hoge rekensnelheid oplevert.
- Parallelle verwerking: Supercomputers voeren meerdere taken tegelijkertijd uit, waardoor complexe werklasten snel kunnen worden voltooid.
- Voordelen en toepassingen:
- AI-supercomputers maken een snellere en nauwkeurigere training van AI-modellen mogelijk.
- Bedrijven kunnen waardevolle inzichten verwerven, scenario's testen en verschillende industrieën vooruit helpen.
- Voorbeelden van AI-supercomputers:
- Meta's AI Research SuperCluster (RSC): Gericht om 's werelds snelste supercomputer te zijn, gericht op trainingsmodellen in computer visie en NLP voor Metaverse-ontwikkeling.
- De supercomputer van Microsoft: gebouwd voor OpenAI met 285,000 CPU-kernen, 10,000 GPU's en gehost in Azure. Ondersteunt AI model ontwikkeling.
- Nvidia's Cambridge-1: ook wel de krachtigste supercomputer in Groot-Brittannië genoemd, die door wetenschappers en gezondheidswerkers wordt gebruikt voor medisch en biologisch onderzoek.
- Marktvoorspellingen:
- De verwachting is dat de AI-supercomputermarkt tot 9.5 een samengesteld jaarlijks groeipercentage (CAGR) van 2026% zal kennen.
- De groei wordt gedreven door toegenomen wolk adoptie van technologie en de noodzaak om grote datasets te verwerken voor AI-training.
Verbonden AI-concepten
Diep leren versus machinaal leren
Stabiliteit AI-ecosysteem
Belangrijkste gratis gidsen: