Microsoft-innovationer: Kylning inuti AI-chip och ljusdrivna datorer
Mark Russinovich, CTO och Deputy CISO för Microsoft Azure.
Under Ignite visade Microsoft upp tungvrickar-tekniken mikrofluidikkylning, där man kylar ner AI-chip i chipet snarare än på utsidan. Dessutom presenterade bolaget en analog, optisk dator som använder ljus för att utföra komplexa beräkningar. Dessa två innovationer kan enligt Microsoft på olika sätt motverka den ökande energiförbrukningen som följer med AI:s snabbt växande beräkningsbehov.
Kan vi motverka den växande energiförbrukningen och värmeutvecklingen som följer med AI:s snabbt växande beräkningsbehov? Om detta pratade Mark Russinovich, CTO och Deputy CISO för Microsoft Azure under Microsoft Ignite, framför allt i form av två nya teknologier som på olika sätt hanterar denna utmaning.
Innovationerna är mikrofluidikkylning samt en analog, optisk dator som använder ljus för att utföra beräkningar.
Först berättade han om det som kallas mikrofluidikkylning (microfluidics cooling) – en kylteknologi som Microsoft utforskar för moderna AI- och HPC-chip (high performance computing). Dessa chip genererar nämligen väldigt mycket värme, vilket begränsar hur tätt de kan packas i datacenter och driver upp energiförbrukningen.
Grundidén är att man i stället för att kyla ett chip från utsidan, flyttar in kylningen i själva chipet. Detta sker genom att man integrerar mikroskopiska vätskekanaler direkt i kiselstrukturen. På så sätt minskas energiförbrukningen och vattenanvändningen jämfört med traditionella metoder – datacenter förbrukar idag miljontals liter vatten om året. Microsoft har använt maskininlärning för att optimera placeringen av dessa vätskekanaler så att de hamnar vid specifika hotspots.
– I praktiken ger det två–tre gånger effektivare kylning och kan sänka GPU-temperaturerna med ungefär 20 grader. Det går också att få in fler chip per rack utan att de blir överhettade. Mikrofluidikkylning är i allra högsta grad på väg att gå till produktion. Under de kommande fem åren tror jag att industrin kommer gå mer åt det här kylningssättet, i alla fall när det gäller AI- och HPC-chip, sade Mark Russinovich under sitt pass på Ignite.
Optisk analog dator för komplexa beräkningar
Nästa steg för att möta AI:s växande beräkningsbehov är AOC – det vill säga en analog optical computer, som utvecklats på Microsofts forskningslabb i Storbritannien. Om mikrofluidikkylningen angriper problemet från hårdvarusidan, angriper AOC i stället problemet från beräkningssidan. Som namnet antyder rör detta sig om en optisk, analog dator som använder ljus och analoga signaler för att utföra beräkningar, i stället för elektroner och digital logik som i vanliga datorer.
Den analoga optiska datorn har utvecklats på Microsofts forskningslabb i Storbritannien.
En AOC fungerar i rumstemperatur och är byggd med komponenter som mikro-LED, optiska linser och sensorer. Ljuset från mikro-LED moduleras och passerar genom optiska element som representerar en matris. Sensorn i slutet mäter resultatet.
– Det här är typ det häftigaste jag någonsin sett. En AOC behöver ingen kylning alls och är 100 gånger snabbare och mer energieffektiv än GPU:er för vissa uppgifter. Den gör, bokstavligt talat, sina beräkningar i ljusets hastighet.
AOC ses inte som en ersättare till digitala datorer, utan mer som ett komplement för specifika beräkningar som linjär algebra och optimeringsproblem. Och tekniken har redan testats praktiskt. På banken Barclays har AOC använts för att modellera tusentals transaktioner mellan cirka 1 800 parter. Här löste den optiska datorn en optimeringsalgoritm för att hitta den mest effektiva ordningen för att genomföra alla transaktioner.
Därutöver har Microsoft Health Research lyckats snabba på bildrekonstruktionsprocessen inom magnetresonstomografi (MRI) genom att använda AOC.
– Analog Optical Computer är världens första optiska analoga dator byggd med skalbara, kostnadseffektiva komponenter. Den representerar ett helt nytt sätt att utföra beräkningar och öppnar dörren för enorma prestanda- och energieffektivitetsvinster inom AI och optimering, avslutar Mark Russinovich.
Läs mer om ämnet:
