Forskning: Vi kan skære 70 procent af strømforbruget fra kunstig intelligens

Forskning viser, at størstedelen af strømmen til kunstig intelligens kan spares væk, hvis tech-giganterne blot skruer 1 procent ned for ambitionerne. ”Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger.”

Forskerne har estimeret hvor meget energi, det kræver at træne 429.000 af den undertype af AI-modeller, der hedder convolutional neural networks. De bruges bl.a. til at analysere medicinske billeder, til sprogoversættelse og til genkendelse af objekter. Foto: 123rf.com.

26.07.2024

SCM.dk

At det koster kolossale mængder energi, når vi googler, taler med Siri, spørger ChatGPT om noget eller på andre måder bruger AI, er efterhånden blevet almen viden.

Et studie anslår, at AI-servere i 2027 vil have et lige så stort elforbrug som Argentina eller Sverige. Og en enkelt forespørgsel til ChatGPT er anslået til i gennemsnit at sluge lige så meget energi som 40 opladninger af en mobiltelefon. 

Men på forskningsfeltet og i branchen har man stadig ikke fokus på at udvikle AI-modeller, som bruger mindre strøm og derfor har et mindre CO2-aftryk, påpeger forskere fra Københavns Universitet.

Læs også: Googles CO2-udledning eksploderer

“Udviklerne har i dag et snævert fokus på at bygge AI-modeller, der er effektive i form af, hvor præcist et resultat, de kan opnå. Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger. Og det har resulteret i AI-modeller, som ofte er ineffektive i form af energiforbrug,” siger adjunkt Raghavendra Selvan fra Datalogisk Institut, som forsker i mulighederne for at sænke CO2e-aftrykket fra AI.

Men det nye studie, som han og datalog-studerende Pedram Bakhtiarifard er to af forfatterne bag, viser, at man sagtens kan spare masser af CO2 uden at gå på kompromis med AI-modellens præcision.

Læs også: Adjunkt: AI's stigende CO2-aftryk er en udfordring. Her er, hvad vi kan gøre ved det

Studiet viser, at man enten ved at vælge andre slags modeller eller justere på modellerne kan spare 70-80 procent energi i trænings- og implementeringsfasen og kun gå 1 procent eller mindre ned i ydeevne.

”Man kan se vores resultater som en opskriftsbog, som AI-fagkyndige kan slå op i. Opskriftsbogen fortæller ikke bare, hvor godt de forskellige algoritmer yder, men også hvor energieffektive de er. Og at man ved at skifte en ingrediens ud med en anden i opbygningen af modellen, ofte kan opnå samme resultat. Så nu kan fagfolk vælge den model, de ønsker ud fra både ydeevne og energiforbrug og uden at skulle træne hver enkelt model først,” siger Pedram Bakhtiarifard.

– HCL

Toyota Material Handling A/S

Sponseret

Ny Toyota Traigo48-serie med uovertruffent design og banebrydende ydeevne

Apport Systems A/S

Sponseret

Lagerstyring på autopilot - få dit lager til at tænke selv

Relateret indhold

29.04.2025SCM.dk

Virksomheder frygter politisk vold og uro

28.04.2025SCM.dk

Toldkrig truer vækst – IMF nedjusterer globale prognoser

25.04.2025Global AGV

Sponseret

Mød Global AGV på ROBOTBRAG

24.04.2025SCM.dk

DTU-startups tiltrækker 1,8 milliarder i venturekapital i 2024

24.04.2025SCM.dk

Hg Capital opruster i IFS – værdi 112 milliarder kroner

23.04.2025SCM.dk

DSV styrker topledelsen før Schenker-overtagelse

23.04.2025SCM.dk

Dachser opruster søfragt i Norden med ny leder

18.04.2025SCM.dk

Dollaren vakler: Investorer flygter ikke længere mod USA i krisetider

Hold dig opdateret med SCM.dk

Tilmeld dig nyhedsbrevet og følg med i alt som rører sig indenfor ledelse af forsyningskæden, Nyhedsbrevet kommer kun to gange pr. uge.

Se flere temaer

Events

Se alle