Forskning: Vi kan skære 70 procent af strømforbruget fra kunstig intelligens

Forskning viser, at størstedelen af strømmen til kunstig intelligens kan spares væk, hvis tech-giganterne blot skruer 1 procent ned for ambitionerne. ”Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger.”

Forskerne har estimeret hvor meget energi, det kræver at træne 429.000 af den undertype af AI-modeller, der hedder convolutional neural networks. De bruges bl.a. til at analysere medicinske billeder, til sprogoversættelse og til genkendelse af objekter. Foto: 123rf.com.

26.07.2024

SCM.dk

At det koster kolossale mængder energi, når vi googler, taler med Siri, spørger ChatGPT om noget eller på andre måder bruger AI, er efterhånden blevet almen viden.

Et studie anslår, at AI-servere i 2027 vil have et lige så stort elforbrug som Argentina eller Sverige. Og en enkelt forespørgsel til ChatGPT er anslået til i gennemsnit at sluge lige så meget energi som 40 opladninger af en mobiltelefon. 

Men på forskningsfeltet og i branchen har man stadig ikke fokus på at udvikle AI-modeller, som bruger mindre strøm og derfor har et mindre CO2-aftryk, påpeger forskere fra Københavns Universitet.

Læs også: Googles CO2-udledning eksploderer

“Udviklerne har i dag et snævert fokus på at bygge AI-modeller, der er effektive i form af, hvor præcist et resultat, de kan opnå. Det svarer til at sige, at en bil er effektiv, fordi den får dig hurtigt frem, men ignorerer den mængde brændstof, den bruger. Og det har resulteret i AI-modeller, som ofte er ineffektive i form af energiforbrug,” siger adjunkt Raghavendra Selvan fra Datalogisk Institut, som forsker i mulighederne for at sænke CO2e-aftrykket fra AI.

Men det nye studie, som han og datalog-studerende Pedram Bakhtiarifard er to af forfatterne bag, viser, at man sagtens kan spare masser af CO2 uden at gå på kompromis med AI-modellens præcision.

Læs også: Adjunkt: AI's stigende CO2-aftryk er en udfordring. Her er, hvad vi kan gøre ved det

Studiet viser, at man enten ved at vælge andre slags modeller eller justere på modellerne kan spare 70-80 procent energi i trænings- og implementeringsfasen og kun gå 1 procent eller mindre ned i ydeevne.

”Man kan se vores resultater som en opskriftsbog, som AI-fagkyndige kan slå op i. Opskriftsbogen fortæller ikke bare, hvor godt de forskellige algoritmer yder, men også hvor energieffektive de er. Og at man ved at skifte en ingrediens ud med en anden i opbygningen af modellen, ofte kan opnå samme resultat. Så nu kan fagfolk vælge den model, de ønsker ud fra både ydeevne og energiforbrug og uden at skulle træne hver enkelt model først,” siger Pedram Bakhtiarifard.

– HCL

Descartes

Sponseret

Toldbehandling fra Descartes – øg resiliensen i forsyningskæden

AGR

Sponseret

Er dit ERP nok til lagerstyring? Sådan lukker AGR hullerne i forsyningskæden

Relateret indhold

13.12.2024SCM.dk

Eksperter er bekymrede for Danmarks kritiske infrastruktur

13.12.2024Thyborøn Havn

Sponseret

Thors sekundære stålkonstruktioner skal installeres fra Thyborøn Havn og havnen er valgt som installationshavn

12.12.2024SCM.dk

Store danske virksomheder hænger lidt i menneskerettighedsbremsen

11.12.2024SCM.dk

Den grønne omstilling sætter elforsyningssikkerheden under pres

11.12.2024SCM.dk

Nyt initiativ skal styrke det danske kriseberedskab

11.12.2024SCM.dk

Bæredygtighed er vigtigt men også svært

10.12.2024Toyota Material Handling A/S

Sponseret

Toyota er certificeret som "Et godt sted at arbejde"

06.12.2024SCM.dk

Forskere og praktikere vil accelerere innovation inden for logistik

Jobmarked

Se alle

Hold dig opdateret med SCM.dk

Tilmeld dig nyhedsbrevet og følg med i alt som rører sig indenfor ledelse af forsyningskæden, Nyhedsbrevet kommer kun to gange pr. uge.

Se flere temaer

Events

Se alle