We did the math on AI’s energy footprint. Here’s the story you haven’t heard.

[ad_1]

Nu we een schatting hebben van de totale energie die nodig is om een ​​AI -model te gebruiken om tekst, afbeeldingen en video’s te produceren, kunnen we uitzoeken wat het betekent over emissies die klimaatverandering veroorzaken.

Ten eerste is een verdwenen datacenter niet noodzakelijk een slechte zaak. Als alle datacenters verbonden zouden zijn met zonnepanelen en alleen zou rennen wanneer de zon scheen, zou de wereld veel minder praten over het energieverbruik van AI. Dit is niet het geval. De meeste elektrische roosters over de hele wereld zijn nog steeds erg afhankelijk van fossiele brandstoffen. Het gebruik van elektriciteit is daarom bevestigd met een klimaattol.

“AI datacenters hebben constante macht nodig, 24-7, 365 dagen per jaar”, zegt Raha Mewawalla, CEO van Mawson Infrastructure Group, die hoogwaardige datacenters bouwt en onderhoudt die AI ondersteunen.

Dit betekent dat datacenters niet kunnen vertrouwen op intermitterende technologieën zoals wind- en zonne -energie, en dat ze gemiddeld vuile elektriciteit gebruiken. Uit een pre -drukonderzoek van de TH Chan School of Public Health van Harvard bleek dat de koolstofintensiteit van elektriciteit die door datacenters wordt gebruikt 48% hoger dan het Amerikaanse gemiddelde. Een deel van de reden is dat datacenters momenteel toevallig worden gecombineerd op plaatsen die gemiddeld vuile roosters hebben, zoals het kolenzware rooster in de Mid-Atlantische regio die Virginia, West Virginia en Pennsylvania omvat. Ze lopen ook constant, ook wanneer schonere bronnen mogelijk niet beschikbaar zijn.

Gegevens – centra kunnen niet vertrouwen op intermitterende technologieën zoals wind- en zonne -energie, en gemiddeld gebruiken ze de neiging om vuile elektriciteit te gebruiken.

Technische bedrijven zoals Meta, Amazon en Google hebben op dit fossiele brandstofprobleem gereageerd door doelen aan te kondigen om meer kernenergie te gebruiken. De drie namen deel aan een belofte in 2025 om het kernvermogen van de wereld te verdrievoudigen. Maar vandaag is kernenergie slechts 20% van de elektriciteitsvoorziening in de VS en geeft een fractie van de AI -datacentersactiviteiten – die meer dan de helft van de elektriciteit wordt gegenereerd VirginiaBijvoorbeeld, die meer datacenters heeft dan elke andere Amerikaanse staat. Bovendien zullen nieuwe kernactiviteiten jaren, misschien decennia, duren om te beseffen.

In 2024, fossiele brandstoffen, waaronder aardgas en steenkool, net hieronder 60% van de elektriciteitsvoorziening in de VS. Core was goed voor ongeveer 20%en een mengsel van hernieuwbare energie was het grootste deel van de resterende 20%.

We did the math on AI’s energy footprint. Here’s the story you haven’t heard.

Hiaten in de stroombron, gecombineerd met de haast om datacenters te bouwen om AI te stimuleren, betekent vaak dat korte energieplannen voor korte met korting. In april werd het X Supercomputing Center van Elon Musk gevonden in de buurt van Memphis, via satellietbeelden, om tientallen methaangasgeneratoren te gebruiken die volgens het Southern Environmental Law Center niet goedgekeurd door energieregelgevers om toast aan te vullen en wordt de Clean Air Act geschonden.

De belangrijkste metriek die wordt gebruikt om de emissies van deze datacenters te kwantificeren, wordt de koolstofintensiteit genoemd: hoeveel gram kooldioxide-emissies worden geconsumeerd voor elke kilowattuur elektriciteit. Om de koolstofintensiteit van een bepaald netwerk te nagelen, moet u de emissies begrijpen die door elke individuele krachtcentrale is ingesteld, samen met de hoeveelheid energie die elk op een bepaald moment bijdraagt ​​aan het net. Hulpprogramma’s, overheidsinstanties en onderzoekers gebruiken schattingen van gemiddelde emissies, evenals real -time metingen, om vervuiling van energiecentrales te detecteren.

Deze intensiteit varieert sterk over regio’s. Het Amerikaanse rooster is gefragmenteerd en de mengsels van steenkool, gas, hernieuwbare energie of kernenergie verschillen sterk. Het netwerk van Californië is bijvoorbeeld veel schoner dan de West Virginia.

Tijd van de dag is ook belangrijk. Uit gegevens van april 2024 blijkt bijvoorbeeld dat California Grid de middag van minder dan 70 gram per kilowattuur kan slingeren als er in het midden van de nacht meer dan 300 gram per kilowattuur per kilowattuur beschikbaar is.

Deze variabiliteit betekent dat dezelfde activiteit veel verschillende klimatologische effecten kan hebben, afhankelijk van uw locatie en de tijd dat u een verzoek doet. Neem bijvoorbeeld die liefdadigheidsmarathonloper. De tekst-, afbeeldings- en video-antwoorden die ze vroegen, tellen op tot 2,9 kilowattuur elektriciteit. In Californië zou het genereren van de hoeveelheid elektriciteit gemiddeld ongeveer 650 gram koolstofdioxide vervuiling opleveren. Maar het genereren van elektriciteit in West Virginia kan het totaal opblazen tot meer dan 1150 gram.

Ai om de hoek

Wat we tot nu toe hebben gezien, is dat de energie die nodig is om op een vraag te reageren relatief klein kan zijn, maar het kan veel variëren, afhankelijk van het type query en het gebruikte model. De emissies die verband houden met die gegeven hoeveelheid elektriciteit, hangt ook af van waar en wanneer een vraag wordt afgehandeld. Maar wat voegt het allemaal toe?

Chatgpt is nu geschat Om de vijfde bezochte website ter wereld te zijn, alleen voor Instagram en voor X. In december zei Openai dat Chatgpt elke dag 1 miljard berichten ontvangt, en nadat het bedrijf in maart een nieuwe beeldgenerator heeft gelanceerd gezegd Dat mensen het gebruikten om 78 miljoen afbeeldingen per dag te genereren, van studio -ghibli -stijl portretten tot foto’s van zichzelf als Barbie -poppen.

Gezien de richting die AI gaat – meer gepersonaliseerd, in staat om namens ons gecompliceerde problemen op te lossen en op te lossen, en overal waar we kijken – is het waarschijnlijk dat onze AI de kleinste vandaag is die het ooit zal zijn.

Men kan veel ruwe wiskunde doen om de energie -impact te schatten. In februari publiceerde het AI -onderzoeksbureau Epoch AI een schatting van hoeveel energie gebruikte voor een enkele chatgpt -onderzoek -een schatting dat, zoals besproken, veel veronderstellingen die niet kunnen worden geverifieerd. Toch berekenden ze ongeveer 0,3 watt uur of 1.080 joules, per bericht. Het valt tussen onze schattingen voor de kleinste en grootste meta -lama -modellen (en experts die we hebben geraadpleegd, zeggen dat het reële aantal waarschijnlijk hoger is, niet lager).

Een miljard van dit elke dag voor een jaar zou meer dan 109 gigawatt-uren elektriciteit betekenen, genoeg om een ​​jaar lang 10.400 Amerikaanse huizen te stimuleren. Als we afbeeldingen toevoegen en suggereren dat het genereren van elke behoefte zoveel energie als onze hoogwaardige beeldmodellen, zou dit nog eens 35 gigawatturen betekenen, genoeg om nog eens 3.300 huizen voor een jaar te geven. Het zijn ook de energievereisten van de andere producten van Openai, zoals videogeratoren, en dit voor alle andere AI -bedrijven en startups.

Maar hier is het probleem: deze schattingen leggen de nabije toekomst niet vast hoe we AI zullen gebruiken. In de toekomst zullen we niet alleen AI -modellen met een vraag of twee gedurende de dag ping, of dat ze een foto kunnen genereren. In plaats daarvan haasten prominente laboratoria naar een wereld waar AI -agenttaken voor ons presteren zonder toezicht te houden op elke beweging. We zullen praten met modellen in de stemmodus, met metgezellen praten voor 2 uur per dagEn toon onze telefooncamera’s in ons gebied in de videomodus. We zullen gecompliceerde taken geven aan zo -geroepen “redeneermodellen” die logisch werken via taken gevonden te vereisen 43 keer meer energie voor eenvoudige problemen, of ‘diepe onderzoeksmodellen’ die uren besteden aan het maken van rapporten voor ons. We zullen AI -modellen hebben die ‘gepersonaliseerd’ zijn door te trainen over onze gegevens en voorkeuren.

Deze toekomst is er: Openai zal naar verluidt agenten aanbieden voor $ 20.000 per maand en de redeneermogelijkheden gebruiken in al zijn modellen, en Deepseek heeft “” denken “denken” in de mainstream met een model dat vaak negen pagina’s met tekst genereert voor elk antwoord. AI -modellen worden toegevoegd aan alles, van telefoonlijnen voor klantenservice tot de kantoren van de arts, wat snel het deel van de AI van het nationale energieverbruik verhoogt.

“De kostbare paar nummers die we hebben, kunnen een klein licht verlichten waar we nu staan, maar alle weddenschappen zijn de komende jaren uitgeschakeld”, zegt Luccioni.

Elke onderzoeker met wie we spraken zei dat we de energievereisten van deze toekomst niet kunnen begrijpen door eenvoudigweg te extrapoleren van de energie die wordt gebruikt in AI -vragen vandaag. En inderdaad, de bewegingen door AI -bedrijven te leiden om kerncentrales af te vuren en ongekende schaalgegevenscentra te creëren, geven aan dat hun visie op de toekomst veel meer energie zou verbruiken dan zelfs een groot aantal van deze individuele vragen.

“De kostbare paar nummers die we hebben, kunnen een klein licht verlichten waar we nu staan, maar alle weddenschappen zijn de komende jaren uitgeschakeld”, zegt Luccioni. “Generatieve AI -instrumenten worden praktisch weggevaagd in onze keel en het wordt moeilijker en moeilijker te accepteren, of om geïnformeerde keuzes te maken als het gaat om energie en klimaat.”

Om te begrijpen hoeveel macht deze AI -revolutie nodig heeft en waar deze vandaan komt, moeten we tussen de regels lezen.

[ad_2]

We did the math on AI’s energy footprint. Here’s the story you haven’t heard.

Leave a Reply

Your email address will not be published. Required fields are marked *