graphical user interface
Photo by Choong Deng Xiang

KI könnte die Halluzination grüner Energie verdampfen lassen

Weitere KI-Rechenzentren, die eigene Stromerzeugung und -versorgung bekommen sind in Planung

Massiver Bedarf an KI-Zentren könnte Plattitüden und Halluzinationen im Bereich der grünen Energie in die harte Realität verwandeln 

Setzen Sie nicht darauf, dass ein Ökostromkartell den Klimawandel mit Subventionen für schwache und zeitweilig verfügbare Windräder und Sonnenstrahlen bekämpft und sich gegen die Pragmatiker von KI-Rechenzentren durchsetzt, die bereit sind, enorme Ausgaben zu tätigen, die für den kolossalen Ausbau der wetterunabhängigen Stromversorgung rund um die Uhr im Wettbewerb mit der Dominanz Chinas unerlässlich sind.

Der Strombedarf zur Versorgung der geplanten neuen Rechenzentren wird in direktem Wettbewerb mit dem wachsenden Bedarf an Grundlastnetzen und den Preisbudgets der derzeitigen privaten und gewerblichen Nutzer stehen, darunter Haushalte mit Klimaanlagen, Ladestationen für Elektrofahrzeuge und die industrielle Fertigung.

Joe Bowring, Präsident von Monitoring Analytics, der unabhängigen Aufsichtsbehörde für PJM Interconnection, den größten Netzbetreiber des Landes und Knotenpunkt für neue Rechenzentren, warnte : „Es gibt einfach keine neue Kapazität, um die neuen Lasten“ durch KI-„Hyperscaler“ zu decken.

Die Schuld an dieser Energieknappheit liegt zu einem großen Teil bei den EPA-Regeln der Biden-Regierung, die zu vorzeitigen Stilllegungen von Kohlekraftwerken führen. Zudem machen bundesstaatliche und staatliche Vorgaben zur Nutzung erneuerbarer Energien den Bau neuer Erdgaskraftwerke übermäßig teuer und subventionieren stattdessen teure Solar- und Windenergie. Dies wiederum untergräbt die Kostenwettbewerbsfähigkeit der Atomenergie auf den Großhandelsmärkten.

Teilweise aufgrund der Sorge, dass China Amerika in der globalen militärischen und wirtschaftlichen KI-Führung überholen könnte , schlägt die Trump-Administration vor, die wirkungslosen, auf der Klimaalarmierung basierenden, politischen Hindernisse aus der Obama- und Biden-Ära, die auf Ökoenergie basieren, auszuräumen und den wachsenden Rückstand bei den durch Investitionen unterstützten Rechenzentrumsvorschlägen abzubauen. Dies soll durch eine Reform der „Strommärkte geschehen, um finanzielle Anreize mit dem Ziel der Netzstabilität in Einklang zu bringen“.

Dazu gehören Empfehlungen der Federal Trade Commission, die unter Bidens Vorsitzende Lina Khan eingeleiteten Untersuchungen einzustellen, die „Haftungstheorien fördern, die KI-Innovationen übermäßig belasten“, und die Bundesbehörden dazu zu bewegen, im Rahmen des National Environmental Policy Act Ausnahmen für Rechenzentren festzulegen, die Verzögerungen bei der Projektgenehmigung verkürzen.

Das Weiße Haus unter Trump wird sich außerdem um eine freundliche Gesetzgebung im Kongress bemühen, um Projektverzögerungen und Planstornierungen zu verhindern, die durch endlose Umweltprozesse und Kartellkonflikte zwischen OpenAI und Microsoft verursacht werden.

Der Wettbewerb um die Rechenzentren der Unternehmen ist bereits enorm : Alphabet plant, in diesem Jahr rund 75 Milliarden US-Dollar auszugeben, Meta investiert zwischen 64 und 72 Milliarden US-Dollar und OpenAI arbeitet mit SoftBank und anderen an Plänen für ein 500-Milliarden-Dollar-Projekt in den nächsten vier Jahren.

Obwohl es derzeit unmöglich ist, die für das amerikanische Wettrennen um künstliche Intelligenz benötigte Strommenge zu skalieren , entsprechen die kollektiven Anfragen dem bestehenden Bedarf vieler regionaler Grundlastversorgungskapazitäten um ein Vielfaches oder übertreffen ihn sogar.

American Electric Power (AEP), ein großes Versorgungsunternehmen, das elf US-Bundesstaaten versorgt, verzeichnet einen Anstieg, der ausreicht, um mindestens 48 Millionen Haushalte mit Strom zu versorgen , während Oncor, ein texanisches Versorgungsunternehmen von Sempra, dessen durchschnittliche Anforderungsrate für die Verbindung von Rechenzentren zuvor weniger als 100 Megawatt Strom benötigte, nun fast 700 Megawatt benötigt .

Oncor, das einen großen Teil der Region Dallas-Fort Worth bedient, darunter wichtige Märkte für Rechenzentren und hochelektrifizierte Ölfeldbetriebe in Westtexas, hatte bis Ende Juni 552 Anfragen von Großkunden in seiner Warteschlange, 30 % mehr als Ende März.

Gemeinsam haben American Electric Power und Oncor Anfragen zum Anschluss von Rechenzentren erhalten, die fast 400 Gigawatt Strom benötigen . Das entspricht mehr als der Hälfte des Bedarfs in den unteren 48 Staaten an zwei heißen Julitagen.

CenterPoint Energy, ein Energieversorger, der den Großraum Houston versorgt, zu dem auch ein großer Industrie- und Medizinstandort gehört, verzeichnet einen enormen Anstieg des Strombedarfs mit Anfragen zur Zusammenschaltung von etwa 53 Gigawatt Leistung, wovon etwa 25 Gigawatt von Rechenzentren stammen.

Eine weitere Explosion neuer Hyperscale-Rechenzentren in Nord-Virginia wird enorme Mengen Strom verbrauchen, manche davon so viel, wie derzeit zur Versorgung der Stadt Seattle benötigt wird.

Das als „Data Center Alley“ bezeichnete Gebiet beherbergt rund 150 Datenlager, die über ein Spinnennetz aus sich kreuzenden Stromleitungen etwa 70 % des weltweiten Internetverkehrs abwickeln.

Amazon hat Berichten zufolge 19 Solarparks in Virginia errichtet und ist der weltweit größte gewerbliche Abnehmer erneuerbarer Energien.

Dominion Energy, das die meisten Rechenzentren in Virginia mit Strom versorgt, geht davon aus, dass sich sein Strombedarf in den nächsten 15 Jahren vervierfachen wird, was 40 % des Bedarfs des Energieversorgers im gesamten Bundesstaat entspricht.

Die Versorgungsunternehmen müssen mit der Realität rechnen, dass nicht alle dieser Anfragen erfüllt werden. Dadurch besteht das Risiko, dass durch den Bau zu vieler Kraftwerke oder Übertragungsleitungen andere Kunden auf den Kosten für die Infrastruktur sitzen bleiben.

Laut Angaben des Arbeitsministeriums stiegen die Strompreise im ganzen Land im vergangenen Jahr um satte 5,5 % und übertrafen damit die Inflation .

Während der Strombedarf in den USA zwei Jahrzehnte lang bis etwa 2020 stagnierte, ist sein aktueller Anstieg um etwa 2 % pro Jahr größtenteils auf den Betriebsstrombedarf der KI zurückzuführen, der dazu führen kann, dass eine Suche auf einer generativen KI-Plattform wie ChatGPT enorme Mengen an Rechenleistung verbraucht , mindestens zehnmal so viel Energie wie eine Google-Suche.

Da der Strombedarf von Rechenzentren bis 2030 voraussichtlich jährlich um 13 bis 15 Prozent steigen wird, verzögert sich der Bau neuer Rechenzentren aufgrund von Energieknappheit bereits jetzt um zwei bis sechs Jahre.

Mark Christie, der für die Regulierung der US-Energiebehörde zuständige Kommissar , warnte: „Das Problem besteht darin, dass die Energieversorger ihre fossilen Brennstoffe und Atomkraftwerke rasch stilllegen. Wir verbrauchen bedarfsgerechte Ressourcen [fossiler Brennstoffe] in einem Tempo, das nicht nachhaltig ist, und wir können keine bedarfsgerechten Ressourcen aufbauen, um die stillgelegten bedarfsgerechten Ressourcen zu ersetzen.“

Wir müssen uns nicht auf eine superintelligente KI verlassen, die uns warnt, dass dies eine dumme Politik war, die die Trump-Regierung nun endlich ändert.

AI is worse than ClimateChange + Eric Schmidt on AI-Future

AI benötigt mehr Strom als zur Verfügung steht, deshalb werden hier Klima-Argumente ausgeblendet

AI Rechenzentren bekommen Priorität, auch als Stromfresser + CO2 Schleuder

Stellen Sie sich vor, ein großes Fundamentmodell wäre ein Wolkenkratzer und die Bauarbeiter wären GPUs. Das wäre so, als ob Sie versuchen würden, sie alle während des gesamten Projekts ständig auf Hochtouren arbeiten zu lassen und sie gleichzeitig miteinander kommunizieren zu lassen, damit alles in der richtigen Reihenfolge und gemäß den Bauplänen gebaut wird.

Die Erstellung eines perfekt synchronisierten Systems zum Aufbau eines riesigen KI-Modells ist eine enorme technische Herausforderung und geht oft schief. GPU-Ausfälle (oft aufgrund von Überhitzung) können einen Trainingslauf ruinieren.

Selbst eine Verzögerung bei der Kommunikation zwischen GPUs könnte sich beim Training als katastrophal erweisen. Hinzu kommt die Komplexität mehrerer geografisch verteilter Rechenzentren, was bedeutet, dass noch mehr Dinge schiefgehen können.

Der Halbleiteranalyst Patrick Moorhead, Gründer und CEO von Moor Insights and Strategy, sagte, dass Rechenzentren in vielen Bereichen an ihre Grenzen stoßen. So seien sie beispielsweise auf effizientere Flüssigkeitskühlsysteme umgestiegen, was vor der Ära der riesigen KI-Rechenzentren als unnötig galt.

Bei Rechenzentren kann es passieren, dass ab einer bestimmten Größe die Kühlsysteme allein zum Engpass werden, weil sie zu viel Strom aus dem Netz ziehen oder zu ineffizient werden.

Chinesische Hyperscaler experimentieren bereits mit Anschluss mehrere Datenzentren, um KI-Modelle zu trainieren, sagte Moorhead. Dabei kommen allerdings nicht die leistungsstärksten KI-Chips zum Einsatz, deren Verkauf dort für US-Unternehmen illegal ist.

Obwohl die Verbindung zweier Rechenzentren eine Herausforderung darstellt, glauben manche, dass das Trainieren eines KI-Modells eines Tages mit kleineren Computern möglich sein könnte. verteilen auf der ganzen Welt.

Unternehmen wie Gensyn arbeiten an neuen Methoden zum Trainieren von KI-Modellen, die praktisch jede Art von Berechnung nutzen können, sei es eine weniger leistungsstarke CPU oder eine GPU.

Die Idee ist eine exponentiell kompliziertere Version von SETI @ home, ein Experiment, bei dem jeder mit seinem Computer bei der Analyse von Radioteleskopdaten mithelfen konnte, in der Hoffnung, außerirdisches Leben zu entdecken.

Derzeit muss das Training der größten und leistungsstärksten KI-Modelle zentralisiert erfolgen, auch wenn zwei oder drei Rechenzentren dasselbe Modell gleichzeitig trainieren können.

Aber wenn Russinovichs Idee ein erster Schritt hin zu einer wirklich verteilten Methode zum Trainieren von KI-Modellen ist, wäre das eine große Sache und könnte das KI-Training letztlich auch für diejenigen zugänglicher machen, die nicht über Milliarden von Dollar verfügen. Das würde auch bedeuten, dass KI-Chips wie Nvidias GPUs nicht mehr so ​​wichtig wären. Man könnte weniger fortschrittliche Chips verwenden, aber mehr davon verbinden, um das gleiche Rechenleistungsniveau zu erreichen.

Chiphersteller tun bereits alles, um einen einzelnen Prozessor leistungsfähiger zu machen. Nvidias Blackwell-Chips sind eigentlich zwei separate Chips. Cerebras stellt einen Chip her, der so groß ist wie ein Teller Und TSMC ist arbeiten, über Möglichkeiten, Chips noch größer zu machen.

Das Coole an den Bemühungen, KI-Training und -Inferenz in eine verteilte Richtung zu lenken, ist, dass sie Start-ups neue Möglichkeiten eröffnen, Innovationen hervorzubringen und möglicherweise etablierte Unternehmen zu verdrängen.

www.technocracy.news/de

US data centers will soon hit size limits

Was ist so schlimm an der Weltherrschaft?

Deepseek: Das Ende der Gigantomanie in der KI-Forschung

Technokratie News

KI könnte die Halluzination grüner Energie verdampfen lassen
Leserwertung hier klicken2 Bewertungen
91
Placeholder

About

Nachhaltigkeit + die Entdeckung Trojanischer Pferde…

Populäre Projektionen dessen, wie eine Bewusstseinsveränderung aussehen wird, sind in den meisten Fällen nur eine Neugestaltung der “alten Denkschablonen “. Eine größere, bessere Box, in der das Paradigma aufgewertet wird, das die Bedingungen verbessert, unter denen wir unsere Sucht auf eine “grüne” Art und Weise genießen können.

So wichtig wie das ökologische Bewusstsein ist, es ist nicht genug. Das neue Paradigma kann nicht aus der intellektuellen Abstraktion einer dualistischen Interpretation einer “besseren Welt” verwirklicht werden, die auf der Infrastruktur der existierenden Varianten-Matrix aufbaut, die dieses Paradigma erzeugt.

Mitglieder

Zeen placeholder
Gut zu wissen
Informationen zu akutellen Themen