搜索
歷史搜索
搜索發現

人工智能能源需求不斷增長,電網壓力巨大

2024-05-30 13:06:26| 來源:千家網| | 0

  人工智能技術的快速擴張,給全球電網帶來了巨大壓力。

  人工智能系統非常耗能。每次查詢模型時,整個系統都會被激活。因此從計算角度來看,這是非常低效的。這些系統,尤其是從頭開始生成內容的大型語言模型(LLM),需要大量的計算工作。據研究,人工智能系統消耗的能量比運行特定任務軟件的機器高出約33倍。

人工智能能源需求不斷增長,電網壓力巨大

  隱形能源成本

  雖然用于與AI模型交互的個人電腦和智能手機不是主要的能源消耗者,但真正的負擔落在全球龐大的數據中心身上。這些中心通常不為公眾所知,但處理著大量數據和計算任務。2022年,全球數據中心消耗了460太瓦時(TWh)的電力。國際能源署(IEA)預計,到2026年,這一數字將翻一番,達到1000TWh,相當于日本的總用電量。

  數據中心對于存儲和處理大量數據至關重要,不僅支持人工智能,還支持加密貨幣和其他數字服務。一些地區感受到的壓力更為嚴重。在都柏林,新數據中心建設的暫停反映了這些設施的大量能源消耗,這些設施目前消耗了愛爾蘭近20%的電力。與此同時,愛爾蘭家庭正在減少能源使用量。

  需求上升和基礎設施緊張

  在英國,國家電網預測,未來十年數據中心的電力需求將增長六倍,這主要得益于人工智能的發展。然而,電氣化運輸和供暖所需的總能源預計會更高。美國的公用事業也面臨著數據中心需求增加的壓力,與此同時,受政府政策刺激,國內制造業也出現復蘇。

  由于當地能源基礎設施承受巨大壓力,這種同時出現的需求激增正促使一些州重新考慮對數據中心開發商的稅收優惠。

  總之,隨著人工智能(AI)技術的快速發展,其能源需求也顯著增加,對電網造成了巨大的壓力。以下幾點概述了這一現象及其影響:

  1. 計算需求增加:

  AI模型尤其是深度學習模型,通常需要大量計算資源來進行訓練和推理。例如,大型語言模型如GPT-4需要數百個甚至上千個GPU或TPU,并持續運行數周或數月才能完成訓練。

  這些計算任務不僅需要高性能的硬件支持,還需要大量的電力來驅動這些硬件。

  2. 數據中心的能源消耗:

  AI訓練和推理工作大多在數據中心進行。這些數據中心通常包含成千上萬臺服務器,需要大量電力來運行和冷卻。

  數據中心的電力需求已經占全球電力消耗的1-2%,而AI相關的工作正在顯著增加這一比例。

  3. 可再生能源的挑戰:

  盡管許多技術企業致力于使用可再生能源來為其數據中心供電,但不穩定的可再生能源(如風能和太陽能)在面對高峰需求時可能難以提供足夠的電力。

  因此,電網需要具備足夠的彈性和備用電源,以應對AI工作負載的高峰期。

  4. 電網壓力:

  AI的能源需求會導致電網負荷增加,特別是在計算任務密集的時期。例如,當多個大型AI模型同時訓練時,可能會對電網造成顯著的瞬時負荷。

  電網需要進行升級和擴展,以滿足日益增長的需求,包括改進基礎設施和智能電網技術,以更有效地管理和分配能源。

  5. 碳足跡與環保:

  大量的電力消耗不僅增加了電網壓力,也對環境產生了影響。除非使用清潔能源,否則AI相關的電力需求會導致大量的碳排放。

  因此,如何平衡AI發展的能源需求與環保目標成為一個重要的議題。

  總之,隨著人工智能技術的發展,其對電力的需求也在不斷增長,這對現有的電網系統提出了巨大的挑戰。為了應對這一情況,需要在技術、政策和管理層面采取一系列措施,以確保電網能夠穩定、高效地支持人工智能的發展,同時盡量減少對環境的負面影響。

  來源:千家網


聯系銷售
銷售王經理微信 銷售王經理
微信公眾號 微信公眾號
服務熱線
400-6688-400