<big id="qd94c"></big>
    <td id="qd94c"><strike id="qd94c"></strike></td>
        <p id="qd94c"><del id="qd94c"></del></p>
        <table id="qd94c"><noscript id="qd94c"></noscript></table>
        
        
      1. <td id="qd94c"><option id="qd94c"></option></td>

        新聞中心

        【pg娛樂電子游戲官網】耗電又耗水,誰能解救AI能耗之傷?

        發布時間:2023-11-04 22:34:58    作者:pg電子,pg電子官方網站,pg娛樂電子游戲官網

        今日,耗電以ChatGPT為代表的又耗AI大模型在給人類社會帶來巨大革新的一起,也由于能耗問題飽嘗爭議。解救pg娛樂電子游戲官網

        經濟學人最新發稿稱:包含超級核算機在內的耗電高性能核算設備,正成為動力耗費大戶。又耗依據國際動力署估量,解救數據中心的耗電用電量占全球電力耗費的1.5%至2%,大致適當于整個英國經濟的又耗用電量。估量到2030年,解救這一份額將上升到4%。耗電

        【pg娛樂電子游戲官網】耗電又耗水,誰能解救AI能耗之傷?

        人工智能不只耗電,又耗還費水。解救谷歌發布的耗電2023年環境陳述顯現,其2022年耗費了56億加侖(約212億升)的又耗水,適當于37個高爾夫球場的解救水。其間,52億加侖用于公司的數據中心,比2021年添加了20%。

        【pg娛樂電子游戲官網】耗電又耗水,誰能解救AI能耗之傷?

        面臨巨大能耗本錢,人工智能(AI)想要走向未來,經濟性已經成為ChatGPT亟待處理的現實問題。而假如要處理能耗問題,任安在現有技能和架構基礎上的優化辦法都將是抱薪救火,在這樣的布景下,前沿技能的打破或是才破解AI能耗困局的終極計劃。

        人工智能正在吞噬動力。

        從核算的實質來說,核算便是把數據從無序變成有序的進程,而這個進程則需求必定能量的輸入。

        僅從量的方面看,依據不徹底統計,2020年全球發電量中,有5%左右用于核算才干耗費,而這一數字到2030年將有或許提高到15%到25%左右,pg娛樂電子游戲官網也便是說,核算工業的用電量占比將與工業等耗能大戶混為一談。

        2020年,我國數據中心耗電量打破2000億度,是三峽大壩和葛洲壩電廠發電量總和(約1000億千瓦時)的2倍。

        實際上,關于核算工業來說,電力本錢也是除了芯片本錢外最中心的本錢。

        假如這些耗費的電力不是由可再生動力發生的,那么。就會發生碳排放。這便是機器學習模型,也會發生碳排放的原因。ChatGPT也不破例。

        有數據顯現,練習 GPT-3 耗費了1287MWh(兆瓦時)的電,適當于排放了552噸碳。關于此,可繼續數據研討者卡斯帕-路德維格森還剖析道:“GPT-3 的許多排放能夠部分解說為它是在較舊、功率較低的硬件上進行練習的,但由于沒有衡量二氧化碳排放量的規范化辦法,這些數字是根據估量。別的,這部分碳排放值中詳細有多少應該分配給練習ChatGPT,規范也是比較含糊的。需求留意的是,由于強化學習自身還需求額定耗費電力,所以ChatGPT在模型練習階段所發生的的碳排放應該大于這個數值?!眱H以552噸排放量核算,這些適當于126個丹麥家庭每年耗費的能量。

        在運轉階段,盡管人們。在操作ChatGPT時的動作耗電量很小,但由于全球每天或許發生十億次,累積之下。,也或許。使其成為第二大碳排放來歷。

        Databoxer聯合創始人克里斯·波頓解說了一種核算辦法,“首要,咱們估量每個呼應詞在A100 GPU上需求0.35秒,假設有100萬用戶,每個用戶有10個問題,發生了1000萬個呼應和每天3億個單詞,每個單詞 0.35 秒,能夠核算得出每天A100 GPU運轉了29167個小時?!?。

        Cloud Carbon Footprint列出了Azure數據中心中A100 GPU的最低功耗46W和最高 407W,由于很或許沒有多少ChatGPT處理器處于擱置狀況,以該規劃的頂端耗費核算,每天的電力能耗將到達11870kWh。

        克里斯·波頓表明:“美國西部的排放因子為 0.000322167 噸/kWh,所以每天會發生3.82噸二氧化碳當量,美國人均勻每年約15噸二氧化碳當量,換言之,這與93個美國人每年的二氧化碳排放率適當?!?。

        盡管“虛擬”的特點讓人們簡單忽視數字產品的碳賬本,但事實上,互聯網早已成為地球上最大的煤炭動力機器之一。伯克利大學關于功耗和人工智能主題的研討以為,人工智能簡直吞噬了動力。

        比方,谷歌的預練習言語模型T5運用了86兆瓦的電力,發生了47公噸的二氧化碳排放量;谷歌的多輪敞開范疇談天機器人Meena運用了232兆瓦的電力,發生了96公噸的二氧化碳排放;谷歌開發的言語翻譯結構-GShard運用了24兆瓦的電力,發生了4.3公噸的二氧化碳排放;谷歌開發的路由算法Switch Transformer運用了179兆瓦的電力,發生了59公噸的二氧化碳排放。

        深度學習中運用的核算才干在2012年至2018年間添加了30萬倍,這讓GPT-3看起來成為了對氣候影響最大的一個??墒?,當它與人腦一起作業,人腦的能耗僅為機器的0.002%。

        不只耗電,而且費水。

        人工智能除了耗電量驚人,一起還十分耗水。

        事實上,不管是耗電仍是耗水,都離不開數字中心這一數字國際的支柱。作為為互聯網供給動力并存儲許多數據的服務器和網絡設備,數據中心。需求許多動力才干運轉,而冷卻系統是動力耗費的首要驅動要素之一。

        本相是,一個超大型數據中心每年耗電量近億度,生成式AI的開展使數據中心能耗進一步添加。由于大型模型往往需求數萬個GPU,練習周期短則幾周,長則數月,進程中需求許多電力支撐。

        數據中心服務器運轉的進程中會發生許多熱能,水冷是服務器最遍及的辦法,這又導致巨大的水力耗費。有數據顯現,GPT-3在練習期間耗用近700噸水,這以后每答復20-50個問題,就需耗費500毫升水。

        弗吉尼亞理工大學研討指出,數據中心每天均勻有必要耗費401噸水進行冷卻,約合10萬個家庭用水量。Meta在2022年運用了超越260萬立方米(約6.97億加侖)的水,首要用于數據中心。其最新的大型言語模型“Llama 2”也需求許多的水來練習。即使如此,2022年,Meta還有五分之一的數據中心呈現“水源吃緊”。

        此外,人工智能。另一個重要基礎設備芯片,其制作進程也是一個許多耗費動力和水資源的進程。。動力方面,芯片制作進程需求許多電力,尤其是先進制程芯片。國際環保組織綠色平和東亞分部《消費電子供給鏈電力耗費及碳排放猜測》陳述對東亞區域三星電子、臺積電等13家頭部電子制作企業碳排放量研討后稱,電子制作業特別是半導體職業碳排放量正在飆升,至2030年全球半導體職業用電量將飆升至237太瓦時。

        水資源耗費方面,硅片工藝需求“超純水”清洗,且芯片制程越高,耗水越多。出產一個2克重的核算機芯片,大約需求32公斤水。制作8寸晶圓,每小時耗水約250噸,12英寸晶圓則可達500噸。

        臺積電每年晶圓產能約3000萬片,芯片出產耗水約8000萬噸左右。足夠的水資源已成為芯片業開展的必要條件。2023年7月,日本經濟工業省決議樹立新制度,向半導體工廠供給工業用水的設備建造供給補助,以保證半導體出產所需的工業用水。

        而長時刻來看,生成式AI、無人駕駛等推廣使用還將導致芯片制作業進一步添加,隨之而來的則是動力資源的許多耗費。

        誰能解救AI能耗之傷?

        能夠說,今日,能耗問題已經成為了限制AI開展的軟肋。依照當時的技能道路和開展形式,AI前進將引發兩方面的問題:

        一方面,數據中心的規劃將會越來越巨大,其功耗也隨之水漲船高,且運轉越來越緩慢。

        明顯,跟著AI使用的遍及,AI對數據中心資源的需求將會急劇添加。大規劃數據中心需求許多的電力來運轉服務器、存儲設備和冷卻系統。這導致動力耗費添加,一起也會引發動力供給穩定性和環境影響的問題。數據中心的繼續添加還或許會對動力供給形成壓力,依托傳統動力來滿意數據中心的動力需求的成果,或許便是動力價格上漲和供給不穩定。當然,數據中心的高能耗也會對環境發生影響,包含二氧化碳排放和動力耗費。

        另一方面。,AI芯片朝高算力、高集成方向演進,依托制程工藝來支撐峰值算力的添加,制程越來越先進,其功耗和水耗也越來越大。

        那么,面臨如此巨大的AI能耗,咱們還有沒有更好的辦法?其實,處理技能窘境的最好辦法,便是開展新的技能。

        一方面,后摩爾年代的AI前進,需求找到新的、更可信的典范和辦法。。

        事實上,今日,人工智能之所以會帶來巨大的能耗問題,與人工智能完結智能的辦法親近有關。

        咱們能夠把現階段人工神經網絡的結構和運作辦法,類比成一群獨立的人工“神經元”在一起作業。每個神經元就像是一個小核算單元,能夠接納信息,進行一些核算,然后發生輸出。而當時的人工神經網絡便是經過奇妙規劃這些核算單元的銜接辦法構建起來的,一旦經過練習,它們就能夠完結特定的使命。

        但人工神經網絡也有它的局限性。舉個比方,假如咱們需求用神經網絡來區別圓形和正方形。一種辦法是在輸出層放置兩個神經元,一個代表圓形,一個代表正方形??墒?,假如咱們想要神經網絡也能夠分辯形狀的色彩,比方藍色和赤色,那就需求四個輸出神經元:藍色圓形、藍色正方形、赤色圓形和赤色正方形。

        也便是說,跟著使命的雜亂性添加,神經網絡的結構也需求更多的神經元來處理更多的信息。究其原因,人工神經網絡完結智能的辦法并不是人類大腦感知天然國際的辦法,而是“關于一切組合,人工智能神經系統有必要有某個對應的神經元”。

        相比之下,人腦能夠毫不費力地完結大部分學習。,由于大腦中的信息是由許多神經元的活動表征的。也便是說,人腦關于赤色的正方形的感知,并不是編碼為某個獨自神經元的活動,而是編碼為數千個神經元的活動。同一組神經元,以不同的辦法觸發,就或許代表一個徹底不同的概念。

        能夠看見,人腦核算是一種。徹底不同的核算辦法。。而假如將這種核算辦法套用到人工智能技能上,將大幅下降人工智能的能耗。而這種核算辦法,便是所謂的“超維核算”。即仿照人類大腦的運算辦法,使用高維數學空間來履行核算,以完結更高效、更智能的核算進程。

        打個比方,傳統的修建規劃形式是二維的,咱們只能在平面上畫圖紙,每張圖紙代表修建的不同方面,例如樓層布局、電線走向等。但跟著修建變得越來越雜亂,咱們就需求越來越多的圖紙來表明一切的細節,這會占用許多時刻和紙張。

        而超維核算就像給咱們供給了一種全新的規劃辦法。咱們能夠在三維空間中規劃修建,每個維度代表一個特點,比方長度、寬度、高度、資料、色彩等。而且,咱們還能夠在更高維度的空間里進行規劃,比方第四維代表修建在不一起間點的改變。這使得咱們能夠在一個超級圖紙上完結一切的規劃,不再需求一堆二維圖紙,大大提高了功率。

        同樣地,AI練習中的能耗問題能夠類比于修建規劃。傳統的深度學習需求許多的核算資源來處理每個特征或特點,而超維核算則將一切的特征都統一放在高維空間中進行處理。這樣一來,AI只需一次性地進行核算,就能一起感知多個特征,然后節省了許多的核算時刻和能耗。

        另一方面,找到新的動力資源處理計劃。,比方,核聚變技能。。核聚變發電技能因出產進程中基本不發生核廢料,也沒有碳排放污染,被以為是全球碳排放問題的終究處理計劃之一。

        2023年5月,微軟與核聚變草創公司Helion Energy簽定收購協議,成為該公司首家客戶,將在2028年該公司建成全球首座核聚變發電廠時收購其電力。而且,從長遠來看,即使AI經過超維核算燈完結了單位算力能耗的下降,核聚變技能或其他低碳動力技能的打破能夠仍然使AI開展不再受碳排放限制,關于AI開展仍然具有嚴重的支撐和推進含義。

        說到底,科技帶來的動力資源耗費問題,仍然只能從技能層面來底子性地處理。技能限制著技能的開展,也推進著技能的開展,自古以來如是。

        pg電子,pg電子官方網站,pg娛樂電子游戲官網

         

        下一篇:房地產調整周期,商業地產要怎樣做?專家這樣說
        上一篇:浙江一高中生用3個塑料瓶拿下全國第一,希望能和學生們一起追夢

        外線神準!張帆打滿首節 三分4中3轟下11分&正負值+6 隆基綠能推出首款BC防積灰組件 預計BC電池2025年市場份額約15%至20% 重磅!四川高考加分政策改革!這100類加分將全部取消! 增56%!廣州港前三季度累計完成汽車出口25.8萬輛 果敢同盟軍的這句戰斗口號有震驚到你嗎? 經營主體無需再跑腿,企業信用修復可網上申請辦理 消息稱華為計劃明年智能手機出貨量翻倍,達到 7000 萬部 花上千元給孩子測天賦,靠譜嗎? 這是你看勇士的感受嗎?老五人給我除去!我要看保羅帶替補! 得利斯與新快簽合作協議,雙方將在產品推廣、門店建設等方面合作
        精品久久久久久久久_一级全黄少妇性色生活片_免费国产香蕉视频在线观看
        <big id="qd94c"></big>
          <td id="qd94c"><strike id="qd94c"></strike></td>
              <p id="qd94c"><del id="qd94c"></del></p>
              <table id="qd94c"><noscript id="qd94c"></noscript></table>
              
              
            1. <td id="qd94c"><option id="qd94c"></option></td>