<big id="qd94c"></big>
    <td id="qd94c"><strike id="qd94c"></strike></td>
        <p id="qd94c"><del id="qd94c"></del></p>
        <table id="qd94c"><noscript id="qd94c"></noscript></table>
        
        
      1. <td id="qd94c"><option id="qd94c"></option></td>

        新聞中心

        【pg電子·(中國)娛樂官方網站】蘋果日砸百萬,豪賭2000億參數Apple GPT!瘋狂挖角谷歌,打造核彈級iPhone

        發布時間:2023-11-04 21:24:09    作者:pg電子,pg電子官方網站,pg娛樂電子游戲官網

          新智元報道

          編輯:Aeneas 好困

          【新智元導讀】曾經懷疑LLM能干什么用的蘋果蘋果高管,如今急了。日砸蘋果一天燒幾百萬美元,百萬pg電子·(中國)娛樂官方網站只為把Apple GPT塞進明年發布的豪賭iPhone里。

          蘋果急了?

          據The億參 Information報道,為了加速開發LLM,狂挖蘋果現在不僅大幅增加了研究經費——每天燒掉數百萬美元,角谷還從谷歌挖來了許多工程師。歌打

          對此,造核蘋果員工一致認為,彈級他們的蘋果Apple GPT大模型能力已經超過了GPT-3.5。

          而Siri也要飛升了——只要告訴它,日砸「用最近拍的百萬5張照片創建一個GIF,發給我朋友」,豪賭它就會自動執行這一連串操作,億參行云流水,而我們連手指都不需要點一下。

          至于大模型團隊的主力,已經被外媒扒出來了——關鍵角色幾乎都來自于谷歌。

          

          注意這張圖,下面要考

          生成式AI的大廠之戰,蘋果必不會缺席!

          AI負責人不甘:慢了一步

          蘋果,本來也有機會成為OpenAI。pg電子·(中國)娛樂官方網站

          四年前,蘋果的AI主管John Giannandrea就曾組建了一個團隊開發對話式AI,也就是大語言模型。

          

          這一舉措當然很有先見之明,但還是晚了一步——去年秋天,OpenAI搶先發布的ChatGPT,已經率先吸引了全世界的注意力。

          幾位蘋果內部工作人員表示,蘋果其實并非對大語言模型的繁榮毫無準備,但Giannandrea此前卻一再懷疑:AI模型驅動的聊天機器人究竟能有什么用。

          現在,蘋果顯然后悔了——就是花再大代價,也要把大模型做出來!

          16人主力,多個團隊共同沖刺LLM

          這個代價是多大?

          Sam Altman曾表示,OpenAI歷時數月訓練出的地表最強GPT-4,燒了1億多美元。

          相比之下,蘋果這個名為Foundational Models的團隊雖然只有約16人,但訓練模型的預算已經增長到了每天數百萬美元。

          團隊由蘋果挖來的幾名前谷歌工程師組成(還在谷歌時,他們就是Giannandrea的手下),由Ruoming Pang領導,他在谷歌工作了15年后,于2021年選擇加入了蘋果。

          

          Ruoming Pang

          據知情人士透露,該團隊扮演的角色,類似于谷歌和Meta的AI實驗室——研究人員負責開發AI模型,其他部門負責把模型應用到產品之中。

          除此之外,根據近期的一篇研究論文以及LinkedIn上的員工資料,蘋果至少還有兩個團隊,也在開發語言或圖像模型。

          其中一個視覺團隊,致力于開發能夠生成「圖像、視頻或3D場景」的應用。

          另一個團隊則在進行多模態AI的長期研究——讓模型同時識別和生成圖像、視頻以及文本。

          

          現在,蘋果已經開發了多個模型,正在緊鑼密鼓地進行內部測試。

          Siri即將大升級

          在蘋果團隊看來,目前最先進的模型Ajax GPT(或稱Apple GPT),已經超越了GPT-3.5。

          

          有了如此強大的語言模型加持,蘋果旗下的一系列產品當然都會來一波大升級。

          比如下個命令,Siri就會自動創建出個動圖,然后發送給手機里的某個人。

          并且,蘋果還會上線一個名為Shortcuts的app,可以讓用戶手動編程,串起不同app的功能。

          預計在明年的新版iOS操作系統中,我們應該就能見到這些功能了!

          不過,具體要如何在產品中應用LLM,蘋果還沒有一個定論。

          眾所周知,蘋果一直都在標榜自己對用戶隱私的保護,因此在各類功能的實現上,也更傾向于在設備上離線運行,而不是在云服務器上。

          據知情人士透露,「Apple GPT」的參數量已經超過了2000億個。想要運行如此龐大的模型,不僅需要強大的算力,還需要足夠的儲存空間。

          顯然,這些要求對于一臺小小的iPhone來說,實在有些勉強了。

          對此,谷歌的PaLM 2倒是開了一個很好先例——模型被調教成了四種不同的規模,其中的一種就可以在設備上離線使用。

          

          蘋果,在變成「另一個谷歌」?

          說回團隊的事,Giannandrea最初加入蘋果,就是為了把更多的AI融進蘋果的軟件,比如Siri。

          在被ChatGPT的輝煌打臉后,他終于打消了對AI聊天機器人的顧慮。

          值得慶幸的是,Giannandrea至少有一項決定是明智的——他要讓蘋果變得更「谷歌」。

          因此,蘋果的員工被給予了高度的自由和很大的靈活性,來進行各種研究、發表論文。因此,Foundational Models團隊才得以存在。

          要知道在此前,蘋果對此有諸多限制,因而流失了不少人才。

          

          蘋果變得更「谷歌」的另一個原因是,2018年Giannandrea加入蘋果后,挖來了不少谷歌的骨干工程師和研究者。

          另外,他還在蘋果內部大力推介谷歌的云服務(包括谷歌開發的TPU芯片)來訓練Siri和其他產品的模型。

          大牛,是從谷歌挖的

          蘋果的這支隊伍里,可謂人才濟濟。

          Foundational Models的前身,是一個由荷蘭計算機科學家Arthur Van Hoff領導的團隊。

          

          Van Hoff是Sun Microsystems團隊的早期成員,就是這個大名鼎鼎的團隊,在上世紀90年代創建了Java。

          2019年,Van Hoff加入蘋果,當時他負責開發新版Siri(內部代號為Blackbird),但蘋果放棄了這個版本。后來,他帶領團隊開始主攻LLM。

          起初,這個團隊只有少數幾名員工。最出名的是兩位來自牛津大學的英國研究員,Tom Gunter和Thomas Nickson,他們負責NLP。

          

          Tom Gunter

          

          Thomas Nickson

          2021年,Ruoming Pang加入了蘋果,來幫忙訓練LLM。

          

          與其他研究員不同,他被特批留在紐約,蘋果希望在那里建立一個機器學習團隊的前哨站。

          Ruoming Pang憑借自己在神經網絡方面的研究,贏得了業內廣泛的關注。比如神經網絡如何與移動電話處理器一起工作,如何使用并行式計算來訓練神經網絡。

          

          幾個月后,蘋果挖來前谷歌AI高管Daphne Luong,來監督Van Hoff的團隊和Samy Bengio的團隊。后者也是蘋果在2021年從谷歌挖來的。

          

          

          Samy Bengio

          后來,團隊內部似乎發生了一些變動,Pang接管了Foundational Models團隊。而Van Hoff在今年開始無限期休假。

          不過,根據最新的LinkedIn資料,Van Hoff已于今年8月離職。

          

          Arthur van Hoff

          而另外一位曾經的蘋果多模態研究團隊負責人Jon Shlens,則是在「蘋果-谷歌」之間反復橫跳。

          2012年,Shlens加入谷歌出任高級研究科學家,一做就是11年6個月。

          2021年底,他跳槽到了蘋果,負責長期開展以多模態學習為重點的機器學習研究。

          不到2年時間,Shlens又回到了谷歌。

          根據The Information的分析,他在Google DeepMind負責的新團隊,和谷歌即將推出的具有多模態功能的Gemini模型,也有著千絲萬縷的聯系。

          

          Jon Shlens

          服務器,也首選谷歌

          蘋果之所以會招來Pang,也是公司內部越來越清晰地意識到:LLM在機器學習中,很重要。

          

          知情者爆料,在OpenAI于2020年6月發布GPT-3后,蘋果機器學習組的員工們就鬧起來了,要求公司調撥更多資金,來讓他們訓練模型。

          據悉,為了節省成本,蘋果高管歷來都是鼓勵工程師們使用更便宜的谷歌云計算服務,而不是亞馬遜的。

          因為谷歌是Safari瀏覽器的默認搜索引擎合作商,所以谷歌云服務的價格也會對蘋果更低。

          當然,合作歸合作,蘋果從沒停止過從谷歌和Meta的AI隊伍中挖人。

          據統計,自AXLearn于7月上傳以來,已有至少十二名加入蘋果機器學習團隊的成員在GitHub上為項目做出了貢獻。其中7人以前曾在谷歌或Meta工作。

          蘋果,也會「開源」了?

          有趣的是,在Ruoming Pang的影響下,Foundational Models團隊竟然在今年7月的時候,悄悄把訓練Ajax GPT用的機器學習框架AXLearn給傳到了GitHub上。

          基于谷歌開源框架JAX以及加速線性代數XLA的AXLearn,可以用于快速訓練機器學習模型,并且針對谷歌的TPU進行了優化。

          

          項目地址:https://github.com/apple/axlearn

          具體來說,AXLearn采用面向對象的方法來解決構建、迭代和維護模型時出現的軟件工程挑戰。用戶能夠從可重復使用的構建模塊中組合模型,并與其他庫(如Flax和Hugging Face transformers等)集成。

          AXLearn除了支持在數千個加速器訓練上對具有數百億參數的模型進行訓練外,還支持包括自然語言處理、計算機視覺和語音識別等廣泛的應用常見,并包含了訓練SOTA模型所需的基線配置。

          如果說,我們把蘋果的Ajax GPT比作是一座「房子」,那么AXLearn就是「藍圖」,而JAX則是用于繪制這些藍圖的「筆和紙」。不過,蘋果并沒有公開訓練模型所用的數據,也就是「建筑材料」。

          不過,我們并不清楚蘋果公開發布AXLearn的原因,但通常來說是希望其他工程師也可以對其進行改進。

          參考資料:

          https://www.theinformation.com/articles/apple-boosts-spending-to-develop-conversational-ai?rc=epv9gi

        pg電子,pg電子官方網站,pg娛樂電子游戲官網

         

        下一篇:高中英語漲分方法,抓住提分關鍵,提高理解能力
        上一篇:美國多家大銀行曝技術故障導致存款延遲 清算所:問題已解決

        廣東湛江要求學生戴頭盔上下學,不戴不能進校門,官方給出回應 伍德新賽季將身穿湖人35號球衣 上賽季加布里埃爾曾穿此號碼 姆巴佩未到會新聞發布會,德尚:沒有責任讓隊長總出現在如此場合 梁少文:面臨時機處理不行合理,本來能夠直接第一步就射門 教育局出臺文件:走路上下學也要戴頭盔!網友質疑,回應不能服眾 羅梅烏:沒有在赫羅納效能的那一年我無法回巴薩 亞馬爾令人驚奇 你看C羅、梅西競賽幾年了?怎么看C羅說喜愛C羅紛歧定要厭煩梅西? 伍德加盟,湖人就完美了嗎?這幾個問題仍舊球隊新賽季的危險 中超大結局:成都蓉城亞冠仍有機會,南通支云保級,大連人降級 奧多姆:伍德真是一個不錯的挑選 湖人將成為新賽季大要挾!
        精品久久久久久久久_一级全黄少妇性色生活片_免费国产香蕉视频在线观看
        <big id="qd94c"></big>
          <td id="qd94c"><strike id="qd94c"></strike></td>
              <p id="qd94c"><del id="qd94c"></del></p>
              <table id="qd94c"><noscript id="qd94c"></noscript></table>
              
              
            1. <td id="qd94c"><option id="qd94c"></option></td>