最新消息
首頁 最新消息
深度報告:大模型驅動AI全面提速,黃金十年開啟 2022-06-27
文章来源:由「百度新聞」平台非商業用途取用"http://k.sina.com.cn/article_6192937794_17120bb4202001v0fl.html"

  經歷過去70年的“三起兩落”,伴隨底層芯片、算力、數據等基礎設施的完善進步,全球AI產業正逐步從運算智能走向感知智能、認知智能,并相應形成“芯片、算力設施、AI框架算法模型、應用場景”的產業分工、協作體系。  2019年以來,AI大模型帶來問題泛化求解能力大幅提升,“大模型+小模型”逐步成為產業主流技術路線,驅動全球AI產業發展全面加速,并形成“芯片+算力基礎設施+AI框架算法庫+應用場景”的穩定產業價值鏈結構。  來源:中信證券  原標題:《大模型驅動AI全面提速,產業黃金十年投資周期開啟》  作者:陳俊云許英博廖原劉銳賈凱方  01.人工智能“三起三落”  自1956年“人工智能”概念理論首次被提出,AI產業技術發展主要經歷三大發展階段。  1)20世紀50年代~20世紀70年代:受制于算力性能、數據量等,更多停留在理論層面。1956年達特茅斯會議推動了全球第一次人工智能浪潮的出現,當時樂觀的氣氛彌漫著整個學界,在算法方面出現了很多世界級的發明,其中包括一種叫做增強學習的雛形,增強學習就是谷歌AlphaGo算法核心思想內容。而70年代初,AI遭遇了瓶頸:人們發現邏輯證明器、感知器、增強學習等只能做很簡單、用途狹隘的任務,稍微超出范圍就無法應對。當時的計算機有限的內存和處理速度不足以解決任何實際的AI問題。這些計算復雜度以指數程度增加,成為了不可能完成的計算任務。  2)20世紀80年代~20世紀90年代:專家系統是人工智能的第一次商業化嘗試,高昂的硬件成本、有限的適用場景限制了市場的進一步向前發展。在80年代,專家系統AI程序開始為全世界的公司所采納,而“知識處理”成為了主流AI研究的焦點。專家系統的能力來自于它們存儲的專業知識,知識庫系統和知識工程成為了80年代AI研究的主要方向。  但是專家系統的實用性僅僅局限于某些特定情景,不久后人們對專家系統的狂熱追捧轉向巨大的失望。另一方面,1987年到1993年現代PC的出現,其費用遠遠低于專家系統所使用的Symbolics和Lisp等機器。相比于現代PC,專家系統被認為古老陳舊而非常難以維護。于是,政府經費開始下降,寒冬又一次來臨。  3)2015年至今:逐步形成完整的產業鏈分工、協作體系。人工智能第三起的標志性事件發生在2016年3月,谷歌DeepMind研發的AlphaGo在圍棋人機大戰中擊敗韓國職業九段棋手李世石。隨后,大眾開始熟知人工智能,各個領域的熱情都被調動起來。這次事件確立了以DNN神經網絡算法為基礎的統計分類深度學習模型,這類模型相比于過往更加泛化,通過不同的特征值提取可以適用于不同的應用場景中。  同時,2010年-2015年移動互聯網的普及也為深度學習算法帶來了前所未有的數據養料。得益于數據量的上漲、運算力的提升和機器學習新算法的出現,人工智能開始大調整。人工智能的研究領域也在不斷擴大,包括專家系統、機器學習、進化計算、模糊邏輯、計算機視覺、自然語言處理、推薦系統等。深度學習的發展,讓人工智能進入新的發展高潮。▲人工智能發展的三次浪潮  人工智能第三次浪潮帶給我們一批能給商業化落地的場景,DNN算法的出色表現讓語音識別與圖像識別在安防、教育領域貢獻了第一批成功的商業案例。而近年來基于神經網絡算法之上的Transformer等算法的開發讓NLP(自然語言處理)的商業化也提上了日程,有望在未來3-5年看到成熟的商業化場景。▲人工智能技術產業化所需年數  02.分工逐步完整,落地場景不斷拓展  經歷過去5~6年的發展,全球AI產業正逐步形成分工協作、完整的產業鏈結構,并開始在部分領域形成典型應用場景。  1、AI芯片:從GPU到FPGA、ASIC等,性能不斷提升  芯片是AI產業的制高點。本輪人工智能產業繁榮,緣于大幅提升的AI算力,使得深度學習和多層神經網絡算法成為可能。人工智能在各個行業迅速滲透,數據隨之海量增長,這導致算法模型極其復雜,處理對象異構,計算性能要求高。因此人工智能深度學習需要異常強大的并行處理能力,與CPU相比,AI芯片擁有更多邏輯運算單元(ALU)用于數據處理,適合對密集型數據進行并行處理,主要類型包括圖形處理器(GPU)、現場可編程門陣列(FPGA)、專用集成電路(ASIC)等。  從使用場景來看,相關硬件包括:云側推理芯片、云側測試芯片、終端處理芯片、IP核心等。在云端的“訓練”或“學習”環節,英偉達GPU具備較強競爭優勢,谷歌TPU亦在積極拓展市場和應用。在終端的“推理”應用領域FPGA和ASIC可能具備優勢。美國在GPU和FPGA領域具有較強優勢,擁有英偉達、賽靈思、AMD等優勢企業,谷歌、亞馬遜亦在積極開發AI芯片。▲芯片在不同AI環節的應用▲人工智能神經網絡算法模型復雜度▲芯片廠商布局  在高性能計算市場,借助AI芯片的并行運算能力實現對復雜問題的求解是目前的主流方案。據Tractica數據顯示,2019年全球AIHPC市場規模約13.6億美元,預計到2025年市場規模達111.9億美元,7年CAGR為35.1%。AIHPC市場規模占比由2019年的13.2%提高至2025年的35.5%。同時Tractica數據顯示,2019年全球AI芯片市場規模為64億美元,預計到2023年市場規模達510億美元,市場空間增長近10倍。▲邊緣計算芯片出貨量(百萬,按終端設備)▲全球人工智能芯片市場規模(億美元)  近兩年內,國內涌現了大量自研的芯片類公司,以自研GPU的摩爾線程、自研自動駕駛芯片的寒武紀等為代表。摩爾線程于2022年3月發布了MUSA統一系統架構及第一代芯片“蘇堤”,摩爾線程的新架構支持英偉達的cuda架構。根據IDC數據,在2021年上半年中國人工智能芯片中,GPU一直是市場首選,占有90%以上的市場份額,但隨其他芯片的穩步發展,預計到2025年GPU占比將逐步降低至80%。▲GPU芯片主要玩家及技術路線情況  2、算力設施:借助云計算、自建等方式,算力規模、單位成本等指標不斷改善  過去算力發展有效緩解了人工智能的發展瓶頸。人工智能作為一個年代久遠的概念,過去的發展一直受限于算力不足,其算力需求的主要來源于兩個方面:1)人工智能最大挑戰之一是識別度與準確度不高,而要提高準確度就需要提高模型的規模和精確度,這就需要更強的算力支撐。  2)隨著人工智能的應用場景逐漸落地,圖像、語音、機器視覺和游戲等領域的數據呈現爆發性增長,也對算力提出了更高的要求,使得計算技術進入新一輪高速創新期。而過去十幾年算力的發展有效緩解了人工智能的發展瓶頸,未來智能計算將呈現出需求更大、性能要求更高、需求隨時隨地且多樣化的特點。  由于接近物理極限,算力增長的摩爾定律逐步失效,算力行業正處于多要素綜合創新階段。過去算力供應提升主要通過工藝制程微縮,即在同一芯片內增加晶體管堆疊的數量來提高計算性能。但隨著工藝制程不斷逼近物理極限,成本不斷提高,使得摩爾定律逐漸失效,算力產業進入后摩爾時代,算力供應需要通過多要素綜合創新提高。  當前算力供給有四個層面:單芯片算力、整機算力、數據中心算力和網絡化算力,分別通過不同技術進行持續演進升級,以滿足智能時代多樣化算力的供給需求。此外,通過軟硬件系統的深度融合與算法優化提升計算系統整體性能,也是算力產業演進的重要方向。  算力規模:根據中國信通院2021年發布的《中國算力發展指數白皮書》,2020年全球算力總規模依舊保持增長態勢,總規模達429EFlops,同比增長39%,其中基礎算力規模313EFlops、智能算力規模107EFlops、超算算力規模9EFlops,智能算力占比有所提高。我國算力發展節奏與全球相似,2020年我國算力總規模達到135EFlops,占全球算力規模的39%,實現55%的高位增長,并實現連續三年增速保持40%以上。▲全球算力規模變化  算力結構:我國與全球發展情況相似,智能算力增長迅速,占比從2016年的3%提升至2020年的41%。而基礎算力占比由2016年的95%下降至2020年的57%,在下游需求驅動下,以智能計算中心為代表的人工智能算力基礎設施發展迅猛。同時在未來需求方面,根據華為2020年發布的《泛在算力:智能社會的基石》報告,隨著人工智能的普及,預計到2030年,人工智能算力的需求將相當于1600億顆高通驍龍855內置AI芯片,相當于2018年的約390倍、2020年的約120倍。▲預計2030年人工智能算力需求(EFlops)  數據存儲:非關系型數據庫以及用于儲存、治理非結構數據的數據湖迎來需求爆發。近年來全球數據量呈現爆發式增長,據IDC統計,2019年全球產生的數據量為41ZB,過去十年的CAGR接近50%,預計到2025年全球數據量或高達175ZB,2019-2025年仍將維持近30%的復合增速,其中超過80%的數據都將是處理難度較大的文本、圖像、音視頻等非結構化數據。  數據量(尤其是非結構化數據)的激增使得關系型數據庫的弱點愈加凸顯,面對幾何指數增長的數據,傳統為結構型數據設計的關系型數據庫縱向疊加的數據延展模式難以滿足。非關系型數據庫以及用于儲存、治理非結構數據的數據湖,因其靈活性以及易延展性逐漸占據市場中越來越多的份額。根據IDC,2020年全球Nosql數據庫的市場規模為56億美元,預計2025年將增長至190億美元,2020-2025年復合增速為27.6%。同時,根據IDC,2020年全球數據湖市場規模為62億美元,2020年市場規模增速為34.4%。▲全球數據量及同比增速(ZB,%)  3、AI框架:相對趨于成熟,少數巨頭主導  Tensorflow(產業界)、PyTorch(學術界)逐步實現主導。谷歌推出的Tensorflow為主流與其他開源模塊如Keras(Tensorflow2集成了Keras模塊)、Facebook開源的PyTorch等一起構成了目前AI學習的主流框架。GoogleBrain自2011年成立起開展了面向科學研究和谷歌產品開發的大規模深度學習應用研究,其早期工作即是TensorFlow的前身DistBelief。  DistBelief在谷歌和Alphabet旗下其他公司的產品開發中被改進和廣泛使用。2015年11月,在DistBelief的基礎上,谷歌大腦完成了對“第二代機器學習系統”TensorFlow的開發并對代碼開源。相比于前作,TensorFlow在性能上有顯著改進、構架靈活性和可移植性也得到增強。  Tensorflow與Pytorch雖然本身是開源模塊,但因為深度學習框架龐大的模型與復雜度導致其修改與更新基本完全是由谷歌完成,從而谷歌與Facebook也通過對Tensorflow與PyTorch的更新方向直接主導了產業界對人工智能的開發模式。▲全球商用人工智能框架市場份額結構(2021)  Microsoft在2020年以10億美元注資OpenAI,獲得GPT-3語言模型的獨家許可。GPT-3是目前在自然語言生成中最為成功的應用,不僅可以用于寫“論文”,也可以應用于“自動生成代碼”,自今年7月發布后,也被業界視為最強大的人工智能語言模型。而Facebook早在2013年創立了AI研究院,FAIR本身并沒有像AlphaGo和GPT-3那樣著名的模型和應用,但是它的團隊已經在Facebook本身感興趣的領域發表了學術論文,包括計算機視覺、自然語言處理和對話型AI等。2021年,谷歌有177篇論文被NeurIPS(目前人工智能算法的最高期刊)接收并發表,Microsoft有116篇,DeepMind有81篇,Facebook有78篇,IBM有36篇,而亞馬遜只有35篇。  4、算法模型:神經網絡算法為主要理論基礎  深度學習正在向深度神經網絡過渡。機器學習是通過多層非線性的特征學習和分層特征提取,對圖像、聲音等數據進行預測的計算機算法。深度學習為一種進階的機器學習,又稱深度神經網絡(DNN:DeepNeuralNetworks)。針對不同場景(信息)進行的訓練和推斷,建立不同的神經網絡與訓練方式,而訓練即是通過海量數據推演,優化每個神經元的權重與傳遞方向的過程。而卷積神經網絡,能考慮單一像素與周邊環境變量,并簡化數據提取數量,進一步提高神經網絡算法的效率。  神經網絡算法成為大數據處理核心。AI通過海量標簽數據進行深度學習,優化神經網絡與模型,并導入推理決策的應用環節。90年代是機器學習、神經網絡算法快速崛起的時期,算法在算力支持下得到商用。90年代以后,AI技術的實際應用領域包括了數據挖掘、工業機器人、物流、語音識別、銀行業軟件、醫療診斷和搜索引擎等。相關算法的框架成為科技巨頭的布局重點。▲主要科技巨頭算法平臺框架  技術方向上,計算機視覺與機器學習為主要的技術研發方向。根據ARXIV數據,從理論研究的角度看,計算機視覺和機器學習兩個領域在2015-2020年發展迅速,其次是機器人領域。2020年,ARXIV上AI相關出版物中,計算機視覺領域出版物數量超過11000,位于AI相關出版物數量之首。▲2015-2020年ARXIV上AI相關出版物數量  在過去五年,我們觀察到以CNN與DNN為主的神經網絡算法是近年來發展最快的機器學習算法,因其在計算機視覺、自然語言處理等領域中的優異表現,大幅加快了人工智能應用的落地速度,是計算機視覺、決策智能迅速邁向成熟的關鍵因素。從側視圖可以看出,在語音識別任務上,標準的DNN方法相較于傳統的KNN、SVM與隨機森林等方法都有著明顯的優勢。▲卷積算法突破了傳統圖像處理的準確度瓶頸,首次實現工業化可用  訓練成本上看,神經網絡算法訓練人工智能的成本明顯降低。ImageNet是一個包含超過1400萬張圖像的數據集,用于訓練人工智能算法。根據斯坦福DAWNBench團隊的測試,2020年訓練一個現代的圖像識別系統僅需約7.5美元,比2017年的1100美元下降了99%以上,這主要受益于算法設計的優化、算力成本的下降,以及大規模人工智能訓練基礎設施的進步。訓練系統的速度越快,評估并用新數據更新系統的速度就越快,這將進一步加快ImageNet系統的訓練速度,提高開發和部署人工智能系統的生產力。  訓練時間分布上看,神經網絡算法訓練所需時間全面降低。通過分析每個時期的訓練時間分布,發現在過去幾年中,訓練時間大大縮短,且訓練時間的分布更加集中,這主要受益于加速器芯片的廣泛使用。▲ImageNet訓練時間分布(分鐘)  在卷積神經網絡的推動下,計算機視覺準確率測試成績明顯提升,正處于產業化階段。計算機視覺準確率在過去的十年中取得了巨大的進步,這主要歸功于機器學習技術的應用。Top-1準確度測試人工智能系統為圖像分配正確標簽的能力越強,那么其預測結果(在所有可能的標簽中)與目標標簽越相同。  在有額外的訓練數據(例如來自社交媒體的照片)的情況下,2021年1月在Top-1準確度測試上每10次嘗試中會出現1次錯誤,而2012年12月每10次嘗試中會出現4次錯誤。而另一項精確率測試Top-5會讓計算機回答目標標簽是否在分類器的前五個預測中,其準確率從2013年的85%提高到2021年的99%,超過了代表人類水平的成績94.9%。▲TOP-1準確率變化▲TOP-5準確率變化  在神經網絡算法發展的過程中,Transformer模型在過去五年里成為了主流,整合了過去各種零散的小模型。Transformer模型是谷歌在2017年推出的NLP經典模型(Bert就是用的Transformer)。模型的核心部分通常由兩大部分組成,分別是編碼器與解碼器。編解碼器主要由兩個模塊組合成:前饋神經網絡(圖中藍色的部分)和注意力機制(圖中玫紅色的部分),解碼器通常多一個(交叉)注意力機制。編碼器和解碼器通過模仿神經網絡對數據進行分類與再次聚焦,在機器翻譯任務上模型表現超過了RNN和CNN,只需要編解碼器就能達到很好的效果,可以高效地并行化。  AI大模型化是過去兩年內興起的新潮流,自監督學習+預訓練模型微調適配方案逐漸成為主流,AI模型走向大數據支撐下的泛化成為可能。傳統的小模型用特定領域有標注的數據訓練,通用性差,換到另外一個應用場景中往往不適用,需要重新訓練。而AI大模型通常是在大規模無標注數據上進行訓練,將大模型進行微調就可以滿足多種應用任務的需要。以OpenAI、谷歌、微軟、Facebook、NVIDIA等機構為代表,布局大規模智能模型已成為全球引領性趨勢,并形成了GPT-3、SwitchTransformer等大參數量的基礎模型。  2021年底英偉達與微軟聯合開發的Megatron-LM擁有83億條參數,而Facebook開發的Megatron擁有110億條參數。這些參數大多來自于reddit、wikipedia、新聞網站等,對大量數據存儲及分析所需的數據湖等工具將會是下一步研發的焦點之一。  5、應用場景:逐步在安防、互聯網、零售等領域實現落地  目前在應用端最成熟的技術是語音識別、圖像識別等,圍繞這些領域,國內、美國都有大量的企業上市,并形成一定的產業集群。在語音識別領域,比較成熟的上市企業包括科大訊飛與此前被微軟以290億美元收購的Nuance。  智慧醫療:AI+醫療多應用于醫療輔助場景。在醫療健康領域的AI產品涉及智能問診、病史采集、語音電子病歷、醫療語音錄入、醫學影像診斷、智能隨訪、醫療云平臺等多類應用場景。從醫院就醫流程來看,診前產品多為語音助理產品,如導診、病史采集等,診中產品多為語音電子病例、影像輔助診斷,診后產品以隨訪跟蹤類為主。  綜合整個就診流程中的不同產品,當前AI+醫療的主要應用領域仍以輔助場景為主,取代醫生的體力及重復性勞動。AI+醫療的海外龍頭企業是Nuance,公司50%的業務來自智能醫療解決方案,而病歷等臨床醫療文獻轉寫方案是醫療業務的主要收入來源。  智慧城市:大城市病和新型城鎮化給城市治理帶來新挑戰,刺激AI+城市治理的需求。大中型城市隨著人口和機動車數量的增加,城市擁堵等問題比較突出。隨著新型城鎮化的推進,智慧城市將會成為中國城市的主要發展模式。而智慧城市涉及的AI+安防、AI+交通治理將會成為G端的主要落地方案。  2016年杭州首次進行城市數據大腦改造,高峰擁堵指數下降至1.7以下。目前以阿里為代表的城市數據大腦已經進行了超過15億元的投資,主要集中在智能安防、智能交通等領域。我國智慧城市產業規模持續擴大,前瞻產業研究院預計2022年可達25萬億元,2014年至2022年的年均復合增長率為55.27%。▲2014-2022年智慧城市市場規模及預測(單位:萬億元)  智慧物流2020年市場規模高達5710億元,智能倉儲迎來千億市場。物流行業成本居高不下及數字化轉型的背景下,倉儲物流及產品制造環節面臨著自動化、數字化、智能化轉型的迫切需求,以提升制造和流通效率。根據中國物流與采購聯合會的數據,2020年中國智慧物流市場高達5710億元,2013-2020年的年均復合增長率為21.61%。物聯網、大數據、云計算、人工智能等新一代信息技術既促進了智慧物流行業的發展,又對智慧物流行業提出了更高的服務要求,智慧物流市場規模有望持續擴大。據GGII測算,2019年中國智能倉儲市場規模近900億元,而前瞻研究院預計這一數字將在2025年達到1500億以上。▲2013-2020年中國智慧物流市場規模及增速  新零售:人工智能將帶來人力成本的縮減與運營效率的提升。AmazonGo為亞馬遜提出的無人商店概念,無人商店于2018年1月22日在美國西雅圖正式對外營運。AmazonGo結合了云計算和機器學習,應用拿了就走技術(JustWalkOutTechnology)和智能識別技術(AmazonRekognition)。店內的相機、感應監測器以及背后的機器算法會辨識消費者拿走的商品品項,并且在顧客走出店時將自動結賬,是零售商業領域的全新變革。  云化的人工智能模塊組件是各大互聯網巨頭目前在人工智能商業化的主要發力方向,將人工智能技術集成在公有云服務中進行出售。GoogleCloudPlatform的AI技術一直走在行業的最前沿,并致力于將先進的AI技術融入云計算服務中心。近年來,谷歌收購多家AI公司,并發布AI專用芯片TPU、云服務CloudAutoML等產品完善布局。目前谷歌的AI能力已經覆蓋認知服務、機器學習、機器人、數據分析協作等領域。區別于部分云廠商在AI領域相對分散的產品,谷歌在AI產品的運營上更加完整和體系化,將垂直應用整合為AI基礎組件,將Tensorflow與TPU運算整合為基礎設施,形成了一個完整的AI平臺服務。  百度是中國AI能力最強的公有云廠商,百度AI的核心戰略是開放賦能。百度搭建以DuerOS、Apollo為代表的AI平臺,開放生態,形成數據與場景的正向迭代。基于百度互聯網搜索的數據基礎,自然語言處理、知識圖譜和用戶畫像技術逐步成熟。在平臺以及生態層,百度云是很大的計算平臺,開放給所有的合作伙伴,變成基礎的支撐平臺,上面有百度大腦的各種能力。同時還有一些垂直的解決方案,比如基于自然語言的人機交互的新一代操作系統,以及與智能駕駛相關的Apollo。整車廠商可以調用其中他們需要的能力,汽車電子廠商也可以調用他們需要的相應能力,共建整個平臺和生態。  03.大模型逐步成為主流,產業有望全面提速  最近幾年來,AI產業的技術演進路線主要呈現如下特征:底層模塊性能的不斷提升,注重模型的泛化能力,從而幫助AI算法的通用性優化,并反哺數據收集。AI技術的持續發展依靠底層算法的突破,這同時需要以算力為核心的基礎能力建設以及有大數據支撐進行知識和經驗學習的環境。  大模型在產業內的快速流行,大模型+小模型的運作模式,以及芯片、算力基礎設施等底層環節能力的不斷改善,以及由此帶來的應用場景類別、場景深度的持續提升,并最終帶來產業基礎能力、應用場景之間的不斷相互促進,并在正向循環邏輯下,驅動全球AI產業發展不斷提速。  大模型帶來較強的通用問題求解能力。當前大部分人工智能正處于“手工作坊式”,面對各類行業的下游應用,AI逐漸展現出碎片化、多樣化的特點,模型通用性不高。為提高通用求解能力,大模型提供了一種可行方案,即“預訓練大模型+下游任務微調”。該方案指從大量標記和未標記的數據中捕獲知識,通過將知識存儲到大量的參數中并對特定任務進行微調,提高模型泛化能力。  大模型有望進一步突破現有模型結構的精度局限,結合嵌套小模型訓練,進一步提升特定場景下的模型效率。過去十年中,模型精度提升主要依賴網絡在結構上的變革,但隨著神經網絡結構設計技術逐漸成熟并趨于收斂,精度提升達到瓶頸,而大模型的應用有望突破這一瓶頸。以谷歌的視覺遷移模型BigTransfer,BiT為例,使用ILSVRC-2012(128萬張圖片,1000個類別)和JFT-300M(3億張圖片,18291個類別)兩個數據集來訓練ResNet50,精度分別是77%和79%,大模型的使用使得處于瓶頸的精度進一步提高。另外使用JFT-300M訓練ResNet152x4,精度可以上升到87.5%,相比ILSVRC-2012+ResNet50結構提升了10.5%。  大模型+小模型:泛化大模型人工智能的推廣并結合特定場景下的數據優化將成為中期人工智能產業商業化的關鍵。原先針對特定場景重新提取數據訓練的模式,已經被實踐證明難以盈利,重新訓練模型的成本過高,而獲得的模型泛用性低下,難以重復利用。而在芯片算力性能不斷提高的大背景下,大模型嵌套小模型的嘗試提供給了廠商另一個思路,通過分析海量數據獲得泛用模型,再通過嵌套特定小模型的方式為不同場景進行優化,節省了大量成本。阿里云、華為云、騰訊云等公有云廠商都在積極開發自研的大模型平臺,提升模型的通用型。  以英偉達為代表的AI芯片巨頭,在新一代芯片中針對產業中常用的AI模型,特別設計了新引擎以大幅提升計算能力。英偉達的Hopper架構引入了Transformer引擎,大幅加速了AI訓練。Transformer引擎采用軟件和自定義NVIDIAHopperTensorCore技術,該技術旨在加速訓練基于常見AI模型構建模塊(即Transformer)構建的模型。這些TensorCore能夠應用FP8和FP16混合精度,以大幅加速Transformer模型的AI計算。  采用FP8的TensorCore運算在吞吐量方面是16位運算的兩倍。Transformer引擎利用定制的、經NVIDIA調優的啟發式算法來解決上述挑戰,該算法可在FP8與FP16計算之間動態選擇,并自動處理每層中這些精度之間的重新投射和縮放。根據英偉達提供的數據,Hopper架構在訓練Transformer模型時,效率可以達到安培模型的9倍。  在大模型技術趨勢下,云廠商正在逐步成為算力市場中的核心玩家,在人工智能技術框架通過大模型往泛用化發展后,云廠商也能夠借助PaaS能力把底層IaaS能力與PaaS結合,為市場提供通用性解決方案。我們看到隨著大模型的出現,人工智能需要處理與分析的數據量日漸上升,同時這部分數據從過去的專業性數據集轉化為通用型大數據。云計算巨頭可以通過本身強大的PaaS能力與底層IaaS基礎相結合,為人工智能廠商提供一站式的數據處理,這也幫助云計算巨頭成為本輪人工智能浪潮的主要受益者之一。▲國內云計算市場規模  目前AWS、Azure等國際主流云廠商與阿里云、騰訊云、華為云等國內頭部云廠商都已開始在數據儲存、數據處理等PaaS能力上重點發力。存儲能力方面,NoSQL類型數據庫與在數據種類日益繁雜的未來會涌現更多機會,如GoogleCloud就已經在對象類、傳統的關系型數據庫以及NoSQL類型數據庫分散布局。而在數據處理方面,DataLake與DataWarehouse的重要性愈發凸顯,云計算巨頭通過完善這部分產品線,構建了一個完整的數據循環模式,并結合其底層的IaaS基礎能力。完整的產品線與閉合的數據循環模式將是未來云計算巨頭在AI中間層競爭的最大優勢。  伴隨AI產業鏈結構的逐步清晰,以及大模型帶來的產業運作效率、技術深度的大幅改善,中期維度,假設AI技術不發生跳變式躍遷前提下,我們判斷AI產業鏈價值有望逐步向兩端靠攏,中間環節價值有望持續減弱,并逐步形成“芯片+算力基礎設施+AI框架算法庫+應用場景”的典型產業鏈結構,同時在這樣的產業結構安排下,我們預計上游的芯片企業、云基礎設施廠商,以及下游的應用廠商有望逐步成為AI產業快速發展的核心受益者。  大模型帶來AI底層基礎技術架構的統一,以及對算力的龐大需求等特征,天然有利于云計算公司在此過程中發揮基礎性角色:云計算具有全球分布最為廣泛、最為強大的硬件算力設施,同時AI框架、通用算法最為一種典型PaaS能力,亦傾向于被整合到云廠商的平臺能力當中。  因此從技術通用性、實際商業需求等維度,在大模型的推動下,云計算巨頭有望逐步成為算力設施+基礎算法框架環節能力的主要提供商,并不斷侵蝕現有的AI算法平臺商的商業空間。從過去云廠商各類產品的報價中可以發現,以AWS與Google產品為例,美國東部地區的Linus按需使用價格正在階梯式降低。  從圖中可以看到,具有2個vCPU,2個ECU和7.5GiB的m1.large產品價格從2008年的約0.4美元小時持續下降到了2022年約0.18美元小時。而GoogleCloud具有8個vCPU與30GB內存的n1-standard-8產品的按需使用價格也從2014年的0.5美元小時下降到2022年的0.38美元小時,可見云計算價格呈全面下降趨勢。  在未來3-5年,我們將看到更多的AI即服務(AIaaS)產品。此前提到的大模型趨勢,尤其是GPT-3的誕生掀起了這個潮流,由于GPT-3龐大的參數量,必須要在龐大的公有云算力如Azure規模的計算設施上才能運行,于是微軟將它打造成了能夠通過webAPI獲取的服務,這也會促使更多的大模型出現。▲AWSEC2歷史標準化價格(美元小時)  在目前的算力條件與可展望的技術能力支持下,應用端將繼續通過數據獲取實現算法迭代與優化,完善目前認知智能當中仍存在的不足(圖像識別方向),并嘗試往決策智能發展。根據目前的技術能力以及硬件算力支持,實現完全決策智能仍需較長時間;現有場景的繼續深化的基礎上做出局部性的智能化將是3-5年內的主要方向。  目前的AI應用層面仍然過于單點化,而完成局部性的串聯將成為實現決策智能的第一步。人工智能的軟件類應用將包括從底層的驅動程序,到上層的應用程序、算法框架,從面向商業(制造、金融、物流、零售、地產等),到人(元宇宙、醫療、人形機器人等)、自動駕駛等領域。  智東西認為,伴隨AI芯片、算力設施、數據等基礎要素的不斷完善,以及大模型帶來的問題泛化求解能力的大幅提升,AI產業正形成“芯片+算力基礎設施+AI框架算法庫+應用場景”的穩定產業價值鏈結構,AI芯片廠商、云計算廠商(算力設施+算法框架)、AI+應用場景廠商、平臺型算法框架廠商等有望持續成為產業核心受益者。

關鍵字標籤:油壓車新莊
超值辦公室出租,最好的地點,最舒適的空間推薦給您。
位於台北市重要交通地區的商務中心,豪華辦公室出租中。