《大模型專題:大模型的異構(gòu)計算和加速》由英特爾院士戴金權(quán)在AiCon全球人工智能開發(fā)與應(yīng)用大會上的演講內(nèi)容整理而成。報告介紹了大語言模型的異構(gòu)計算和加速相關(guān)技術(shù)。首先闡述大語言模型基于Transformer解碼器架構(gòu)的自回歸模型原理。接著分析大模型推理和訓(xùn)練面臨的瓶頸,包括內(nèi)存帶寬、計算、顯存大小和分布式計算等方面。
報告重點介紹了大模型的異構(gòu)計算和加速方法。包括XPU異構(gòu)計算,涉及CPU、GPU、NPU等硬件加速;低比特計算,如模型量化/壓縮、數(shù)據(jù)類型選擇、低比特算子應(yīng)用以及對顯存使用量和訓(xùn)練微調(diào)的影響,并對比了不同量化方式下多個模型的精度;還介紹了推理算法優(yōu)化,涵蓋Self - speculative decoding、KV Cache compression等多種方式。
此外,報告還介紹了IPEX - LLM開源大模型XPU加速框架及其應(yīng)用場景,如在Intel Core Ultra AI PC、Intel Arc A770 GPU等不同硬件上的加速體驗,包括Office助手、工業(yè)機器人代碼生成、AI座艙 - 汽車助理等多個應(yīng)用案例展示了英特爾XPU在大模型應(yīng)用創(chuàng)新方面的成果,并鼓勵關(guān)注和試用IPEX - LLM,在Intel XPU平臺開發(fā)大模型及其應(yīng)用。
附件:大模型的異構(gòu)計算和加速:加速方法,包括XPU異構(gòu)計算,多個模型的精度,推理算法優(yōu)化
增強型工作,智能企業(yè)開始利用人工智能創(chuàng)造真正價值的方式;實時自動決策帶來更高的效率和對變化中的客戶習(xí)慣與市場狀況更快的反應(yīng)速度
基于對視頻的AI智能分析,實現(xiàn)皮帶運輸各類異常情況的智能視頻分析和判別;實現(xiàn)設(shè)備的一鍵啟停、遠程操作控制等功能,有效降低危險作業(yè)區(qū)域安全事故發(fā)生率
AI 技術(shù)的發(fā)展揭示了第五種科學(xué)研究范式, 即通過機器猜想的方式應(yīng)用于 科學(xué)智能,通過不同的算法思維和應(yīng)用場景的對撞,得到不同領(lǐng)域?qū)I(yè)知識,從而推導(dǎo)位置結(jié)論的范式
AI 發(fā)展中產(chǎn)生了 五大悖論,揭示了AI 作為技術(shù)的局限性和未來可能應(yīng)用方向的限制;AI 依然是一種意義重大的技術(shù),它將顯著提高生產(chǎn)和工 作效率
AI是一種更強的工具,像超級計算機一樣可被購買;AI無所不能,人類是執(zhí)行器,AI將取代人類;AI將和人類具備平等的地位
第二章提供全景式的 AI 產(chǎn)業(yè)鏈圖譜和 中美 AI 能力對比;第三章闡述了生成式 AI 的核心技術(shù)及發(fā)展趨勢;展望 AI 商業(yè)化路徑和產(chǎn)業(yè)競爭格局演變
B端及C端AI應(yīng)用,目前B端應(yīng)用落地較快,C端應(yīng)用靜待殺手級應(yīng)用出現(xiàn);C端應(yīng)用頭部格局穩(wěn)定,但用戶需求不明確,往往是供給激發(fā)需求
國內(nèi)通用類大模型正在持續(xù)拓展應(yīng)用領(lǐng)域,包括文心一 言、通義千問、星火認知等一批通用大模型正在快速發(fā)展,垂直領(lǐng)域?qū)I(yè)類大模型也在不斷深化落地
生成式 AI 等創(chuàng)新技術(shù),正在引領(lǐng)未來商業(yè)發(fā)展的新方向;將 AI 技術(shù)和 AI 應(yīng)用視為增加企業(yè)營銷能力的伙伴,共同 生成商業(yè)新未來
當(dāng)Al與勞動高度互補時,互補效應(yīng)變得強于位移效應(yīng),特別是在收入分配的上半部分,導(dǎo)致與低互補情況相比
模型無法做到無限制的創(chuàng)意賦能,隨著海量設(shè)計師利用同一模型 進行設(shè)計流程的迭代,產(chǎn)品的設(shè)計風(fēng)格可能趨于同化,擴大設(shè)計師在 實踐中所創(chuàng)造知識的影響力
訓(xùn)練與微調(diào)成本,該訓(xùn)練成本僅針對企業(yè)應(yīng)用基礎(chǔ)模型結(jié)合行業(yè)知識與數(shù)據(jù)集進行訓(xùn)練與微調(diào)的成本,并非基礎(chǔ)大模型訓(xùn)練成本,該成本仍然為行業(yè)知識壁壘顯著的企業(yè)必須承擔(dān)的成本