創(chuàng)澤機器人 |
CHUANGZE ROBOT |
2024 年大模型技術(shù)快速演進,相較于 2023 年的大小模型之 爭,技術(shù)的進步方向逐步向應(yīng)用落地方向傾斜,降低端側(cè)模型 部署門檻,縮短模型推理時延,提升模型交互能力,大模型的 發(fā)展迎來了新的變化。本文將從技術(shù)視角梳理 2024 年以來大模 型各個領(lǐng)域發(fā)生的變化,以行業(yè)領(lǐng)先實踐為佐證,提出大模型技術(shù)演進方向。語言大模型發(fā)展迎來新范式,通過強化學習優(yōu) 化內(nèi)部思維鏈策略,以提升復(fù)雜邏輯推理能力。多模態(tài)大模型架構(gòu)正向端到端演進,決策準確性和靈敏度提升推動機器人場景應(yīng)用落地。在視頻生成領(lǐng)域,DiTs 架構(gòu)的可擴展性優(yōu)勢顯現(xiàn), 推動 AI應(yīng)用商業(yè)化。在硬件部署方面,模型壓縮、安全控制等 技術(shù)正降低部署門檻。在智能體實踐方面,垂類大模型開始在 智能終端環(huán)境應(yīng)用。在合成數(shù)據(jù)策略方面,自我獎勵語言模型 生成合成數(shù)據(jù),試圖打破數(shù)據(jù)瓶頸。
一、語言大模型的新范式:強化學習優(yōu)化思維鏈
規(guī)模定律的延伸
在2024年之前,語言大模型的“規(guī)模定律”已經(jīng)得到了業(yè)界的廣泛認可。模型參數(shù)的擴展、數(shù)據(jù)集質(zhì)量的提升以及人工微調(diào),使得語言模型展現(xiàn)出了前所未有的泛化能力和通用能力。然而,2024年的技術(shù)進步,將這一定律延伸至后訓(xùn)練階段。
OpenAI的o1推理大模型
今年9月,OpenAI公開發(fā)布的o1推理大模型,通過強化學習優(yōu)化模型內(nèi)部思維鏈推理邏輯步驟,模擬人的思考過程,加深對問題的理解程度,從而提升處理復(fù)雜推理任務(wù)的能力。這一技術(shù)突破,標志著語言大模型的發(fā)展迎來了新范式。
強化學習的威力
通過強化學習,模型學會了精煉思維鏈并優(yōu)化所用策略,識別并糾正錯誤,將復(fù)雜步驟分解為更簡單的部分,并在當前方法無效時嘗試不同的途徑。這一過程顯著提升了模型的推理能力,在多個高難度推理基準測試中,o1的表現(xiàn)超越了人類專家和GPT-4o,展示了其強大的推理能力和專業(yè)知識。
二、多模態(tài)大模型:端到端架構(gòu)的演進
跨模態(tài)到端到端的轉(zhuǎn)變
過去,多模態(tài)大模型多采用基于語言模型為主干的跨模態(tài)架構(gòu),通過模態(tài)特定的編碼器轉(zhuǎn)化為統(tǒng)一的向量表示后再輸入語言模型。但這樣的架構(gòu)帶來了任務(wù)響應(yīng)時間長、模態(tài)間交互細節(jié)損失的問題。
端到端架構(gòu)的優(yōu)勢
2024年以來,以GPT-4o、Gemini為代表的多模態(tài)大模型開始使用端到端支持多種模態(tài)統(tǒng)一輸入輸出的模型架構(gòu)。這一架構(gòu)通過簡化模型的輸入接口,減少模態(tài)間的信息損失,提升了模型處理即時任務(wù)的響應(yīng)時間。
英偉達的GR00T項目
在2024GTC大會上,英偉達發(fā)布了人形機器人項目GR00T,基于控制、執(zhí)行和決策三個層級分層實現(xiàn)模型的端到端訓(xùn)練學習,通過合并反向反饋得到精準輸出結(jié)果,大幅提升了機器人處理復(fù)雜任務(wù)的精度、高效性以及靈活性。
三、視頻生成領(lǐng)域的突破:DiTs架構(gòu)的可擴展性
DiTs架構(gòu)的優(yōu)勢
2024年以來,國內(nèi)外科技大廠發(fā)布的視頻生成模型多以DiTs為基礎(chǔ),基于Transformer架構(gòu)的擴散模型在視頻生成任務(wù)中可擴展性優(yōu)勢凸顯。相較于原先的U-Net卷積網(wǎng)絡(luò)架構(gòu),Transformer骨干架構(gòu)可以提供基于參數(shù)規(guī)模和訓(xùn)練數(shù)據(jù)量提升而帶來更優(yōu)越的性能。
OpenAI的Sora視頻生成模型
OpenAI發(fā)布的視頻生成模型Sora基于DiTs架構(gòu),在生成視頻的像素穩(wěn)定性、前后邏輯連續(xù)性以及信息丟失等方面有大幅提升。Sora在數(shù)據(jù)處理和視頻標注領(lǐng)域做了創(chuàng)新,基于視頻編碼器將樣本空間數(shù)據(jù)進行時間空間維度壓縮和Patch化處理,再通過相應(yīng)解碼器實現(xiàn)隱空間向視頻像素空間的映射,以訓(xùn)練新的視頻壓縮網(wǎng)絡(luò)實現(xiàn)長視頻生成的能力。
Meta Movie Gen視頻生成模型
Meta Movie Gen視頻生成模型發(fā)布,其在原先視頻生成模型架構(gòu)的基礎(chǔ)上,疊加了一個13B參數(shù)轉(zhuǎn)換器模型Meta Gen Audio,通過數(shù)百萬個小時的音頻參考數(shù)據(jù)的對比總結(jié),Meta Gen Audio可精準匹配聲音和畫面之間的對應(yīng)關(guān)系,根據(jù)不同情緒和環(huán)境的提示詞,找到與畫面完美契合的音樂。
四、硬件部署實踐:端云結(jié)合架構(gòu)的創(chuàng)新
蘋果的Apple Intelligence
蘋果在2024年6月發(fā)布的Apple Intelligence為大模型硬件部署實踐提供了很好的指引。Apple Intelligence采用端云結(jié)合方案,分別在設(shè)備端和服務(wù)器端部署大小語言模型(AFM-on-device和AFM-server),不同應(yīng)用可以通過統(tǒng)一的語義索引、意圖檢測等工具調(diào)用AFM模型。
量化壓縮疊加適配器架構(gòu)
為保障在端側(cè)設(shè)備上運行模型同時避免精度上損失,蘋果創(chuàng)新推出量化壓縮疊加適配器的架構(gòu),一方面采用量化壓縮的方法降低模型大小,同時通過LoRA適配器來恢復(fù)量化模型的精度。
Responsible AI原則
蘋果制定了Responsible AI原則,包括用戶賦能、代表全球、謹慎設(shè)計、隱私保護四大原則,被整合到基礎(chǔ)模型開發(fā)的每一個環(huán)節(jié)中,包括數(shù)據(jù)的收集與處理、模型訓(xùn)練、模型評估、用戶反饋等。
LLM-in-a-flash技術(shù)
蘋果研發(fā)了LLM-in-a-flash技術(shù),讓大模型可以不受限于DRAM的限制,在推理時將參數(shù)加載至閃存中來輔助完成計算,分擔存儲壓力,從而降低端側(cè)設(shè)備部署大模型門檻。
機器人底盤 Disinfection Robot 消毒機器人 講解機器人 迎賓機器人 移動機器人底盤 商用機器人 智能垃圾站 智能服務(wù)機器人 大屏機器人 霧化消毒機器人 紫外線消毒機器人 消毒機器人價格 展廳機器人 服務(wù)機器人底盤 核酸采樣機器人 智能配送機器人 導(dǎo)覽機器人 |