国产做爰_日韩av一区二区在线观看_日本a视频_中文字幕在线第一页_亚洲视频欧美视频_日本中出视频

信息技術

終端側AI,如何從DeepSeek的連鎖反應中受益?

發布于:2025-02-21 點擊量:223 來源:至頂網

DeepSeek的V3模型的最后一輪訓練,僅用557.6萬美元的GPU使用成本,就訓練出了全球前沿模型,并在后續發布與OpenAI o1推理模型能力不相上下的DeepSeek R1,這股神秘東方力量就像蝴蝶扇動了翅膀,在全球引發連鎖反應至今已經整整1個月。

此前,AI產業的發展邏輯似乎還很簡單:模型參數越大越好、算力投入越多越好。但DeepSeek R1的橫空出世,改寫了這一認知,約束條件反而可以推動創新,沒有大算力,還可以優化算法。所以現在科技圈普遍出現了一種聲音:一個開源、高性能、低部署推理成本的大模型也能帶來整個AI產業生態的繁榮,是大家抓緊上車的門票。

那么,究竟接下來產業鏈中還有誰能從DeepSeek的沖擊波中受益?

在2025財年第一季度財報電話會議中,高通公司總裁兼CEO安蒙提到,“DeepSeek R1及其他類似模型表明,AI模型正在向更快、更小、更強大、更高效的方向發展,并且可以直接在終端側運行。DeepSeek R1的蒸餾模型在發布僅幾天內,就能在搭載驍龍平臺的智能手機和PC上運行。”

緊接著,高通發布了最新白皮書《AI變革正在推動終端側推理創新》(下稱《白皮書》),首次闡述了終端AI推理迎來突破的深層邏輯。

范式之變:為何現在是終端AI的拐點?

大模型的規模競賽推動了底層技術創新,同時也讓業界思考AI部署的多元路徑。

今年年初的時候,高通中國區研發負責人徐晧接受科技行者專訪時提到,AI發展現在遵循兩個主要軌跡:云端AI、終端側AI。

首先,大部分人看到的、聽到的AI都是云端訓練的AI模型,例如Meta的LLaMA、OpenAI的ChatGPT、Anthropic的Claude、谷歌的Gemini等,它們都是用非常多的GPU堆起來,擁有很大的算力,能夠處理海量數據,從而訓練出的大模型。這些大模型部署在云端,也只能在云端運行。(現在1000億參數甚至更大的模型只能在云端運行。)

其次,另一個主要趨勢是終端側AI。任何技術要落地到每個人手中,都需要下沉到智能終端,比如手機、PC、汽車、工業物聯網等,這些萬物智能的設備占據更大規模,且可以實現云端AI所無法實現的隱私、效率、個性化用戶體驗。

安蒙在財報電話會議中還明確指出,“隨著我們進入AI推理時代,模型訓練仍將在「云端」進行,但推理將更多在「終端側」運行,讓AI變得更便捷、可定制且高效,那將促進更多專用模型和應用的開發和采用,并因此推動各類終端對高通平臺的需求。”

高通還在《白皮書》中,詳細介紹了推動終端側AI變革的四大關鍵趨勢:

第一,當前先進的AI小模型已具有卓越性能。模型蒸餾、AI網絡架構優化等新技術,能夠在不影響質量的情況下簡化開發流程,讓新模型的表現超越一些僅在云端運行的大模型。

第二,模型參數規模正在快速縮小。得益于先進的量化和剪枝技術,開發者現在能夠在不影響模型準確性的前提下,顯著縮減模型參數規模。

(編者注:也就是說,當一個小模型能夠做到大模型前兩年能做的事情,那么把這個小模型放到終端上就足夠了,比如汽車上可以放100個億-1000億參數的模型,現在大多數手機已經可以支持30億參數的模型,在這個維度上,小模型能做越來越多的事情。該趨勢解決了終端部署的計算負擔問題,為大規模商用部署掃清了技術障礙。)

第三,開發者能夠在邊緣側打造更豐富的應用。高質量AI模型快速激增,意味著文本摘要、編程助手和實時翻譯等特性在智能手機等終端上的普及,讓AI能夠支持跨邊緣側規模化部署的商用應用。

第四,AI正在成為新的UI。個性化多模態的AI智能體(Agent)將簡化交互,高效地跨越各種應用完成任務。

此處引用徐晧當時在對談中舉例而言,比如我們現在要出去旅行,就需要在手機上操作:定機酒-看日程安排-看當地天氣-看當地攻略等,這就要調用不同的APP來完成這些事情。但是如果有了AI智能體,那么就能一步到位,只需要告訴AI智能體:“看看我下周哪天有空,我想去某地旅游,幫我訂某星際酒店,最好是能夠在海邊,順便看看當地天氣和功率”。我們和終端的交互只需要通過自然語言和AI智能體,AI智能體會去調用后臺所有App來把事情搞定。那么這個UI就完全不是以前的UI了。

市場格局:誰將受益于這一變革?

一、毫無疑問,芯片廠商將成為最直接受益者。終端側AI對處理器的算力和能效都提出了更多要求,這將催生新一輪硬件升級周期。

二、模型開發商將迎來新機遇。DeepSeek的成功表明,通過技術創新,小型團隊同樣可以在AI領域實現突破,隨著終端部署門檻降低,將會涌現更多面向特定場景的專業化模型。

三、應用開發者將獲得更大施展空間。高質量、小模型的普及,使得文本處理、代碼輔助、實時翻譯等AI功能可以輕松部署到終端設備,這將激發新一輪應用創新。

以高通為例。無論是AI訓練正在向大規模推理轉型,還是AI計算處理從云端向邊緣側擴展方面,高通都具有戰略優勢,作為終端側AI的引領者,高通的解決方案涵蓋了數十億臺智能手機、汽車、XR頭顯和眼鏡、PC以及工業物聯網終端等。

徐晧告訴我,“高通正在用最節能的方式、最小的芯片面積來做最有效的人工智能應用。”其中有幾種有效的方案,可以將大模型縮小或提高不同模型的適應性。

· 首先是對模型本身的簡化。

第一種叫“剪枝”(Pruning),就像修剪花草一樣。把AI模型中不太重要的“枝節”剪掉,保留最核心的部分,這樣模型體積變小了,但依然能保持原有的聰明才智。第二種方法叫“學生-教師模型”(Student-Teacher Model),像是“師徒傳藝”,把一個“經驗豐富”的大模型當作老師,讓它去教導一個“年輕”的小模型,通過不斷學習和驗證,小模型最終也能掌握老師的本領,但所需的計算資源卻少得多。第三種方法叫“LoRA”(Low-Rank Adaptation),可以理解為“化整為零”,把一個龐大的AI任務,分解成幾個小任務,用更小的模型來分別處理,這就像是把一個大工程分派給幾個小團隊,每個團隊專注于自己的部分,最終一起完成大任務。

這些技術創新讓AI模型變得更加節能和輕量級,不僅能在手機等終端設備上流暢運行,還保持了優秀的性能,為AI的普及應用打開了新的可能。

· 其次是用蒸餾(Distillation)的方法,用大模型訓練小模型。

蒸餾是開發高效小模型的一項關鍵技術,它能夠讓大模型“教學”小模型,保持準確性的同時遷移知識。蒸餾技術的使用,促使小型基礎模型激增,包括眾多面向特定任務調優的模型。

高通在《白皮書》中展示了蒸餾的強大能力。下圖比較了Llama 3.3 700億參數模型和同類DeepSeek R1蒸餾模型的LiveBench平均測試結果,顯示出在相同參數規模下,蒸餾能夠在推理、編程和數學任務中顯著提高性能。

此外,得益于蒸餾和上述其他技術,小模型正在接近前沿大模型的質量。下圖顯示了DeepSeek R1蒸餾版本與其他領先模型的基準測試結果對比。基于通義千問模型和Llama模型的DeepSeek蒸餾版本展現了諸多明顯優勢,尤其是在GPQA基準測試中,與GPT-4o、Claude 3.5 Sonnet和GPT-o1 mini等先進模型相比,取得了相似或更高的分數。(GPQA是一個關鍵評估指標,因其涉及解決復雜問題的深層次、多步驟的推理,這對許多模型頗具挑戰性。)


《白皮書》中特別指出,將大型基礎模型縮減為更小、更高效的版本,不僅能實現更快的推理速度、更少的內存占用和更低的功耗,同時可以保持較高的性能水平,從而使此類模型適合在智能手機、PC和汽車等終端上部署。

挑戰猶存:變革之路并非坦途

盡管前景可期,終端側AI推理仍面臨諸多挑戰:一是性能與效率的平衡問題,如何在有限算力下實現更好的推理效果;二是生態建設問題,需要更完善的開發工具和框架支持;三是標準化問題,不同平臺間的模型部署仍缺乏統一標準。

仍以高通為例。首先在硬件層面,高通長期致力于開發定制CPU、NPU、GPU和低功耗子系統,同時擁有封裝技術和熱設計的技術專長,構成了其行業領先系統級芯片(SoC)產品的基礎。

這些SoC能夠直接在終端側提供高性能、高能效的AI推理,通過緊密集成這些核心組件,高通的平臺可在保持電池續航和整體能效表現的同時,處理復雜AI任務,這對邊緣側用例至關重要。

其次在軟件層面,高通還構建了強大的AI軟件棧,旨在賦能軟件開發者。高通AI軟件棧包括庫(libraries)、SDK和優化工具,可簡化模型部署并提升性能。開發者可以利用這些資源,面向高通平臺高效進行模型適配,縮短AI賦能應用的上市時間。

最后,作為高通面向各行各業規模化擴展AI戰略的核心,高通與全球AI模型廠商積極合作,并提供高通AI Hub等服務。

高通《白皮書》中介紹,在高通AI Hub上,僅需三步,開發者即可:1)選擇模型,或引入自主模型又或基于他們的數據創建模型;2)選擇任意框架和runtime,在基于云的物理設備場(cloud-based physical device farm)上撰寫和測試AI應用;3)使用工具商業化部署其應用。高通AI Hub支持主流大語言模型和多模態大模型(LLM、LMM)系列,讓開發者可在搭載高通平臺的終端上部署、優化和管理推理任務。借助預優化模型庫和支持定制模型優化與集成等特性,高通賦能加速開發周期,同時增強了與廣泛AI生態的兼容性。

從技術演進規律看,AI計算正在經歷與互聯網相似的分布式變革。就像是云計算無法完全替代終端計算一樣,終端側AI也將與云端AI形成互補。當前我們正處于這一變革的起點,未來終端AI的應用場景可能遠超預期。

DeepSeek事件也給業界提了個醒,AI產業正在進入一個新階段。在這個階段,技術創新的重點將從突破模型規模上限,轉向提升計算效率和部署靈活性。

或許AI的下一波創新,不僅是比拼誰的模型更大,還要看誰能讓AI更輕便、更普及、更貼近生活。

【版權聲明】:本站內容來自于與互聯網(注明原創稿件除外),如文章或圖像侵犯到您的權益,請及時告知,我們第一時間刪除處理!
主站蜘蛛池模板: 在线影院av | av一区二区在线观看 | 高清免费av | 午夜精品久久久久久久久 | 国产精品久久久久久久久免费 | 影音先锋亚洲资源 | 免费亚洲片 | 欧美国产视频一区 | 天堂av一区二区 | 亚洲精品乱码久久久久久蜜糖图片 | www.久草.com| 黄a在线观看| 永久av| 国产偷窥老熟盗摄视频 | 亚洲 欧美 日韩在线 | 欧洲一区二区在线观看 | 亚洲国产精品久久久久秋霞不卡 | 亚洲第一视频 | 国产精品日韩一区 | 一区二区三区欧美 | 狠狠色狠狠色合久久伊人 | 欧美在线网站 | 在线色av | 中日韩午夜理伦电影免费 | 久久久一区二区 | 日本高清视频在线播放 | 国产欧美一区二区精品性色 | 国内精品三级 | 日韩精品视频在线播放 | 日韩在线免费视频 | 久久久免费电影 | 久久久久久久久久国产 | 久久蜜桃精品一区二区三区综合网 | 一级欧美 | 在线二区 | 国产精品国产精品国产专区不片 | 久久精品国产77777蜜臀 | 日韩色在线 | 国产精品视频免费观看 | 日韩免费在线视频 | 黄色短片免费看 |