July_AI Chip Topics|AI Inference Chip Trend Analysis by the Edge of Hundreds of Controversies(Up)

Published On: 2025/07/30|Categories: 科技(Technology)|

如前所述,未來若要讓 AI Agent 真正大規模普及,單靠「大型模型」並不足以支撐,還必須整合雲端、邊緣與終端等不同層級的運算能力。LLM 一旦上線,推論成本往往會超過訓練成本,單日推論規模可能高達數億個 token,此時晶片的運算效率與能耗表現便會被放大檢視。以 NVIDIA 推出的 Blackwell 為例,其宣稱可將 LLM 推論的能耗與 OPEX 降低25倍,突顯出專用硬體(如 GPU、ASIC)在推論場景中的關鍵性。此外,雲端推論需維持毫秒等級的回應延遲;而邊緣裝置則受到功耗與散熱限制,同樣存在挑戰。綜合觀察,我認為當前推論技術中最關鍵的兩大挑戰如下,也將成為推論晶片競爭的勝負分水嶺:

 

挑戰1:吞吐量(Throughput) and 資料延遲(Latency)權衡 的最佳化

挑戰2:預填(Prefill)階段 and 解碼(Decode)階段 的專門化

 

第一點中的吞吐量(Throughput)是指系統在單位時間內所能完

For more details, please register or log in.Member Login.
News Release|Intel may eliminate 18A process nodes for foundry customers, leaving TSMC virtually unmatched!
July_AI Chip Topics|AI Inference Chip Trend Analysis by the Edge of Hundreds of Controversies(Next)
-For more information, please clickContact Us-
Share the article now!