產業追蹤/AI推論晶片 台廠商機大

人工智慧(AI)技術逐步落實至各行各業及日常生活中,

關鍵字優化

,深度學習運算帶動半導體AI晶片的需求,

桃園 皮秒雷射

,傳統CPU、GPU、FGPA等通用運算架構,

直播帶貨技巧

,已無法滿足AI運算需求,

關鍵字廣告

,因而使AI晶片加速發展,

livebuy

,在設計、製造及商業模式上的改變,

影片購物

,以符合於不同場域及情境應用中。為要達到AI影像及AI語音的各種功能及應用,

台南 抽脂

,需仰賴AI深度模型的計算。目前深度學習運算需求正快速成長,

板橋 隆乳

,也不斷挑戰電腦運算能力的極限,

專利申請查詢

,為達到更高的辨識能力,新推出的AI模型規模不斷擴大,隨著類神經模型深度加深、參數變多,訓練這些模型時間及運算成本變的昂貴,對超高運算執行速度的需求也持續激增。運算能力需求增加下,是導致AI運算硬體進步的重要推力。AI運算主要分成兩個階段,一是訓練階段,透過大量的資料輸入、運算並進行參數調整,逐漸收斂權重參數後,獲得一個可用的AI運算模型;二是推論階段,即是模型訓練完成後正式用在部署上,進行各種智慧辨識等計算。訓練階段可被視為程式的開發階段,而推論階段就是程式的執行階段。 當一個AI模型被訓練完成之後,下一步為推論運算階段。目前的AI推論雖以雲端運算為主,原因在於即便在推論階段比訓練階段的運算量少很多,但所需的運算量仍大,因此大多送回雲端運算中心進行計算。隨著終端裝置開始使用AI加速硬體,如手機SoC整合AI功能,使AI推論運算開始走向終端裝置。但這種邊緣運算架構仍面臨低功耗的運算晶片及輕量化演算法二項技術挑戰。在終端做推論計算的AI晶片,已是全球半導體產業的發展焦點,各種解決方案、各國新創AI晶片公司不斷浮出,且各自擁有適用情境與優劣勢。為配合終端裝置環境使用,低功耗運算、演算法的輕量化,則是透過壓縮技術將龐大的演算法模型精簡化,是目前國際領導大廠與新創企業發展的目標。AI運算分為訓練以及推論,計算需求大都掌握在包含Google、Amazon、以及Microsoft等雲端大廠手中。初期採用nVIDIA的GPU晶片為主,主因其高度整合的AI開發軟硬體環境,如CUDA平行程式的模型和架構,讓開發人員使用熟悉的 C、C++等程式語言,輕易使用GPU進行一般計算,並提供應用軟體加速函式庫整合TensorFlow、PyTorch 和MXNet等主要深度學習框架。隨著對AI運算效能要求及累積足夠的經濟規模下,各大科技廠商開始設計自己的AI晶片架構,以符合自身需求。在AI推論晶片上,以影像視覺及語音應用最多,台廠在電腦影像產業鏈上已有許多投入,產品包含手機相機、電視機上盒、行車紀錄器、玩具鏡頭等,這些產品在未來都有機會透過AI加值服務。於產品上進行AI推論運算,將是台廠切入的機會。因AI模型建構需要大量資料進行訓練,因此上游IC設計廠商須與下游業者配合,才有機會取得大量的場域環境資料,包含各種不同的影像或聲音資訊,並且需對辨識的內容進行標註。IC設計廠商取得資料後,進行AI模型訓練,選用適合的模型,並設計適合的AI晶片硬體架構。這與傳統IC設計流程,由一個標準的規格,各自廠商進行設計,進而比較運算效率、晶片成本,讓下游系統開發採用,將是完全不同的商業架構。AI晶片在設計開始就須掌握未來晶片要處理的資料形貌、容許準確率等現場環境因素,掌握終端市場者,才有掌握AI晶片制定規格的權力,這個趨勢會給半導體產業帶來變化,包含商業模式,生態和產業鏈,技術趨勢,研發模式,設計方法皆會發生變化。AI晶片新創廠商不斷湧現,但差異化也愈來愈困難,各種新興技術如,記憶體內計算、類比計算、仿神經型態計算等,短期內仍無法實際商用化落地。因此在垂直領域中,尋找差異化的AI晶片規格與模型,是目前最有機會建立的商業競爭門檻。(作者是資策會MIC資深產業分析師),

本篇發表於 未分類 並標籤為 , , , , , , , , 。將永久鍊結加入書籤。

回應已關閉。