晴時多雲

AI模型分眾化 可信任是關鍵

2024/04/05 05:30

AI模型越大、能力會越多,較有泛用性,但成本也隨之提升。圖為世界行動通訊大會2月在西班牙巴塞隆納開幕,生成式 AI 助手亮相。(彭博檔案照)

〔記者徐子苓/台北報導〕人工智慧大語言模型(LLM)規模愈趨龐大,OpenAI在二○一九年發表的GPT-2參數量僅十五億,隔年的GPT-3參數量來到一七五○億,去年的GPT-4則被推估有一.八兆參數量,其他科技巨頭也不遑多讓,猶如在進行算力、參數量的軍備競賽。但是,語言模型越大越好嗎?

AI模型越大 成本隨之提升

中研院資訊科技創新研究中心研究員李育杰表示,通常模型越大、能力會越多,較有泛用性,但也因為需要使用更多GPU、耗費更大的記憶體來儲存參數,成本也隨之提升。

「我們可能不需要什麼都懂的LLM,而是局部的能力,例如翻譯、做摘要、寫短文,不用那麼大的模型,就可以在AI PC、伺服器上跑。」李育杰認為,AI模型在落地應用時,會朝向「分眾化」的趨勢,尤其當應用在特定領域,考量到成本效益,業者通常不會選擇具備這麼多能力的模型。

Google今年推出的AI模型「Gemini」也印證了這一趨勢,Gemini分為三個版本:Ultra體積最大、功能最強,適合高度複雜的任務;Pro體積適中,適合橫跨各種類型的任務;Nano體積最小,在裝置上處理任務最有效率。其中Gemini Nano就被放進三星剛發表的S24系列手機裡。

台灣IBM公司總經理李正屹也認為,「其實模型都夠優秀,差異化就在於可不可被信任」,意即企業不一定需要更強大的模型,「可信任」才是關鍵。

台版生成式AI 更貼近在地

這也呼應了台版生成式AI「TAIDE」的核心價值,去年國科會推動TAIDE,希望打造具備台灣知識系統、不受中國政治影響的語言模型,雖然商用版本的參數量僅七十億,但其訓練資料來自捐贈或授權的媒體、出版商、政府開放資料等,在著作權上較無爭議,且回覆的答案更貼近在地。

一手掌握經濟脈動 點我訂閱自由財經Youtube頻道

不用抽 不用搶 現在用APP看新聞 保證天天中獎  點我下載APP  按我看活動辦法

已經加好友了,謝謝
歡迎加入【自由財經】
按個讚 心情好
已經按讚了,謝謝。
今日熱門新聞
看更多!請加入自由財經粉絲團
網友回應
載入中