導(dǎo)讀:聯(lián)發(fā)科創(chuàng)新基地(MediaTek Research)現(xiàn)已發(fā)布兩款支持繁體中文的輕量級多模態(tài)模型,分別是號稱可在手機上運行的Llama-Breeze2-3B模型和適用于輕薄筆記本電腦的Llama-Breeze2-8B模型。
2 月 19 日消息,聯(lián)發(fā)科創(chuàng)新基地(MediaTek Research)現(xiàn)已發(fā)布兩款支持繁體中文的輕量級多模態(tài)模型,分別是號稱可在手機上運行的Llama-Breeze2-3B模型和適用于輕薄筆記本電腦的Llama-Breeze2-8B模型。
據(jù)悉,系列模型基于Meta Llama 3.2語言模型打造而成,主打繁體中文處理能力,同時支持多模態(tài)輸入和函數(shù)調(diào)用,能夠識別圖像并調(diào)用外部工具。
在繁體中文處理能力方面,聯(lián)發(fā)科提供的對比顯示,相較于參數(shù)量相同的Llama 3.2 3B Instruct模型,Llama-Breeze2-3B在撰寫關(guān)于臺北夜市的小短文時,能夠準(zhǔn)確列舉出士林夜市、饒河街夜市和羅東夜市等當(dāng)?shù)刂故?,?Llama 3.2 3B Instruct模型僅正確提及士林夜市,還生成了兩個不存在的夜市。
此外,聯(lián)發(fā)科還基于Llama-Breeze2-3B開發(fā)了一款安卓AI助理App,并同時推出一款A(yù)I文字轉(zhuǎn)語音模型 BreezyVoice,號稱僅需輸入 5 秒的示例音頻,就能實時生成逼真的語音。