導讀:聯(lián)發(fā)科旗下研究機構(gòu)聯(lián)發(fā)科技研究中心(MediaTek Research)近日發(fā)布公告,展示推出了名為 MR Breeze-7B 的全新開源大語言模型(LLM)。
3 月 9 日消息,聯(lián)發(fā)科旗下研究機構(gòu)聯(lián)發(fā)科技研究中心(MediaTek Research)近日發(fā)布公告,展示推出了名為 MR Breeze-7B 的全新開源大語言模型(LLM)。
這款開源模型擅長處理繁體中文和英文,共有 70 億個參數(shù),以廣受贊譽的 Mistral 模型為基礎進行設計。
與上一代產(chǎn)品 BLOOM-3B 相比,MR Breeze-7B 所吸收的知識顯著增加了 20 倍,讓其能以更高的精確度駕馭繁體中文中錯綜復雜的語言和文化細微差別。
MR Breeze-7B 的處理速度超過了 Mistral 和 Llama 等同類產(chǎn)品。它將復雜的繁體中文推理所需的時間和內(nèi)存減少了一半,為用戶提供了更無縫的體驗。
與其他 7B 中英文語言模型相比,MR Breeze-7B 能夠更流暢、更準確地以兩種語言迅速做出反應,并能敏銳地把握上下文,做出相關且連貫的回答。
此外,MR Breeze-7B 擅長解析和生成表格內(nèi)容,這對于數(shù)據(jù)驅(qū)動型任務(如分析、財務報表和復雜的日程安排)來說是一個改變,對于處理大量結(jié)構(gòu)化數(shù)據(jù)的企業(yè)來說是不可或缺的。