Stability AI 宣布推出迄今為止最強(qiáng)大的小語言模型之一 Stable LM 2 1.6B。以英語、西班牙語、德語、意大利語、法語、葡萄牙語和荷蘭語的多語言數(shù)據(jù)為基礎(chǔ)進(jìn)行了訓(xùn)練,體積小、速度快,降低了硬件門檻;并提供了完全透明的訓(xùn)練細(xì)節(jié),旨在讓開發(fā)人員和模型創(chuàng)建者能夠快速進(jìn)行實(shí)驗和迭代。
Stable LM 是一種文本內(nèi)容生成 LLM,Stability AI 于 2023 年 4 月首次推出了 30 億和 70 億參數(shù)模型。新的 StableLM 模型實(shí)際上是 Stability AI 在 2024 年發(fā)布的第二個模型,此前該公司在早些時候還發(fā)布了一個 Stable Code 3B。
Stability AI 聲稱,Stable LM 2 1.6B 在大多數(shù)基準(zhǔn)測試中均優(yōu)于其他參數(shù)低于 20 億個的小語言模型,如微軟的 Phi-1.5 (1.3B) 和 Phi-2 (2.7B)、TinyLlama 1.1B 或 Falcon 1B。



不過他們也警告稱,由于小型、低容量語言模型的特性,Stable LM 2 1.6B 可能會出現(xiàn)高幻覺率、潛在的有毒語言等類似的常見問題。“我們要求社區(qū)在構(gòu)建應(yīng)用程序時牢記這一點(diǎn),并采取適當(dāng)措施確保以負(fù)責(zé)任的方式進(jìn)行開發(fā)?!?br />
Stable LM 2 1.6B 目前可在商業(yè)和非商業(yè)領(lǐng)域使用,只要擁有 Stability AI 會員資格,即可在 Hugging Face 上測試該模型。
審核編輯:劉清
-
語言模型
+關(guān)注
關(guān)注
0文章
573瀏覽量
11341 -
LLM
+關(guān)注
關(guān)注
1文章
350瀏覽量
1391
原文標(biāo)題:Stability AI推出更小、更高效的1.6B語言模型
文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。
發(fā)布評論請先 登錄
特斯拉AI芯片戰(zhàn)略升級,“史詩級”芯片接棒Dojo
Google正式推出最新開放模型Gemma 4
亮亮視野聯(lián)合智譜AI推出AR+AI會議翻譯系統(tǒng)
MCXE31B處理器的數(shù)據(jù)不可用怎么解決?
在AI基礎(chǔ)設(shè)施中部署大語言模型的三大舉措
使用NORDIC AI的好處
谷歌正式推出最新Gemini 3 AI模型
谷歌Gemini 3模型開啟智能新紀(jì)元
NVIDIA推出面向語言、機(jī)器人和生物學(xué)的全新開源AI技術(shù)
Stability AI推出迄今為止更小、更高效的1.6B語言模型
評論