哈哈哈哈哈操欧洲电影,久草网在线,亚洲久久熟女熟妇视频,麻豆精品色,久久福利在线视频,日韩中文字幕的,淫乱毛视频一区,亚洲成人一二三,中文人妻日韩精品电影

0
  • 聊天消息
  • 系統(tǒng)消息
  • 評論與回復
登錄后你可以
  • 下載海量資料
  • 學習在線課程
  • 觀看技術(shù)視頻
  • 寫文章/發(fā)帖/加入社區(qū)
會員中心
創(chuàng)作中心

完善資料讓更多小伙伴認識你,還能領(lǐng)取20積分哦,立即完善>

3天內(nèi)不再提示

基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL多模態(tài)理解模型

OSC開源社區(qū) ? 來源:OSC開源社區(qū) ? 2025-04-18 09:30 ? 次閱讀
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

多模態(tài)理解模型是讓AI像人類一樣,通過整合多維度信息(如視覺、語言、聽覺等),理解數(shù)據(jù)背后的語義、情感、邏輯或場景,從而完成推理、決策等任務。

當前已經(jīng)進入多模態(tài)理解大模型發(fā)展的快車道,2025年2月,最新一代的多模態(tài)理解模型Qwen2.5VL開源發(fā)布,其在多個基準測試中取得了SOTA效果,更是直接登頂司南(OpenCompass)排行榜,甚至超越國內(nèi)外知名的GPT-4o和Gemini-2.0等閉源模型。

MindSpeed MM開發(fā)團隊快速對Qwen2.5VL模型全系列尺寸進行適配,并將其正式開源在MindSpeed MM倉庫,同時支持視圖理解全參微調(diào)訓練、Lora微調(diào)訓練、在線推理和評測。

MindSpeed MM基于MindSpeed Core的多維并行能力實現(xiàn)對多模態(tài)模型的極致性能優(yōu)化,更親和昇騰硬件,致力成為昇騰開發(fā)者大集群、大參數(shù)場景多模態(tài)訓練的首選,為開發(fā)者提供高效易用的開發(fā)體驗。

基于MindSpeed MM的Qwen2.5VL視圖理解生成體驗

新一代的多模態(tài)理解模型Qwen2.5VL有強大的視圖理解能力,讓我們快速體驗一下。

基于MindSpeed MM的Qwen2.5VL訓練優(yōu)化特性

多模態(tài)理解模型主要處理如文本、圖像、音頻、視頻、傳感器信號等模態(tài)數(shù)據(jù),不同模態(tài)數(shù)據(jù)存在結(jié)構(gòu)差異、特征表示異質(zhì)性、融合策略多樣性、訓練機制復雜性等特點,Qwen2.5VL訓練的性能瓶頸主要是負載不均衡問題。MindSpeed MM在使用融合算子、分布式優(yōu)化器及流水調(diào)度優(yōu)化等常用特性的基礎(chǔ)上,支持多模態(tài)異構(gòu)流水線并行、動態(tài)流水線并行、數(shù)據(jù)分桶負載均衡等優(yōu)化加速特性,實現(xiàn)訓練性能極致優(yōu)化。

01多模態(tài)異構(gòu)流水線并行,支持大規(guī)模數(shù)據(jù)的復雜多模態(tài)訓練,實現(xiàn)負載均衡

Qwen2.5VL模型包括視覺模塊、連接層以及語言模塊,其中視覺模塊的激活值比較大,當視覺模塊放開訓練或視圖數(shù)據(jù)規(guī)模較大時,會導致顯存占用過大甚至OOM,同時影響多卡之間的負載均衡。MindSpeed MM創(chuàng)新性地實現(xiàn)了異構(gòu)流水線并行特性,支持各種模態(tài)模塊的快速流水線并行適配,支撐實現(xiàn)更復雜場景和更大數(shù)據(jù)規(guī)模的訓練微調(diào),同時也緩解了負載不均衡的問題。

使用方式:在examples/qwen2.5vl/model_*b.json中配置vision_encoder和text_decoder中的pipeline_num_layers字段參數(shù)

3755f9a4-19c4-11f0-9310-92fbcf53809c.png

02流水線并行動態(tài)shape通信支持,實現(xiàn)訓練效率和資源利用率雙提升

多模態(tài)場景中,batch內(nèi)樣本長度要保持一致,需將所有輸入樣本都擴展到統(tǒng)一的序列長度,而不同樣本的序列長度差異較大,對于短序列的數(shù)據(jù)樣本會產(chǎn)生大量冗余計算、增加顯存占用和通信耗時。MindSpeed MM通過使用MindSpeed Core的動態(tài)shape流水線并行特性,減少過度擴展現(xiàn)象,有效降低冗余計算量,實現(xiàn)訓練效率與計算資源利用率雙提升,數(shù)據(jù)集序列長度差異越大,收益越大。

使用方式:在examples/qwen2.5vl/finetune_qwen2_5_vl_*b.sh的GPT_ARGS中加入--variable-seq-lengths參數(shù)。

378067fc-19c4-11f0-9310-92fbcf53809c.png

03數(shù)據(jù)分桶負載優(yōu)化,實現(xiàn)多卡數(shù)據(jù)計算均衡,訓練效率提升10%+

多模態(tài)理解場景由于視圖數(shù)據(jù)的規(guī)模不一致,不同輸入數(shù)據(jù)長度差異很大,因此會導致大集群訓練微調(diào)過程中,不同卡之間的計算耗時差異大,出現(xiàn)卡間負載不均衡問題。MindSpeed MM中通過實現(xiàn)全局數(shù)據(jù)分桶重排,將不同序列長度的數(shù)據(jù)重新進行劃分,從而實現(xiàn)卡間的數(shù)據(jù)大小基本相同,保證訓練數(shù)據(jù)多樣性的同時訓練效率提升10%+。

379e9524-19c4-11f0-9310-92fbcf53809c.png

數(shù)據(jù)分桶負載:將數(shù)據(jù)按token數(shù)量

分配到不同的桶,訓練時按桶取數(shù)據(jù)

使用方式:在examples/qwen2.5vl/data_*b.json中,修改dataloader_param下的sampler_type為"BucketBatchSampler"

37c5bd52-19c4-11f0-9310-92fbcf53809c.png

快速上手,基于MindSpeed MM玩轉(zhuǎn)Qwen2.5VL

環(huán)境安裝

模型開發(fā)時推薦使用配套的環(huán)境版本,詳見倉庫中的”環(huán)境安裝”

https://gitee.com/ascend/MindSpeed-MM/blob/master/examples/qwen2.5vl/README.md

倉庫拉?。?/strong>


git clone https://gitee.com/ascend/MindSpeed-MM.git


git clone https://github.com/NVIDIA/Megatron-LM.git


cd Megatron-LM


git checkout core_r0.8.0


cp -r megatron ../MindSpeed-MM/


cd ..


cd MindSpeed-MM


mkdir logs


mkdir data


mkdir ckpt

環(huán)境搭建:

torch npu 與 CANN包參考鏈接:安裝包參考鏈接

https://gitee.com/link?target=https%3A%2F%2Fsupport.huawei.com%2Fenterprise%2Fzh%2Fascend-computing%2Fcann-pid-251168373%2Fsoftware



# python3.10


conda create -ntestpython=3.10


conda activatetest



#安裝torch和torch_npu,注意要選擇對應python版本、x86或arm的torch、torch_npu及apex包


#下載路徑參考https://www.hiascend.com/document/detail/zh/Pytorch/60RC3/configandinstg/instg/insg_0001.html


pip install torch-2.1.0-cp310-cp310m-manylinux2014_aarch64.whl


pip install torch_npu-2.1.0*-cp310-cp310m-linux_aarch64.whl



# apex for Ascend參考https://gitee.com/ascend/apex


#建議從原倉編譯安裝



#安裝加速庫


gitclonehttps://gitee.com/ascend/MindSpeed.git


cdMindSpeed


# checkout commit from MindSpeed core_r0.8.0


git checkout 3f09d6736571cf1e30f8ac97de77982d0ab32cc5


pip install -r requirements.txt


pip3 install -e .


cd..


#替換MindSpeed中的文件


cp examples/qwen2vl/dot_product_attention.py MindSpeed/mindspeed/core/transformer/dot_product_attention.py



#安裝其余依賴庫


pip install -e .



#安裝transformers指定版本


gitclonehttps://github.com/huggingface/transformers.git


cdtransformers


git checkout fa56dcc2a


pip install -e .

權(quán)重下載及轉(zhuǎn)換

Qwen2.5VL權(quán)重下載:

模型 Huggingface下載鏈接
3B https://huggingface.co/Qwen/Qwen2.5-VL-3B-Instruct/tree/main
7B https://huggingface.co/Qwen/Qwen2.5-VL-7B-Instruct/tree/main
32B https://huggingface.co/Qwen/Qwen2.5-VL-32B-Instruct/tree/main
72B https://huggingface.co/Qwen/Qwen2.5-VL-72B-Instruct/tree/main

權(quán)重轉(zhuǎn)換:

MindSpeed MM修改了部分原始網(wǎng)絡的結(jié)構(gòu)名稱,使用mm-convert工具對原始預訓練權(quán)重進行轉(zhuǎn)換。該工具實現(xiàn)了huggingface權(quán)重和MindSpeed MM權(quán)重的互相轉(zhuǎn)換以及PP(Pipeline Parallel)權(quán)重的重切分。

# 3b
mm-convert Qwen2_5_VLConverter hf_to_mm 
 --cfg.mm_dir"ckpt/mm_path/Qwen2.5-VL-3B-Instruct"
 --cfg.hf_config.hf_dir"ckpt/hf_path/Qwen2.5-VL-3B-Instruct"
 --cfg.parallel_config.llm_pp_layers [36] 
 --cfg.parallel_config.vit_pp_layers [32] 
 --cfg.parallel_config.tp_size 1

# 7b
mm-convert Qwen2_5_VLConverter hf_to_mm 
 --cfg.mm_dir"ckpt/mm_path/Qwen2.5-VL-7B-Instruct"
 --cfg.hf_config.hf_dir"ckpt/hf_path/Qwen2.5-VL-7B-Instruct"
 --cfg.parallel_config.llm_pp_layers [1,10,10,7] 
 --cfg.parallel_config.vit_pp_layers [32,0,0,0] 
 --cfg.parallel_config.tp_size 1

# 32b
mm-convert Qwen2_5_VLConverter hf_to_mm 
 --cfg.mm_dir "ckpt/mm_path/Qwen2.5-VL-32B-Instruct" 
 --cfg.hf_config.hf_dir "ckpt/hf_path/Qwen2.5-VL-32B-Instruct" 
 --cfg.parallel_config.llm_pp_layers [4,9,9,9,9,9,9,6] 
 --cfg.parallel_config.vit_pp_layers [32,0,0,0,0,0,0,0] 
 --cfg.parallel_config.tp_size 2

# 72b
mm-convert Qwen2_5_VLConverter hf_to_mm 
 --cfg.mm_dir"ckpt/mm_path/Qwen2.5-VL-72B-Instruct"
 --cfg.hf_config.hf_dir"ckpt/hf_path/Qwen2.5-VL-72B-Instruct"
 --cfg.parallel_config.llm_pp_layers [14,23,23,20] 
 --cfg.parallel_config.vit_pp_layers [32,0,0,0] 
 --cfg.parallel_config.tp_size 8

#其中:
# mm_dir:轉(zhuǎn)換后保存目錄
# hf_dir: huggingface權(quán)重目錄
# llm_pp_layers: llm在每個卡上切分的層數(shù),注意要和model.json中配置的pipeline_num_layers一致
# vit_pp_layers: vit在每個卡上切分的層數(shù),注意要和model.json中配置的pipeline_num_layers一致
# tp_size: tp并行數(shù)量,注意要和微調(diào)啟動腳本中的配置一致

如果需要用轉(zhuǎn)換后模型訓練的話,同步修改

examples/qwen2.5vl/finetune_qwen2_5_vl_7b.sh中的LOAD_PATH參數(shù),該路徑為轉(zhuǎn)換后或者切分后的權(quán)重,注意與原始權(quán)重ckpt/hf_path/Qwen2.5-VL-7B-Instruct進行區(qū)分。


LOAD_PATH="ckpt/mm_path/Qwen2.5-VL-7B-Instruct"

【數(shù)據(jù)集準備及處理】

數(shù)據(jù)集下載(coco2017數(shù)據(jù)集為例)

(1)用戶需要自行下載COCO2017數(shù)據(jù)集,并解壓到項目目錄下的./data/COCO2017文件夾中

下載鏈接:https://gitee.com/link?target=https%3A%2F%2Fcocodataset.org%2F%23download

(2)獲取圖片數(shù)據(jù)集的描述文件(LLaVA-Instruct-150K),下載至./data/路徑下;

https://gitee.com/link?target=https%3A%2F%2Fhuggingface.co%2Fdatasets%2Fliuhaotian%2FLLaVA-Instruct-150K%2Ftree%2Fmain

(3)在./data路徑下新建文件mllm_format_llava_instruct_data.json,運行數(shù)據(jù)轉(zhuǎn)換腳本python examples/qwen2vl/llava_instruct_2_mllm_demo_format.py;


$playground


├── data


├── COCO2017


├── train2017



├── llava_instruct_150k.json


├── mllm_format_llava_instruct_data.json


...

當前支持讀取多個以,(注意不要加空格)分隔的數(shù)據(jù)集,配置方式為data.json中 dataset_param->basic_parameters->dataset 從"./data/mllm_format_llava_instruct_data.json"修改為"./data/mllm_format_llava_instruct_data.json,./data/mllm_format_llava_instruct_data2.json"

同時注意data.json中dataset_param->basic_parameters->max_samples的配置,會限制數(shù)據(jù)只讀max_samples條,這樣可以快速驗證功能。如果正式訓練時,可以把該參數(shù)去掉則讀取全部的數(shù)據(jù)。

純文本或有圖無圖混合訓練數(shù)據(jù)(以LLaVA-Instruct-150K為例):

現(xiàn)在本框架已經(jīng)支持純文本/混合數(shù)據(jù)(有圖像和無圖像數(shù)據(jù)混合訓練)。在數(shù)據(jù)構(gòu)造時,對于包含圖片的數(shù)據(jù),需要保留image這個鍵值。


{


"id": your_id,


"image": your_image_path,


"conversations": [


{"from":"human","value": your_query},


{"from":"gpt","value": your_response},


],


}

在數(shù)據(jù)構(gòu)造時,對于純文本數(shù)據(jù),可以去除image這個鍵值。


{


"id": your_id,


"conversations": [


{"from":"human","value": your_query},


{"from":"gpt","value": your_response},


],


}

【微調(diào)】

1. 準備工作

配置腳本前需要完成前置準備工作,包括:環(huán)境安裝、權(quán)重下載及轉(zhuǎn)換、數(shù)據(jù)集準備及處理,詳情可查看對應章節(jié)。

2. 配置參數(shù)

數(shù)據(jù)目錄配置:

根據(jù)實際情況修改data.json中的數(shù)據(jù)集路徑,包括model_name_or_path、dataset_dir、dataset等字段。

以Qwen2.5VL-7B為例,data.json進行以下修改,注意model_name_or_path的權(quán)重路徑為轉(zhuǎn)換前的權(quán)重路徑。

注意cache_dir在多機上不要配置同一個掛載目錄避免寫入同一個文件導致沖突。


{


"dataset_param": {


"dataset_type": "huggingface",


"preprocess_parameters": {


"model_name_or_path": "./ckpt/hf_path/Qwen2.5-VL-7B-Instruct",


...


},


"basic_parameters": {


...


"dataset_dir": "./data",


"dataset": "./data/mllm_format_llava_instruct_data.json",


"cache_dir": "./data/cache_dir",


...


},


...


},


...


}


}

模型保存加載及日志信息配置:

根據(jù)實際情況配置examples/qwen2.5vl/finetune_qwen2_5_vl_7b.sh的參數(shù),包括加載、保存路徑以及保存間隔--save-interval(注意:分布式優(yōu)化器保存文件較大耗時較長,請謹慎設置保存間隔)


...


#加載路徑


LOAD_PATH="ckpt/mm_path/Qwen2.5-VL-7B-Instruct"


#保存路徑


SAVE_PATH="save_dir"


...


GPT_ARGS="


...


--no-load-optim #不加載優(yōu)化器狀態(tài),若需加載請移除


--no-load-rng #不加載隨機數(shù)狀態(tài),若需加載請移除


--no-save-optim #不保存優(yōu)化器狀態(tài),若需保存請移除


--no-save-rng #不保存隨機數(shù)狀態(tài),若需保存請移除


...


"


...


OUTPUT_ARGS="


--log-interval 1 #日志間隔


--save-interval 5000 #保存間隔


...


--log-tps #增加此參數(shù)可使能在訓練中打印每步語言模塊的平均序列長度,并在訓練結(jié)束后計算每秒吞吐tokens量。


"

若需要加載指定迭代次數(shù)的權(quán)重、優(yōu)化器等狀態(tài),需將加載路徑LOAD_PATH設置為保存文件夾路徑LOAD_PATH="save_dir",并修改latest_checkpointed_iteration.txt文件內(nèi)容為指定迭代次數(shù) (此功能coming soon)

$save_dir
 ├── latest_checkpointed_iteration.txt
 ├── ...

單機運行配置:

配置examples/qwen2.5vl/finetune_qwen2_5_vl_7b.sh參數(shù)如下


#根據(jù)實際情況修改 ascend-toolkit 路徑


source /usr/local/Ascend/ascend-toolkit/set_env.sh


NPUS_PER_NODE=8


MASTER_ADDR=locahost


MASTER_PORT=29501


NNODES=1


NODE_RANK=0


WORLD_SIZE=$(($NPUS_PER_NODE * $NNODES))

注意,當開啟PP時,model.json中配置的vision_encoder和text_decoder的pipeline_num_layer參數(shù)控制了各自的PP切分策略。對于流水線并行,要先處理vision_encoder再處理text_decoder。 比如7b默認的值[32,0,0,0]、[1,10,10,7],其含義為PP域內(nèi)第一張卡先放32層vision_encoder再放1層text_decoder、第二張卡放text_decoder接著的10層、第三張卡放text_decoder接著的10層、第四張卡放text_decoder接著的7層,vision_encoder沒有放完時不能先放text_decoder(比如[30,2,0,0]、[1,10,10,7]的配置是錯的)。

同時注意,如果某張卡上的參數(shù)全部凍結(jié)時會導致沒有梯度(比如vision_encoder凍結(jié)時PP配置[30,2,0,0]、[0,11,10,7]),需要在finetune_qwen2_5_vl_7b.sh中GPT_ARGS參數(shù)中增加--enable-dummy-optimizer,

3. 啟動微調(diào)

以Qwen2.5VL-7B為例,啟動微調(diào)訓練任務。

bash examples/qwen2.5vl/finetune_qwen2_5_vl_7b.sh

【性能實測:昇騰硬件加速提升性能】

備注:Samples per Second 為 (SPS)

模型尺寸 任務類型 訓練規(guī)模(A2) 混精類型 性能
3B 微調(diào) 單機8卡 bf16 23.771(SPS)
7B 微調(diào) 單機8卡 bf16 14.204(SPS)
32B 微調(diào) 雙機16卡 bf16 6.755(SPS)
72B 微調(diào) 4機32卡 bf16 4.669(SPS)

【更多參數(shù)見MindSpeed MM倉庫】

準備工作和參數(shù)說明見MindSpeed MM開源代碼倉鏈接:

https://gitee.com/ascend/MindSpeed-MM/tree/master/examples/qwen2.5vl

結(jié)語

MindSpeed MM是面向大規(guī)模分布式訓練的昇騰多模態(tài)大模型套件,同時支持多模態(tài)生成及多模態(tài)理解,旨在為華為昇騰芯片提供端到端的多模態(tài)訓練解決方案, 包含預置業(yè)界主流模型,數(shù)據(jù)工程,分布式訓練及加速,預訓練、微調(diào)、在線推理任務等特性。

MindSpeed MM即將上線更加豐富的支持Qwen2.5VL模型的特性,敬請期待。

聲明:本文內(nèi)容及配圖由入駐作者撰寫或者入駐合作網(wǎng)站授權(quán)轉(zhuǎn)載。文章觀點僅代表作者本人,不代表電子發(fā)燒友網(wǎng)立場。文章及其配圖僅供工程師學習之用,如有內(nèi)容侵權(quán)或者其他違規(guī)問題,請聯(lián)系本站處理。 舉報投訴
  • AI
    AI
    +關(guān)注

    關(guān)注

    91

    文章

    40820

    瀏覽量

    302427
  • 開源
    +關(guān)注

    關(guān)注

    3

    文章

    4306

    瀏覽量

    46398
  • 模型
    +關(guān)注

    關(guān)注

    1

    文章

    3808

    瀏覽量

    52241
  • Mindspeed
    +關(guān)注

    關(guān)注

    1

    文章

    15

    瀏覽量

    9336

原文標題:多模態(tài)理解SOTA模型開箱即用,MindSpeed MM支持Qwen2.5-VL最佳實踐

文章出處:【微信號:OSC開源社區(qū),微信公眾號:OSC開源社區(qū)】歡迎添加關(guān)注!文章轉(zhuǎn)載請注明出處。

收藏 人收藏
加入交流群
微信小助手二維碼

掃碼添加小助手

加入工程師交流群

    評論

    相關(guān)推薦
    熱點推薦

    愛芯通元NPU適配Qwen2.5-VL-3B視覺模態(tài)模型

    InternVL2.5-1B/8B/MPO,Huggingface推出的全球最小模態(tài)模型SmloVLM-256M。為工業(yè)界提供了離線部署
    的頭像 發(fā)表于 04-21 10:56 ?3638次閱讀
    愛芯通元NPU適配<b class='flag-5'>Qwen2.5-VL</b>-3B視覺<b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>

    愛芯元智邊緣AI芯片AX8850完成Qwen3-VL模態(tài)模型適配

    已適配 Qwen3-VL-2B/4B/8B 到 AX8850 開發(fā)板和 M.2 算力卡,可在本地完成圖片內(nèi)容理解和視頻概要生成,可配合“樹莓派5”使用。
    的頭像 發(fā)表于 11-26 13:57 ?3339次閱讀
    愛芯元智邊緣AI芯片AX8850完成<b class='flag-5'>Qwen3-VL</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大<b class='flag-5'>模型</b>適配

    基于米爾瑞芯微RK3576開發(fā)板的Qwen2-VL-3B模型NPU模態(tài)部署評測

    模型(如 Qwen2-VL-2B)進行專項優(yōu)化,token 生成速度達 10+每秒,適配本地化模態(tài)交互需求; 算力分配:RK3576 的 NPU 集成 512KB 共享內(nèi)存,減少數(shù)據(jù)
    發(fā)表于 08-29 18:08

    阿里云開源視覺語言大模型Qwen-VL ,支持圖文雙模態(tài)輸入

    據(jù)介紹,Qwen-VL 是支持中英文等多種語言的視覺語言(Vision Language,VL模型。相較于此前的 VL 模型,
    的頭像 發(fā)表于 08-25 15:12 ?3199次閱讀
    阿里云開源視覺語言大<b class='flag-5'>模型</b><b class='flag-5'>Qwen-VL</b> ,支持圖文雙<b class='flag-5'>模態(tài)</b>輸入

    基于Qwen-Agent與OpenVINO構(gòu)建本地AI智能體

    Qwen2 是阿里巴巴集團 Qwen 團隊研發(fā)的大語言模型和大型模態(tài)模型系列。
    的頭像 發(fā)表于 07-26 09:54 ?2029次閱讀
    基于<b class='flag-5'>Qwen</b>-Agent與OpenVINO構(gòu)建本地AI智能體

    通義千問發(fā)布第二代視覺語言模型Qwen2-VL

    。Qwen2-VL系列模型模態(tài)處理領(lǐng)域取得了突破性進展,于多個權(quán)威測評中嶄露頭角,刷新了多項最佳成績記錄,展現(xiàn)出強大的視覺理解與語言交互
    的頭像 發(fā)表于 09-03 16:31 ?1424次閱讀

    利用OpenVINO部署Qwen2模態(tài)模型

    模態(tài)模型的核心思想是將不同媒體數(shù)據(jù)(如文本、圖像、音頻和視頻等)進行融合,通過學習不同模態(tài)之間的關(guān)聯(lián),實現(xiàn)更加智能化的信息處理。簡單來說,
    的頭像 發(fā)表于 10-18 09:39 ?2989次閱讀

    PerfXCloud重磅升級 阿里開源最強視覺語言模型Qwen2-VL-7B強勢上線!

    體驗吧! Qwen2-VL Qwen2-VL模型由阿里推出,在描述圖像、理解視頻以及解答視覺相關(guān)問題等方面表現(xiàn)極為卓越。該模型提供2B/7B
    的頭像 發(fā)表于 10-23 11:07 ?1371次閱讀
    PerfXCloud重磅升級  阿里開源最強視覺語言<b class='flag-5'>模型</b><b class='flag-5'>Qwen2-VL</b>-7B強勢上線!

    阿里云開源Qwen2.5-Coder代碼模型系列

    Qwen2.5-Coder-32B-Instruct,在代碼生成領(lǐng)域取得了顯著成就。據(jù)官方介紹,該模型在EvalPlus等十多個主流的代碼生成基準測試中,均刷新了開源模型的得分紀錄,展現(xiàn)出了卓越的性能。更值得一提的是,
    的頭像 發(fā)表于 11-14 11:28 ?1775次閱讀

    一文理解模態(tài)大語言模型——下

    /understanding-multimodal-llms ? 《一文理解模態(tài)大語言模型 - 上》介紹了什么是
    的頭像 發(fā)表于 12-03 15:18 ?1307次閱讀
    一文<b class='flag-5'>理解</b><b class='flag-5'>多</b><b class='flag-5'>模態(tài)</b>大語言<b class='flag-5'>模型</b>——下

    利用英特爾OpenVINO在本地運行Qwen2.5-VL系列模型

    近期阿里通義實驗室在 Hugging Face 和 ModelScope 上開源了 Qwen2.5-VL 的 Base 和 Instruct 模型,包含 3B、7B 和 72B 在內(nèi)的 3 個模型尺寸。
    的頭像 發(fā)表于 03-12 13:42 ?2745次閱讀
    利用英特爾OpenVINO在本地運行<b class='flag-5'>Qwen2.5-VL</b>系列<b class='flag-5'>模型</b>

    Qwen3-VL 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    算能BM1684X上完成Qwen3-VL4B/8B模型的適配,推理速度13.7/7.2tokens/s,使其成為邊緣部署模態(tài)模型的最佳選
    的頭像 發(fā)表于 10-16 18:00 ?3028次閱讀
    <b class='flag-5'>Qwen3-VL</b> 4B/8B全面適配,BM1684X成邊緣最佳部署平臺!

    格靈深瞳模態(tài)模型榮登InfoQ 2025中國技術(shù)力量年度榜單

    靈感實驗室聯(lián)合LLaVA社區(qū)發(fā)布的模態(tài)模型LLaVA-OneVision-1.5,實現(xiàn)了訓練數(shù)據(jù)、代碼和模型權(quán)重的全鏈路開源,在多項公開
    的頭像 發(fā)表于 01-05 10:05 ?633次閱讀

    天數(shù)智芯完成阿里云通義千問Qwen3.5系列模態(tài)模型全量適配

    近日,天數(shù)智芯攜手眾智FlagOS 社區(qū)完成阿里云通義千問 Qwen3.5 系列模態(tài)模型全量適配,實現(xiàn)模型精度精準對齊與端到端無縫部署,再
    的頭像 發(fā)表于 03-26 09:25 ?1212次閱讀

    海光DCU完成Qwen3.5模態(tài)MoE模型全量適配

    近日,海光DCU完成Qwen3.5-397B MoE旗艦模態(tài)模型Qwen3.5-35B-A3B MoE
    的頭像 發(fā)表于 03-26 09:35 ?578次閱讀
    禄劝| 碌曲县| 天津市| 育儿| 班戈县| 千阳县| 遵义市| 济阳县| 桦南县| 贵南县| 黄冈市| 大石桥市| 常熟市| 平安县| 金溪县| 房产| 沅陵县| 行唐县| 沙洋县| 科技| 沂水县| 阜康市| 周宁县| 措勤县| 南康市| 林芝县| 乌拉特中旗| 东阳市| 合江县| 民勤县| 兴安盟| 临沭县| 江油市| 裕民县| 兴和县| 霍山县| 天峨县| 康乐县| 杭锦后旗| 汉川市| 仪陇县|