国产在线精品一区二区三区直播_精品国产乱码久久久久久影片_欧美老妇人与禽交_男人天堂2018手机在线版_亚洲中文精品久久久久久不卡_国产毛多水多做爰爽爽爽_野外做受三级视频_中文天堂在线www_国产精品无码久久四虎_国产在线观看免费人成视频

您的位置:首頁 >科技 >

阿里云開源多模態(tài)視覺模型 Qwen-VL,號稱“超同等規(guī)模模型表現”


(資料圖)

IT之家 8 月 25 日消息,阿里云今日推出了大規(guī)模視覺語言模型 Qwen-VL,目前已經在 ModeScope 開源,IT之家早前曾報道,阿里云此前已經開源通義千問 70 億參數通用模型 Qwen-7B 和對話模型 Qwen-7B-Chat。

據悉,Qwen-VL 是一款支持中英文等多種語言的視覺語言(Vision Language,VL)模型,相較于此前的 VL 模型,其除了具備基本的圖文識別、描述、問答及對話能力之外,還新增了視覺定位、圖像中文字理解等能力。

▲ 圖源 ArXiv 論文

Qwen-VL 以 Qwen-7B 為基座語言模型,在模型架構上引入視覺編碼器,使得模型支持視覺信號輸入,該模型支持的圖像輸入分辨率為 448,此前開源的 LVLM 模型通常僅支持 224 分辨率。

官方表示,該模型可用于知識問答、圖像標題生成、圖像問答、文檔問答、細粒度視覺定位等場景,在主流的多模態(tài)任務評測和多模態(tài)聊天能力評測中,取得了遠超同等規(guī)模通用模型的表現。

▲ 圖源 modelscope

此外,在 Qwen-VL 的基礎上,通義千問團隊使用對齊機制,打造了基于 LLM 的視覺 AI 助手 Qwen-VL-Chat,可讓開發(fā)者快速搭建具備多模態(tài)能力的對話應用。

通義千問團隊同時表示,為了測試模型的多模態(tài)對話能力,他們構建了一套基于 GPT-4 打分機制的測試集 “試金石”,對 Qwen-VL-Chat 及其他模型進行對比測試,Qwen-VL-Chat 在中英文的對齊評測中均取得了開源 LVLM 最好結果。

▲ 圖源 modelscope

標簽:

熱門資訊

圖片新聞

精彩新聞