之家 5 月 28 日消息,微軟在 Build 2024 大會(huì)上發(fā)布了 Phi-3 家族的最新成員--Phi-3-vision,主打“視覺(jué)能力”,能夠理解圖文內(nèi)容,同時(shí)據(jù)稱可以在移動(dòng)平臺(tái)上流暢高效運(yùn)行。

Phi-3-vision 是一款多模態(tài)小型語(yǔ)言模型(SLM),主要用于本地 AI 場(chǎng)景,該模型參數(shù)量為 42 億,上下文長(zhǎng)度為 128k token,能夠?yàn)槌R?guī)視覺(jué)推理任務(wù)和其他任務(wù)提供支持。
那么 Phi-3-vision 有多厲害?微軟今天發(fā)布了新的論文 [PDF],表示該 SLM 和 Claude 3-haiku、Gemini 1.0 Pro 等其他模型不相上下。

微軟在論文中對(duì)比了 ScienceQA、MathVista 和 ChartQA 等模型,Phi-3-vision 的參數(shù)雖然不多,但性能非常優(yōu)秀。
IT之家此前報(bào)道,微軟提供了 Phi-3-vision 相較于字節(jié)跳動(dòng) Llama3-Llava-Next(8B)、微軟研究院和威斯康星大學(xué)、哥倫比亞大學(xué)合作的 LlaVA-1.6(7B)、阿里巴巴通義千問(wèn) QWEN-VL-Chat 模型等競(jìng)品模型的比較圖表,其中顯示 Phi-3-vision 模型在多個(gè)項(xiàng)目上表現(xiàn)優(yōu)異。

目前微軟已經(jīng)將該模型上傳至 Hugging Face,感興趣的小伙伴們可以訪問(wèn)項(xiàng)目地址:點(diǎn)此進(jìn)入。