2月5日 消息:CodeFuse-VLM是一個支持多種視覺模型和語言大模型的框架,用戶可以根據自己的需求搭配不同的Vision Encoder和LLM。
CodeFuse-VLM-14B模型在多個通用和代碼任務上的性能超過LLAVA-1.5和Qwen-VL。
該框架還支持高效的PEFT微調,能有效提升微調訓練速度并降低對資源的需求。
此外,CodeFuse-VLM還被用于訓練網頁圖片到前端代碼的多模態大模型,提高了前端工程師的開發效率。

CodeFuse-MFT-VLM 項目地址:
https://github.com/codefuse-ai/CodeFuse-MFT-VLM
CodeFuse-VLM-14B模型地址:
https://modelscope.cn/models/ss41979310/CodeFuse-VLM-14B/files
?版權聲明:如無特殊說明,本站所有內容均為AIHub.cn原創發布和所有。任何個人或組織,在未征得本站同意時,禁止復制、盜用、采集、發布本站內容到任何網站、書籍等各類媒體平臺。否則,我站將依法保留追究相關法律責任的權利。