🔗 未来增强承诺: 摩根大通承诺以轻量级方式将视觉融入DocLLM,进一步提升其多模态文档理解能力。
@LlamaIndex创始人Jerry Liu
别急,已经在进步了。
站长之家(ChinaZ.com) 1月4日 消息:小冰公司宣布已获得 “小冰大模型” 国内备案,结束静默期,正式发布一系列产品。
LLaVA是一个端到端训练的多模态大模型,它将视觉编码器和用于通用视觉和语言理解的Vicuna相结合,具备令人印象深刻的聊天能力。而CogAgent是在CogVLM基础上改进的开源视觉语言模型,拥有110亿个视觉参数和70亿个语言参数。