情人节那天字节跳动发布了2.0版本豆包大模型。官方介绍称,豆包2.0围绕大规模生产环境的使用需求做了系统性优化,旨在突破真实世界中的复杂任务。在多模态理解方面,豆包2.0在各类视觉理解任务上达到业界顶尖水平,多项基准测试取得SOTA成绩。在agent能力上,豆包2.0强化了长链路任务执行能力,擅长连续完成“找资料、做归 ...
很多人都期待这一次的更新是 V4 模型,但是遗憾的是应该还是 V3 版本的延续,而且也依旧是纯文本模型,该模型不具备图像识别能力。这一次模型的回复速度很快,之前大概是30-35 token/s,现在感觉大概是60左右,比各家的flash慢一点,但在大的模型里头算快的。
一些您可能无法访问的结果已被隐去。
显示无法访问的结果