GLM-4-Flash:免费开源的高性能AI模型

IMG_256
在大型模型技术持续进步的背景下,MaaS服务正逐步迈向普及化阶段。智谱AI 坚持「运用最先进的技术,服务最广大的用户」的宗旨,自即日起,我们将 GLM-4-Flash API 免费向公众开放。GLM-4-Flash 模型在“速度”和“性能”两方面都具有较大优势。

为提升模型的推理速度,我们采用了自适应权重量化、多种并行处理技术、批处理策略以及投机性采样等多项优化措施。依据第三方模型速度测试结果,GLM-4-Flash 的推理速度在一周的测试周期内稳定在72.14 token/s 附近,显著优于其他模型。

IMG_257

在性能上,我们在模型预训练阶段,使用了多达 10T 的高质量多语言数据,使得模型具备多轮对话、网页搜索、工具调用以及长文本推理(支持最大128K的上下文长度)等功能,支持包括汉语、英语、日语、韩语、德语在内的26种语言。在完全免费开放 GLM-4-Flash API 的基础之上,为了支持广大用户更好地将模型适用到特定应用场景,我们同步提供了模型微调功能,以满足不同用户的需求。欢迎使用!

© 版权声明
THE END
喜欢就支持一下吧
点赞5 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容