在大型模型技术持续进步的背景下,MaaS服务正逐步迈向普及化阶段。智谱AI 坚持「运用最先进的技术,服务最广大的用户」的宗旨,自即日起,我们将 GLM-4-Flash API 免费向公众开放。GLM-4-Flash 模型在“速度”和“性能”两方面都具有较大优势。
为提升模型的推理速度,我们采用了自适应权重量化、多种并行处理技术、批处理策略以及投机性采样等多项优化措施。依据第三方模型速度测试结果,GLM-4-Flash 的推理速度在一周的测试周期内稳定在72.14 token/s 附近,显著优于其他模型。
在性能上,我们在模型预训练阶段,使用了多达 10T 的高质量多语言数据,使得模型具备多轮对话、网页搜索、工具调用以及长文本推理(支持最大128K的上下文长度)等功能,支持包括汉语、英语、日语、韩语、德语在内的26种语言。在完全免费开放 GLM-4-Flash API 的基础之上,为了支持广大用户更好地将模型适用到特定应用场景,我们同步提供了模型微调功能,以满足不同用户的需求。欢迎使用!
© 版权声明
THE END
暂无评论内容