GLM-4.7-Flash:智谱开源的 30B 级轻量化混合专家模型,支持本地部署与多场景应用 GLM-4.7-Flash 是由智谱科技开源的轻量化混合专家(MoE)大语言模型,总参数量达 30B,推理时仅激活 3B 参数,实现了高性能与低资源消耗的平衡。该模型支持 200K 长上下文窗... 4小时前 AI新闻 61