| 测试指标 | ChatDLM 表现 | 对比传统模型(如 GPT - 4) |
|---|---|---|
| 推理速度 | A100 GPU 环境下达 2800 tokens/s | 仅 800 - 1200 tokens/s,ChatDLM 速度快 3 倍左右 |
| 最大上下文长度 | 131,072 tokens | 多为 32,768 tokens,上下文处理能力提升显著 |
| HumanEval(0 - shot)准确率 | 92.0% | 88.7%,在代码生成类任务上优势明显 |
| Fill - in - the - Middle 准确率 | 84.2% | 79.5%,文本补全类任务表现更优 |
了解 mcpinfo 背后的团队成员,包括创始人、开发人员、设计师和产品人员。
该产品暂无团队信息。