
Perplexity CEO 称赞月之暗面,希望基于 Kimi K2 进行后训练

LiveMint今年1月报道显示,此前DeepSeekR1也曾被Perplexity用于模型训练。KimiK2是月之暗面Kimi昨日刚发布的旗下首个万亿参数开源模型,强调代码能力和通用Agent任务能力。这是一个更擅长通用Agent任务的MoE架构基础模型,总参数1T,激活参数32B。从月之暗面官方获悉,KimiK2在SWEBenchVerified、Tau2、AceBench等基准性能测试中均取得开源模型中的SOTA成绩,展现出在代码、Agent、数学推理任务上的领先能力。