标签:MoE

MoE模型已成新风口,AI基础设施竞速升级

近期开源的 Llama 4 系列模型因基准测试成绩与实际表现差异较大而引发争议,但MoE(混合专家)架构被认为是未来 AI 大模型的主流范式之一。从 Mixtral 到 Dee...

面壁不只要做中国Mistral,还要超过它

文章介绍了面壁智能发布了四个特性鲜明的模型,并宣布了数亿元的新融资。这次融资由春华创投、华为哈勃领投,北京市人工智能产业投资基金等跟投,知乎作为战...