e公司讯,据阿里通义千问消息,今天,通义千问团队开源首个MoE模型,名为Qwen1.5-MoE-A2.7B。对比当前最好的7B参数模型,Qwen1.5-MoE-A2.7B取得了与之相当的性能,且显著降低了训练成本和推理时间。