今天,腾讯混元开源首个混合推理MoE模型Hunyuan A13B,小身材拥有大智慧—— 只需要13B(130亿)的激活参数,就能实现和同等架构开源模型一样的效果,推理性能还快了2倍以上;并且,只需要一张中低端GPU卡就能部署。换句话说,开发者可以花更低的成本,用上更好的模型。出处:mp.weixin.qq.com
今天,腾讯混元开源首个混合推理MoE模型Hunyuan A13B,小身材拥有大智慧—— 只需要13B(130亿)的激活参数,就能实现和同等架构开源模型一样的效果,推理性能还快了2倍以上;并且,只需要一张中低端GPU卡就能部署。换句话说,开发者可以花更低的成本,用上更好的模型。出处:mp.weixin.qq.com
发表评论 取消回复