1月24日,岩芯数智正式发布自研大模型“Yan模型”。Yan模型采用非Transformer架构,为非Attention机制的通用自然语言大模型。据悉,该大模型相较于同等参数的Transformer,在训练效率上提高了7倍,在推理吞吐方面提高了5倍,并且拥有3倍的记忆能力。
编辑/程乾
本平台发布/转载的内容仅用于信息分享,不代表我司对外的任何意见、建议或保证,我们倡导尊重与保护知识产权,如发现本站文章存在版权问题,烦请将版权疑问、授权证明、版权证明、联系方式等,发邮件至info@tonews.cn,我们将第一时间核实、处理。同时,欢迎各方媒体、机构转载和引用,但要严格注明来源:今日商讯。
关注今日商讯