资讯中心

字节跳动开源AI训练引擎涵盖编码层、解码层等

来源:TechWeb
2021/6/28 13:58:19
22158
导读:据悉,Transformer是自然语言处理、计算机视觉等AI技术领域十分常用的基础模型,被广泛应用在机器翻译、文本生成、文本摘要、图像处理、时间序列预测等任务中。
  6月28日消息,今日,字节跳动火山翻译团队宣布推出LightSeq训练加速引擎,并向全球开发者开源。
 
  Transformer是自然语言处理、计算机视觉等AI技术领域十分常用的基础模型,被广泛应用在机器翻译、文本生成、文本摘要、图像处理、时间序列预测等任务中。训练和推理则是AI技术的两个主要过程,相当于学习知识和解决问题。
 
  据悉,LightSeq训练加速引擎能够支持Transformer的完整加速,从词嵌入层、编码层、解码层,到最后的损失函数层,业内首次实现了全流程支持。而且LightSeq的训练速度极快,相比主流的序列生成库,LightSeq最快只需要三分之一的时间就能完成训练。
 
  根据公开报道,字节跳动现在已经开源了机器学习平台Klever、联邦学习平台Fedlearner、高性能分布式训练框架BytePS等重磅项目。
 
  (原标题:字节跳动开源AI训练引擎)

热门评论

上一篇:年度旗舰!小米全自动智能门锁Pro官宣:有望支持3D人脸识别

下一篇:物联卫星加持,OneWeb和英国电信签署英国农村连接解决方案协议

相关新闻

<