Attention Is All You Need
Attention Is All You Need
ar5iv.labs.arxiv.org
Related
Highlights
在这项工作中,我们提出了 Transformer 模型架构,它摒弃了递归,而是完全依赖注意力机制来绘制输入和输出之间的全局依赖关系。Transformer 可以大大提高并行化程度,在 8 个 P100 GPU 上只需 12 个小时的训练,就能达到翻译质量的新高度。
Attention Is All You Need
M
Marvin Chang