跳转至

注意力机制 (2017-2019)

从 Transformer 一篇论文起,整个 NLP / CV / 多模态领域被 self-attention 重写。

收录笔记