注意力机制 (Transformer)(TensorFlow)
灵长类动物的视觉系统接受了大量的感官输入,这些感官输入远远超过了大脑能够完全处理的程度。然而,并非所有刺激的影响都是相等的。意识的聚集和专注使灵长类动物能够在复杂的视觉环境中将注意力引向感兴趣的物体,例如猎物和天敌。只关注一小部分信息的能力对进化更加有意义,使人类得以生存和成功。自19
世纪以来,科学家们一直致力于研究认知神经科学领域的注意力。基于注意力机制的Transformer
架构,该架构中使用了多头注意力(multi-head attention
)和自注意力(self-attention
)。自2017
年横空出世,Transformer
一直都普遍存在于现代的深度学习应用中,例如语言、视觉、语音和强化学习领域。