论文笔记Attention Is All You Need — Transformer 架构精读深度解析 Transformer 论文,梳理 Self-Attention 机制、位置编码与多头注意力的核心原理