Self-Attention機構の理論と実装を完全解説 2026年3月7日 Transformer 文章を読んでいるとき、私たちは無意識に「注目すべき場所」を切り替えています。たと... AttentionKeyQuerySelf-AttentionTransformerValue深層学習