Transformer Decoderの構造とMasked Self-Attentionの仕組み 2026年2月19日 Transformer Transformer Decoderは、系列を自己回帰的に生成するためのアーキ... Cross-AttentionDecoderMasked AttentionTransformer深層学習