言語・LLM メモリ効率を向上するアテンション機構「TPA」でTransformer軽量化 テンソル積を用いた効率的な注意メカニズムTPAを提案。従来のTransformerとの統合が簡単で、メモリ効率や計算負荷を改善し、資源節約に貢献。計算資源が限られる環境での利点を強調。 2025.02.03 言語・LLM論文解説