言語・LLM Transformer高速化「Lightning Attention」導入 新しいTransformerアプローチ「Lightning Attention」により計算効率が大幅向上。MiniMax-01シリーズは膨大なトークンを処理し、RLHF学習によりモデルの応答品質と一貫性が向上することが判明。 2025.03.07 言語・LLM論文解説
画像 【Edicho】画像編集で特定要素を編集しても一貫性を保つ 画像編集で一貫性を保つ新手法Edichoの提案対応づけと生成ステップによる自然な編集結果の実現デザインやエンタメ業界での応用可能性と実務的価値論文:Edicho: Consistent Image Editing in the Wild本記... 2025.01.06 画像論文解説