ローカライズドLoRA:効率的なファインチューニングのための構造化低ランク近似
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2506.00236v2 発表種別:差し替え
要約:LoRAなどのパラメータ効率の良いファインチューニング(PEFT)手法は、事前学習済みウェイトに低ランク更新を導入することで、モデル全体のファインチューニングに比べてコンパクトで効果的な代替手段を提供する。しかし、既存手法のほとんどはグローバルな低ランク構造に依存しており、パラメータ空間全体に広がる空間パターンを見落とす可能性がある。本研究では、ウェイト更新をウェイト行列の構造化されたブロックに適用される低ランク行列の合成としてモデル化する、局所化LoRAという一般化されたフレームワークを提案する。この定式化により、学習可能なパラメータの総数を増やすことなく、パラメータ空間全体で高密度かつ局所的な更新が可能になる。グローバル、対角局所、完全局所化低ランク近似間の正式な比較を行い、本手法が一致したパラメータ予算下で常に低い近似誤差を達成することを示す。合成設定と現実的な設定の両方における実験により、局所化LoRAは既存の手法よりも表現力豊かで適応可能な代替手段を提供し、性能を向上させた効率的なファインチューニングを可能にすることが実証された。
原文(英語)を表示
Title (EN): Localized LoRA: A Structured Low-Rank Approximation for Efficient Fine-Tuning
arXiv:2506.00236v2 Announce Type: replace-cross
Abstract: Parameter-efficient fine-tuning (PEFT) methods, such as LoRA, offer compact and effective alternatives to full model fine-tuning by introducing low-rank updates to pre-trained weights. However, most existing approaches rely on global low rank structures, which can overlook spatial patterns spread across the parameter space. In this work, we propose Localized LoRA, a generalized framework that models weight updates as a composition of low-rank matrices applied to structured blocks of the weight matrix. This formulation enables dense, localized updates throughout the parameter space without increasing the total number of trainable parameters. We provide a formal comparison between global, diagonal-local, and fully localized low-rank approximations, and show that our method consistently achieves lower approximation error under matched parameter budgets. Experiments on both synthetic and practical settings demonstrate that Localized LoRA offers a more expressive and adaptable alternative to existing methods, enabling efficient fine-tuning with improved performance.
Published: 2025-09-24 19:00 UTC