SVD を超える速度、SGD を超える知性:OPLoRA 交互更新法

SVD を超える速度、SGD を超える知性:OPLoRA 交互更新法

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2509.19977v1発表、新規。

概要:Low-Rank Adaptation (LoRA)は、凍結された重みに低ランク更新を学習することで大規模モデルを微調整し、学習可能なパラメータとメモリを大幅に削減します。しかし、低ランク射影を用いた完全訓練(SVDLoRA)とLoRA微調整の間には依然として隔たりがあり、LoRAステップの更なる改善の余地を示唆しています。本研究では、LoRA最適化を解釈可能な部分問題として定式化し、交互最小二乗法更新を用いて効率的に解くことでこの隔たりを埋めるメモリ効率の良い最適化手法OPLoRAを提案します。実験的に1〜2回の交互ステップで、完全行列を形成することなく、切り捨て特異値分解(truncated SVD)に近似できることが分かっています。また、最近提案されたLoRAの前処理手法を特殊なケースとして含みます。OPLoRAは、ステップ計算に同じサブルーチンプロセス(LoRSum)を用いて低ランク推定値を維持することでモーメンタムをサポートし、メモリ使用量はLoRAパラメータ数の3倍(Adamと同じ)です。K-FACメトリックを用いた実験的なスケールバリアントについても提案します。線形タスク、MNIST、CIFAR-100、およびRoBERTa-base(MNLI)において、OPLoRAは著しく少ないメモリでSVDLoRAの性能に一貫して近づきます。

原文(英語)を表示

Title (EN): Faster Than SVD, Smarter Than SGD: The OPLoRA Alternating Update

arXiv:2509.19977v1 Announce Type: new
Abstract: Low-Rank Adaptation (LoRA) fine-tunes large models by learning low-rank updates on top of frozen weights, dramatically reducing trainable parameters and memory. However, there is still a gap between full training with low-rank projections (SVDLoRA) and LoRA fine-tuning, indicating that LoRA steps can be further improved. In this study, we propose OPLoRA, a memory-efficient optimizer that closes this gap by casting LoRA optimization as an interpretable sub-problem and solving it efficiently with alternating least squares updates, where 1-2 alternating steps are empirically found to be sufficient to closely match truncated SVD without ever forming the full matrix. We also retrieve the recently proposed preconditioning methods for LoRA as a special case. OPLoRA supports momentum by maintaining a low-rank estimate using the same subroutine (LoRSum) for computing the step, with a memory budget of 3 times the number of LoRA parameters (i.e., same as Adam). We also propose an experimental scaled variant that uses the K-FAC metric, which could be of interest. Across a linear task, MNIST, CIFAR-100, and RoBERTa-base (MNLI), OPLoRA consistently approaches SVDLoRA’s performance using significantly less memory.

Published: 2025-09-24 19:00 UTC


コメントする