離散拡散モデルのための学習可能サンプラー蒸留
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2509.19962v1発表。概要:離散拡散モデル(DDM)は、テキストや分子などの離散データモダリティにおいて強力な生成能力を示している。しかし、その実用化は非効率的なサンプリング、つまり多数のサンプリングステップを必要とすることに阻まれている。より大きなステップサイズを用いてDDMを高速化しようとすると、因数分解された予測による累積復号誤差と数値近似からの離散化誤差の両方の影響が増幅され、サンプリング品質が大幅に低下するなど、生成品質に深刻な問題が生じるのが一般的である。これらの課題に対処するため、本稿では、DDMのための高速かつ高忠実度のサンプラーを学習する新たな手法である、学習可能なサンプラー蒸留(LSD)を提案する。LSDは、少数のステップを持つ生徒サンプラーが、多数のステップを持つ高品質な教師サンプラーの中間スコア軌跡と一致するように学習する蒸留手法を採用する。この一致は、サンプリングダイナミクスを適応的に調整する学習可能なサンプラー係数を最適化することで達成される。さらに、ステップを不均一に割り当てる時間スケジュールの学習も行うLSD+も提案する。テキスト生成、画像生成、および合成タスクにおける実験により、提案手法は既存のDDM用サンプラーを凌駕し、大幅に少ないサンプリングステップで、実質的に高いサンプリング品質を達成することを示す。コードはhttps://github.com/feiyangfu/LSDにて公開している。
原文(英語)を表示
Title (EN): Learnable Sampler Distillation for Discrete Diffusion Models
arXiv:2509.19962v1 Announce Type: new
Abstract: Discrete diffusion models (DDMs) have shown powerful generation ability for discrete data modalities like text and molecules. However, their practical application is hindered by inefficient sampling, requiring a large number of sampling steps. Accelerating DDMs by using larger step sizes typically introduces significant problems in generation quality, as it amplifies the impact of both the compounding decoding error due to factorized predictions and discretization error from numerical approximations, leading to a significant decrease in sampling quality. To address these challenges, we propose learnable sampler distillation (LSD), a novel approach to train fast and high-fidelity samplers for DDMs. LSD employs a distillation approach where a student sampler with a few steps learns to align its intermediate score trajectory with that of a high-quality teacher sampler with numerous steps. This alignment is achieved by optimizing learnable sampler coefficients that adaptively adjust sampling dynamics. Additionally, we further propose LSD+, which also learns time schedules that allocate steps non-uniformly. Experiments across text generation, image generation, and synthetic tasks demonstrate that our proposed approaches outperform existing samplers for DDMs, achieving substantially higher sampling quality with significantly fewer sampling steps. Our code is available at \href{https://github.com/feiyangfu/LSD}{https://github.com/feiyangfu/LSD}.
Published: 2025-09-24 19:00 UTC