GradNetOT:GradNetsを用いた最適輸送写像の学習

GradNetOT:GradNetsを用いた最適輸送写像の学習

なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。

ソースを読む(export.arxiv.org)

arXiv:2507.13191v2 掲載種別:差し替え

概要:単調勾配関数は、流体力学からロボット群制御まで、現代の様々な応用で生じる最適輸送(OT)問題のMonge定式化を解く上で中心的な役割を果たします。輸送コストがユークリッド距離の二乗である場合、Brenierの定理により、唯一の最適輸送写像がMonge-Ampère方程式を満たし、凸関数の勾配であることが保証されます。[arXiv:2301.10862] [arXiv:2404.07361]において、我々は単調勾配写像の空間を直接パラメータ化するニューラルネットワークであるMonotone Gradient Networks(mGradNets)を提案しました。本研究では、mGradNetsを利用して、Monge-Ampère方程式を用いて定義された訓練損失関数を最小化することにより、最適輸送写像を直接学習します。我々は、mGradNetsの構造的バイアスが、画像モーフィングタスクと高次元OT問題の両方における最適輸送写像の学習を促進することを経験的に示します。

原文(英語)を表示

Title (EN): GradNetOT: Learning Optimal Transport Maps with GradNets

arXiv:2507.13191v2 Announce Type: replace
Abstract: Monotone gradient functions play a central role in solving the Monge formulation of the optimal transport (OT) problem, which arises in modern applications ranging from fluid dynamics to robot swarm control. When the transport cost is the squared Euclidean distance, Brenier’s theorem guarantees that the unique optimal transport map satisfies a Monge-Amp\`ere equation and is the gradient of a convex function. In [arXiv:2301.10862] [arXiv:2404.07361], we proposed Monotone Gradient Networks (mGradNets), neural networks that directly parameterize the space of monotone gradient maps. In this work, we leverage mGradNets to directly learn the optimal transport mapping by minimizing a training loss function defined using the Monge-Amp\`ere equation. We empirically show that the structural bias of mGradNets facilitates the learning of optimal transport maps across both image morphing tasks and high-dimensional OT problems.

Published: 2025-09-24 19:00 UTC


コメントする