FORGE:グラフ埋め込みからの基礎最適化表現
なぜ重要か: 企業や社会への影響が見込まれ、一般メディアにも波及する可能性があります。
arXiv:2508.20330v4発表種類: 置換
概要:組合せ最適化問題は科学技術分野に広く存在する。しかし、組合せ最適化を加速するための学習に基づくアプローチは、多くの困難な事例を解いてトレーニングデータを集める必要があり、多大な計算コストを伴うことが多い。既存の学習に基づく手法は、各下流タスクについて、各問題分布ごとに専用のモデルをトレーニングする必要があり、そのスケーラビリティと汎化能力は著しく制限されている。本稿では、Forge:Foundational Optimization Representations from Graph Embeddingsを紹介する。これは、最適化ソルバーや最適解に頼ることなく、大規模かつ多様な混合整数計画法(MIP)事例の集合に対して、教師なしで事前学習を行うベクトル量子化グラフオートエンコーダーのフレームワークである。ベクトル量子化は、最適化事例を表すための語彙として機能する離散的なコード割り当てを生成する。我々は、教師なし設定と教師あり設定の両方でForgeを評価した。教師なし設定では、Forge埋め込みは、問題領域とサイズにわたって未見の事例を効果的にクラスタリングする。教師あり設定では、Forge埋め込みを微調整し、単一の事前学習済みモデルが、複数の問題とサイズ分布にわたって、カット生成の整数ギャップと探索ガイダンスのための変数ヒントの両方を予測するのに役立つことを示す。どちらのタスクにおいても、商用最適化ソルバーのパフォーマンスを向上させ、最先端の学習に基づく手法を凌駕する。最後に、今後の最適化問題における表現学習に関する研究を促進するため、トレーニングコード、事前学習済みForgeウェイト、および複数のMIP分布に対する埋め込みをオープンソース化する。
原文(英語)を表示
Title (EN): FORGE: Foundational Optimization Representations from Graph Embeddings
arXiv:2508.20330v4 Announce Type: replace
Abstract: Combinatorial optimization problems are ubiquitous in science and engineering. Still, learning-based approaches to accelerate combinatorial optimization often require solving a large number of difficult instances to collect training data, incurring significant computational cost. Existing learning-based methods require training dedicated models for each problem distribution, for each downstream task, severely limiting their scalability and generalization. We introduce Forge: Foundational Optimization Representations from Graph Embeddings, a framework that pre-trains a vector-quantized graph autoencoder on a large, diverse collection of mixed-integer programming (MIP) instances in an unsupervised manner, without relying on optimization solvers or optimal solutions. Vector quantization produces discrete code assignments that serve as a vocabulary for representing optimization instances. We evaluate Forge in both unsupervised and supervised settings. In the unsupervised setting, Forge embeddings effectively cluster unseen instances across problem domains and sizes. In the supervised setting, we fine-tune Forge embeddings and show that a single pre-trained model helps predicting both the integrality gap for cut-generation and variable hints for search guidance across multiple problem and size distributions. In both tasks, we improve the performance of a commercial optimization solver and outperform state-of-the-art learning-based methods. Finally, we open-source our training code, pre-trained Forge weights, and embeddings for multiple MIP distributions to foster further research in representation learning for optimization problems.
Published: 2025-09-24 19:00 UTC