論文の概要: FORGE: Foundational Optimization Representations from Graph Embeddings
- arxiv url: http://arxiv.org/abs/2508.20330v1
- Date: Thu, 28 Aug 2025 00:15:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:01.877669
- Title: FORGE: Foundational Optimization Representations from Graph Embeddings
- Title(参考訳): FORGE: グラフ埋め込みによる基礎最適化表現
- Authors: Zohair Shafi, Serdar Kadioglu,
- Abstract要約: 組合せ最適化問題は、科学と工学においてユビキタスである。
既存の手法では、ダウンストリームタスクごとに各問題分散のための専用モデルをトレーニングする必要がある。
本稿では,ベクトル量子化グラフオートエンコーダを多種多様な混合整数プログラミング(MIP)インスタンス上で事前学習する方法であるForgeを紹介する。
- 参考スコア(独自算出の注目度): 3.9124823111588163
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Combinatorial optimization problems are ubiquitous in science and engineering, yet learning-based approaches to accelerate their solution often require solving a large number of hard-to-solve optimization instances to collect training data, incurring significant computational overhead. Existing methods require training dedicated models for each problem distribution for each downstream task, severely limiting their scalability and generalization. In this work, we introduce Forge, a method of pre-training a vector-quantized graph autoencoder on a large and diverse collection of mixed-integer programming (MIP) instances in an unsupervised fashion without dependency on their solution. The vector quantization process creates discrete code assignments that act as a vocabulary to represent optimization instances. We evaluate our approach under both supervised and unsupervised settings. For the unsupervised setting, we demonstrate that Forge embeddings effectively differentiate and cluster unseen instances. For the supervised setting, we fine-tune Forge embeddings and show that a single model predicts both the variables for warm-starts and integrality gaps for cut-generation across multiple problem type distributions. Both predictions help improve performance of a state-of-the-art, commercial optimization solver. Finally, we release our code and pre-trained Forge weights to encourage further research and practical use of instance-level MIP embeddings at https://github.com/skadio/forge/
- Abstract(参考訳): 組合せ最適化の問題は、科学や工学では至るところに存在するが、それらのソリューションを加速するための学習ベースのアプローチでは、トレーニングデータを集めるために、多くの困難で解決の難しい最適化インスタンスを解決し、計算上のオーバーヘッドを著しく発生させる必要がある。
既存の手法では、ダウンストリームのタスクごとに各問題分布の専用モデルをトレーニングし、スケーラビリティと一般化を著しく制限する。
本研究では,ベクトル量子化グラフオートエンコーダを多種多様な混合整数プログラミング(MIP)インスタンスに事前学習する手法であるForgeを紹介する。
ベクトル量子化プロセスは、最適化インスタンスを表す語彙として機能する個別のコード代入を生成する。
我々は,教師なし設定と教師なし設定の両方でアプローチを評価した。
教師なしの環境では、Forgeの埋め込みが効果的に差別化され、目に見えないインスタンスをクラスタ化することを示した。
教師付き設定では、Forgeの埋め込みを微調整し、複数の問題型分布にまたがるカットジェネレーションにおけるウォームスタート変数と積分ギャップの両方を単一のモデルで予測することを示す。
どちらの予測も、最先端の商用最適化解決器の性能向上に役立つ。
最後に、私たちはコードと事前訓練されたForgeの重みをリリースし、https://github.com/skadio/forge/でインスタンスレベルのMIP埋め込みのさらなる研究と実践を奨励します。
関連論文リスト
- Self-Supervised Pre-Training with Equilibrium Constraints [64.15709757611369]
異種データを扱うための自己教師付き事前学習手法を提案する。
我々は、モデルが各不均一データのソースを局所的最適に最適化することを確実にするために、追加の平衡制約を課す。
マルチドメインと多言語データセットを用いた自己教師付き事前学習実験を行った。
論文 参考訳(メタデータ) (2025-08-27T15:48:50Z) - Model Ensembling for Constrained Optimization [7.4351710906830375]
下流最適化に使用される多次元出力予測のためのモデルを組み立てたいという設定について検討する。
より正確には、状態空間を多次元実数値予測にマッピングする多くのモデルが与えられていると想像する。
これらの予測は、指定された制約の下で最適化したい線形対象の係数を形成する。
証明可能かつ収束性の高い2つのアルゴリズムに導かれる多重校正手法を適用した。
論文 参考訳(メタデータ) (2024-05-27T01:48:07Z) - Learning to Branch in Combinatorial Optimization with Graph Pointer
Networks [17.729352126574902]
本稿では,分岐境界における変数選択ポリシーを学習するためのグラフポインターネットワークモデルを提案する。
グラフニューラルネットワークとポインタ機構を組み合わせたモデルでは,解法状態から分岐変数決定への効果的マッピングが可能である。
論文 参考訳(メタデータ) (2023-07-04T01:56:07Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - A Novel Plug-and-Play Approach for Adversarially Robust Generalization [38.72514422694518]
本稿では,MLモデルを摂動テストデータから保護するために,逆向きに堅牢なトレーニングを採用する頑健なフレームワークを提案する。
私たちの貢献は、計算学と統計学の両方の観点から見ることができます。
論文 参考訳(メタデータ) (2022-08-19T17:02:55Z) - Tutorial on amortized optimization [13.812741777376711]
このチュートリアルでは、これらの進歩の背後にある償却最適化の基礎について紹介する。
変分推論、スパース符号化、勾配に基づくメタラーニング、制御、強化学習、凸最適化、最適輸送、深い平衡ネットワークにおけるそれらの応用を概説する。
論文 参考訳(メタデータ) (2022-02-01T18:58:33Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Memory Clustering using Persistent Homology for Multimodality- and
Discontinuity-Sensitive Learning of Optimal Control Warm-starts [24.576214898129823]
シューティング法は非線形最適制御問題の解法として効率的である。
最近の研究は、問題空間のオフライン探索中に生成されたサンプルに基づいてトレーニングされた学習モデルからの最初の推測を提供することに重点を置いている。
本研究では、代数的トポロジーからツールを適用し、解空間の基盤構造に関する情報を抽出する。
論文 参考訳(メタデータ) (2020-10-02T14:24:59Z) - Global Optimization of Gaussian processes [52.77024349608834]
少数のデータポイントで学習したガウス過程を訓練した空間定式化を提案する。
このアプローチはまた、より小さく、計算的にもより安価なサブソルバを低いバウンディングに導く。
提案手法の順序の順序による時間収束を,総じて低減する。
論文 参考訳(メタデータ) (2020-05-21T20:59:11Z) - Dynamic Scale Training for Object Detection [111.33112051962514]
本稿では,オブジェクト検出におけるスケール変動問題を軽減するために,動的スケールトレーニングパラダイム(DST)を提案する。
提案したDSTのスケール変動処理に対する有効性を示す実験結果を得た。
推論オーバーヘッドを導入せず、一般的な検出設定のための無料ランチとして機能する。
論文 参考訳(メタデータ) (2020-04-26T16:48:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。