論文の概要: DOGE-Train: Discrete Optimization on GPU with End-to-end Training
- arxiv url: http://arxiv.org/abs/2205.11638v2
- Date: Thu, 28 Dec 2023 20:55:19 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-03 03:19:16.262030
- Title: DOGE-Train: Discrete Optimization on GPU with End-to-end Training
- Title(参考訳): DOGE-Train: エンドツーエンドトレーニングによるGPUの離散最適化
- Authors: Ahmed Abbas, Paul Swoboda
- Abstract要約: 0-1整数線形プログラムの緩和を解くために,高速でスケーラブルなデータ駆動型手法を提案する。
グラフニューラルネットワーク(GNN)とラグランジュ分解に基づくアルゴリズムであるFastDOGを用いる。
- 参考スコア(独自算出の注目度): 28.795080637690095
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a fast, scalable, data-driven approach for solving relaxations of
0-1 integer linear programs. We use a combination of graph neural networks
(GNN) and the Lagrange decomposition based algorithm FastDOG (Abbas and Swoboda
2022b). We make the latter differentiable for end-to-end training and use GNNs
to predict its algorithmic parameters. This allows to retain the algorithm's
theoretical properties including dual feasibility and guaranteed non-decrease
in the lower bound while improving it via training. We overcome suboptimal
fixed points of the basic solver by additional non-parametric GNN update steps
maintaining dual feasibility. For training we use an unsupervised loss. We
train on smaller problems and test on larger ones showing strong generalization
performance with a GNN comprising only around $10k$ parameters. Our solver
achieves significantly faster performance and better dual objectives than its
non-learned version, achieving close to optimal objective values of LP
relaxations of very large structured prediction problems and on selected
combinatorial ones. In particular, we achieve better objective values than
specialized approximate solvers for specific problem classes while retaining
their efficiency. Our solver has better any-time performance over a large time
period compared to a commercial solver. Code available at
https://github.com/LPMP/BDD
- Abstract(参考訳): 0-1整数線形プログラムの緩和を解くために,高速でスケーラブルなデータ駆動方式を提案する。
グラフニューラルネットワーク(GNN)とラグランジュ分解に基づくアルゴリズムであるFastDOG(AbbasとSwoboda 2022b)を組み合わせる。
エンドツーエンドのトレーニングでは後者を微分可能とし,アルゴリズムパラメータの予測にGNNを使用する。
これにより、二重実現性を含むアルゴリズムの理論的特性を維持でき、トレーニングを通じて改善しながら下界での非劣化を保証できる。
両実現可能性を維持した非パラメトリックGNN更新ステップを付加することで,基本解法の最適部分固定点を克服する。
トレーニングには教師なしの損失を使用します。
より小さな問題を学習し、GNNを約10k$のパラメータで構成し、強力な一般化性能を示す。
我々の解法は,非学習版よりも性能が著しく向上し,かつ,非常に大きな構造的予測問題のLP緩和と選択された組合せの目的値に近い値が得られる。
特に,その効率を保ちながら,特定の問題クラスに対する特殊近似解法よりも高い客観的値が得られる。
我々の解法は, 商用解法と比較して, 長時間の時効性能が良好である。
https://github.com/LPMP/BDDで公開されているコード
関連論文リスト
- Newton Losses: Using Curvature Information for Learning with Differentiable Algorithms [80.37846867546517]
カスタム目的の8つの異なるニューラルネットワークのトレーニング方法を示す。
我々はその2次情報を経験的フィッシャー行列を通して活用する。
ロスロスロスシブルアルゴリズムを用いて、少ない微分可能アルゴリズムに対する大幅な改善を実現する。
論文 参考訳(メタデータ) (2024-10-24T18:02:11Z) - Enhancing GNNs Performance on Combinatorial Optimization by Recurrent Feature Update [0.09986418756990156]
本稿では,組合せ最適化(CO)問題を効率よく解くために,GNNのパワーを活用して,QRF-GNNと呼ぶ新しいアルゴリズムを提案する。
QUBO緩和による損失関数の最小化による教師なし学習に依存している。
実験の結果、QRF-GNNは既存の学習ベースアプローチを大幅に上回り、最先端の手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-07-23T13:34:35Z) - Searching Large Neighborhoods for Integer Linear Programs with
Contrastive Learning [39.40838358438744]
線形プログラム(ILP)は、多数の最適化問題のモデリングと解決のための強力なツールである。
アルゴリズムとしてLarge Neighborhood Search (LNS)は、ブランチやバウンドよりも高速に、ILPの高品質なソリューションを見つけることができる。
本稿では,メトリクスによって測定された複数のILPベンチマークに対して,最先端のリアルタイム性能を実現する新しいアプローチCL-LNSを提案する。
論文 参考訳(メタデータ) (2023-02-03T07:15:37Z) - Learning To Dive In Branch And Bound [95.13209326119153]
グラフニューラルネットワークを用いて特定の潜水構造を学習するためのL2Diveを提案する。
我々は、変数の割り当てを予測するために生成モデルを訓練し、線形プログラムの双対性を利用して潜水決定を行う。
論文 参考訳(メタデータ) (2023-01-24T12:01:45Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - On Representing Linear Programs by Graph Neural Networks [30.998508318941017]
グラフニューラルネットワーク(GNN)は最適化問題に適した機械学習モデルであると考えられている。
本稿では,線形プログラム(LP)問題にGNNを適用する理論的基礎を確立する。
適切に構築されたGNNは、幅広いクラスにおける各LPに対して、実現可能性、有界性、最適解を確実に予測できることを示す。
論文 参考訳(メタデータ) (2022-09-25T18:27:33Z) - Fast Graph Learning with Unique Optimal Solutions [31.411988486916545]
既知のクローズドフォームソリューションで対流目標を最適化する効率的なGLL法を提案します。
提案手法は, GRLタスクにおける競合性能や最新性能を実現する。
論文 参考訳(メタデータ) (2021-02-17T02:00:07Z) - Hybrid Models for Learning to Branch [81.93868699246214]
我々はCPUマシン上で効率的な分岐を行うための新しいハイブリッドアーキテクチャを提案する。
提案アーキテクチャは,GNNの表現力と分岐処理のための計算コストの低い多層パーセプトロン(MLP)を組み合わせる。
論文 参考訳(メタデータ) (2020-06-26T21:03:45Z) - Learning to Optimize Non-Rigid Tracking [54.94145312763044]
我々は、堅牢性を改善し、解法収束を高速化するために学習可能な最適化を採用する。
まず、CNNを通じてエンドツーエンドに学習された深い特徴にアライメントデータ項を統合することにより、追跡対象をアップグレードする。
次に,プレコンディショニング手法と学習手法のギャップを,プレコンディショナを生成するためにトレーニングされたConditionNetを導入することで埋める。
論文 参考訳(メタデータ) (2020-03-27T04:40:57Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。