論文の概要: Learning for Dynamic Combinatorial Optimization without Training Data
- arxiv url: http://arxiv.org/abs/2505.19497v1
- Date: Mon, 26 May 2025 04:26:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.166245
- Title: Learning for Dynamic Combinatorial Optimization without Training Data
- Title(参考訳): 学習データのない動的組合せ最適化のための学習
- Authors: Yiqiao Liao, Farinaz Koushanfar, Parinaz Naghizadeh,
- Abstract要約: 我々はDynamic Combinatorial Optimizationのための新しい教師なし学習フレームワークであるDyCO-GNNを紹介する。
DyCO-GNNは、時間発展するグラフスナップショット間の構造的類似性を活用して、ソリューションの品質を維持しながら最適化を加速する。
我々はDyCO-GNNを、様々なサイズのデータセットにまたがる動的最大カット、最大独立セット、旅行セールスマン問題に対して評価する。
- 参考スコア(独自算出の注目度): 21.489075331283562
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We introduce DyCO-GNN, a novel unsupervised learning framework for Dynamic Combinatorial Optimization that requires no training data beyond the problem instance itself. DyCO-GNN leverages structural similarities across time-evolving graph snapshots to accelerate optimization while maintaining solution quality. We evaluate DyCO-GNN on dynamic maximum cut, maximum independent set, and the traveling salesman problem across diverse datasets of varying sizes, demonstrating its superior performance under tight and moderate time budgets. DyCO-GNN consistently outperforms the baseline methods, achieving high-quality solutions up to 3-60x faster, highlighting its practical effectiveness in rapidly evolving resource-constrained settings.
- Abstract(参考訳): 我々は、Dynamic Combinatorial Optimizationのための新しい教師なし学習フレームワークであるDyCO-GNNを紹介した。
DyCO-GNNは、時間発展するグラフスナップショット間の構造的類似性を活用して、ソリューションの品質を維持しながら最適化を加速する。
我々は、動的最大カット、最大独立セット、および様々なサイズのデータセットにまたがる旅行セールスマン問題についてDyCO-GNNを評価し、厳密で適度な時間予算下での優れた性能を示す。
DyCO-GNNは、高品質なソリューションを最大3~60倍高速に達成し、急速に進化するリソース制約設定における実用的効果を強調した。
関連論文リスト
- BOPO: Neural Combinatorial Optimization via Best-anchored and Objective-guided Preference Optimization [17.694852175354555]
Preference Optimization for Combinatorial Optimization (POCO) は、目的値を介してソリューションの選好を利用する訓練パラダイムである。
POCOはアーキテクチャに依存しないため、既存のNCOモデルとの統合を可能にし、最適化の原則として好みの最適化を確立する。
論文 参考訳(メタデータ) (2025-03-10T17:45:30Z) - GDSG: Graph Diffusion-based Solution Generator for Optimization Problems in MEC Networks [109.17835015018532]
グラフ拡散型ソリューション生成(GDSG)法を提案する。
このアプローチは、おそらく最適な解に収束しながら、最適以下のデータセットを扱うように設計されている。
グラフニューラルネットワーク(GNN)を用いたマルチタスク拡散モデルとしてGDSGを構築し,高品質な解の分布を求める。
論文 参考訳(メタデータ) (2024-12-11T11:13:43Z) - Decision-focused Graph Neural Networks for Combinatorial Optimization [62.34623670845006]
最適化問題に取り組むための新たな戦略は、従来のアルゴリズムに代わるグラフニューラルネットワーク(GNN)の採用である。
GNNや従来のアルゴリズムソルバがCOの領域で人気が高まっているにもかかわらず、それらの統合利用とエンドツーエンドフレームワークにおけるそれらの相関について限定的な研究がなされている。
我々は、GNNを利用してCO問題に補助的なサポートで対処する決定に焦点を当てたフレームワークを導入する。
論文 参考訳(メタデータ) (2024-06-05T22:52:27Z) - D-CODE: Data Colony Optimization for Dynamic Network Efficiency [0.0]
データコロニー最適化(DCO)アルゴリズムを組み込んだ新しいフレームワークであるD-CODEを紹介した。
D-CODEは従来の技術より優れており、ソリューションの品質が3~4%向上し、収束速度が2~3倍、計算効率が25%向上した。
論文 参考訳(メタデータ) (2024-05-08T12:03:37Z) - Graph Q-Learning for Combinatorial Optimization [44.8086492019594]
グラフニューラルネットワーク(GNN)は,グラフデータの予測と推論の問題を解くのに有効であることが示されている。
本稿では,GNNを組合せ最適化問題に適用できることを示す。
論文 参考訳(メタデータ) (2024-01-11T01:15:28Z) - Unsupervised Learning for Combinatorial Optimization Needs Meta-Learning [14.86600327306136]
最適化のための教師なし学習(CO)の一般的なフレームワークは、出力がCOの目的を直接最適化することで問題解決をもたらすニューラルネットワーク(NN)を訓練することである。
本研究では,COにおける教師なし学習の新たな目的について提案する。この学習の目的は,直接的な解決策を与えるのではなく,将来の問題インスタンスの優れた初期化を探すことである。
微調整前のモデルが与える初期解だけでも, 様々な評価条件下では, ベースラインを著しく上回る結果が得られます。
論文 参考訳(メタデータ) (2023-01-08T22:14:59Z) - Learning for Robust Combinatorial Optimization: Algorithm and
Application [26.990988571097827]
最適化学習(L2O)は、ニューラルネットワークの強い予測力を活用することにより、最適化問題を解決するための有望なアプローチとして登場した。
本稿では,不確実な状況下で頑健な解を迅速に出力するLRCOという新しい学習ベース最適化を提案する。
その結果、LRCOは、非常に少ない複雑さで、最悪のケースコストとランタイムを大幅に削減できることがわかった。
論文 参考訳(メタデータ) (2021-12-20T07:58:50Z) - A Bi-Level Framework for Learning to Solve Combinatorial Optimization on
Graphs [91.07247251502564]
本稿では,2つの世界の長所を結合するハイブリッドな手法を提案する。この手法では,グラフを最適化する上層学習手法とバイレベルフレームワークを開発する。
このような二段階のアプローチは、元のハードCOでの学習を単純化し、モデルキャパシティの需要を効果的に軽減することができる。
論文 参考訳(メタデータ) (2021-06-09T09:18:18Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。