論文の概要: On Distributional Dependent Performance of Classical and Neural Routing Solvers
- arxiv url: http://arxiv.org/abs/2508.02510v1
- Date: Mon, 04 Aug 2025 15:17:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.397498
- Title: On Distributional Dependent Performance of Classical and Neural Routing Solvers
- Title(参考訳): 古典的・ニューラルルーティング解の分布依存性能について
- Authors: Daniela Thyssens, Tim Dernedde, Wilson Sentanoe, Lars Schmidt-Thieme,
- Abstract要約: NCOは、問題インスタンスの基本的な分布を学習することで、問題のクラスを学習することを目指している。
この研究は、学習する問題インスタンスの分布を定式化するための新しいアプローチを探求し、さらに重要なのは、サンプルされた問題インスタンスに構造を植え付けることである。
我々は,本課題における代表的NCO手法と専門的なオペレーションリサーチメタを評価し,固定基底ノード分布から引き出されたサブサンプルから学習すると,ニューラルルーティングソルバと高度に専門化されたメタヒューリスティックスのパフォーマンスギャップが減少することを示した。
- 参考スコア(独自算出の注目度): 5.359176539960004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural Combinatorial Optimization aims to learn to solve a class of combinatorial problems through data-driven methods and notably through employing neural networks by learning the underlying distribution of problem instances. While, so far neural methods struggle to outperform highly engineered problem specific meta-heuristics, this work explores a novel approach to formulate the distribution of problem instances to learn from and, more importantly, plant a structure in the sampled problem instances. In application to routing problems, we generate large problem instances that represent custom base problem instance distributions from which training instances are sampled. The test instances to evaluate the methods on the routing task consist of unseen problems sampled from the underlying large problem instance. We evaluate representative NCO methods and specialized Operation Research meta heuristics on this novel task and demonstrate that the performance gap between neural routing solvers and highly specialized meta-heuristics decreases when learning from sub-samples drawn from a fixed base node distribution.
- Abstract(参考訳): Neural Combinatorial Optimizationは、データ駆動手法、特に問題インスタンスの基盤となる分布を学習してニューラルネットワークを採用することによって、組合せ問題のクラスを学習することを目的としている。
これまでのニューラルメソッドは、高度にエンジニアリングされた問題固有のメタヒューリスティックスよりも優れているが、この研究は、学習する問題インスタンスの分布を定式化し、さらに重要なのは、サンプルされた問題インスタンスに構造を植え付けるという新しいアプローチを探求している。
ルーティング問題に適用するために、トレーニングインスタンスがサンプリングされるカスタムベース問題インスタンス分布を表す大きな問題インスタンスを生成する。
ルーティングタスク上のメソッドを評価するテストインスタンスは、根底にある大きな問題インスタンスからサンプリングされた見えない問題で構成されています。
我々は,本課題における代表的NCO法および専門的操作研究メタヒューリスティックスの評価を行い,固定基ノード分布から引き出されたサブサンプルから学習すると,ニューラルルーティングソルバと高度に専門化されたメタヒューリスティックスのパフォーマンスギャップが減少することを示した。
関連論文リスト
- Generative Diffusion Models for Resource Allocation in Wireless Networks [77.36145730415045]
我々は、専門家を模倣し、最適な分布から新しいサンプルを生成するポリシーを訓練する。
生成したサンプルの逐次実行により,ほぼ最適性能を実現する。
電力制御のケーススタディにおいて数値的な結果を示す。
論文 参考訳(メタデータ) (2025-04-28T21:44:31Z) - Learning to Reduce Search Space for Generalizable Neural Routing Solver [12.396576646539252]
構成的ニューラル最適化(NCO)は、手作りのルールに頼ることなく複雑なルーティング問題を解決する能力によって、研究の注目を集めている。
既存のNCO手法は、計算の複雑さと構造パターンの非効率な捕捉により、大規模問題に一般化する際の課題に直面している。
建設的NCOプロセスの各ステップにおいて,少数の有望な候補ノードを適応的に選択する,学習に基づく探索空間削減手法を提案する。
論文 参考訳(メタデータ) (2025-03-05T03:25:09Z) - The Effects of Multi-Task Learning on ReLU Neural Network Functions [17.786058035763254]
本稿では,マルチタスク浅層ReLUニューラルネットワーク学習問題の性質について検討し,最小2乗重みのデータセットに適合するようにネットワークを訓練する。
注目すべきことに、個々のタスクで学んだソリューションは、カーネル回帰問題を解くことによって得られるものと似ており、ニューラルネットワークとカーネルメソッドの間の新しい接続が明らかにされている。
論文 参考訳(メタデータ) (2024-10-29T03:27:08Z) - Too Big, so Fail? -- Enabling Neural Construction Methods to Solve
Large-Scale Routing Problems [10.832715681422842]
最先端のニューラルコンストラクション手法でさえ、単純なイテレーションによって性能が向上していることを示す。
本稿では, 解の局所的な部分を完全に破壊し, 改良された変種を再現する。
論文 参考訳(メタデータ) (2023-09-29T09:36:37Z) - Learning to Extrapolate: A Transductive Approach [44.74850954809099]
パラメータ化関数近似器のパワーを保った機械学習システムを開発する際の課題に対処する。
このような一般化を実現するために,バイリニア埋め込みに基づく簡単な戦略を提案する。
様々な教師付き学習や模倣学習タスクに適用可能な,単純で実用的なアルゴリズムをインスタンス化する。
論文 参考訳(メタデータ) (2023-04-27T17:00:51Z) - Generalization Properties of Retrieval-based Models [50.35325326050263]
検索ベースの機械学習手法は、幅広い問題で成功をおさめた。
これらのモデルの約束を示す文献が増えているにもかかわらず、そのようなモデルの理論的基盤はいまだに解明されていない。
本稿では,その一般化能力を特徴付けるために,検索ベースモデルの形式的処理を行う。
論文 参考訳(メタデータ) (2022-10-06T00:33:01Z) - BatchFormer: Learning to Explore Sample Relationships for Robust
Representation Learning [93.38239238988719]
本稿では,各ミニバッチからサンプル関係を学習可能なディープニューラルネットワークを提案する。
BatchFormerは各ミニバッチのバッチ次元に適用され、トレーニング中のサンプル関係を暗黙的に探索する。
我々は10以上のデータセットに対して広範な実験を行い、提案手法は異なるデータ不足アプリケーションにおいて大幅な改善を実現する。
論文 参考訳(メタデータ) (2022-03-03T05:31:33Z) - Generalization of Neural Combinatorial Solvers Through the Lens of
Adversarial Robustness [68.97830259849086]
ほとんどのデータセットは単純なサブプロブレムのみをキャプチャし、おそらくは突発的な特徴に悩まされる。
本研究では, 局所的な一般化特性である対向ロバスト性について検討し, 厳密でモデル固有な例と突発的な特徴を明らかにする。
他のアプリケーションとは異なり、摂動モデルは知覚できないという主観的な概念に基づいて設計されているため、摂動モデルは効率的かつ健全である。
驚くべきことに、そのような摂動によって、十分に表現力のあるニューラルソルバは、教師あり学習で共通する正確さと悪質さのトレードオフの限界に悩まされない。
論文 参考訳(メタデータ) (2021-10-21T07:28:11Z) - Decentralized Personalized Federated Learning for Min-Max Problems [79.61785798152529]
本稿では,より広い範囲の最適化問題を含むサドル点問題に対して,PFLを初めて検討した。
この問題に対処するための新しいアルゴリズムを提案し、滑らかな(強く)凸-(強く)凹点問題を理論的に解析する。
両線形問題に対する数値実験と, 対向雑音を有するニューラルネットワークは, 提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2021-06-14T10:36:25Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Learning the Travelling Salesperson Problem Requires Rethinking
Generalization [9.176056742068813]
トラベリングセールスパーソン問題(TSP)のようなグラフ最適化問題に対するニューラルネットワークソルバのエンドツーエンドトレーニングは近年,関心が高まっている。
最先端の学習駆動アプローチは、自明に小さなサイズで訓練された場合、古典的な解法と密接に関係するが、実践的な規模で学習ポリシーを大規模に一般化することはできない。
この研究は、トレーニングで見られるものよりも大きいインスタンスへの一般化を促進する、原則化されたバイアス、モデルアーキテクチャ、学習アルゴリズムを特定するために、最近の論文を統一するエンドツーエンドのニューラルネットワークパイプラインを提示している。
論文 参考訳(メタデータ) (2020-06-12T10:14:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。