論文の概要: Too Big, so Fail? -- Enabling Neural Construction Methods to Solve
Large-Scale Routing Problems
- arxiv url: http://arxiv.org/abs/2309.17089v1
- Date: Fri, 29 Sep 2023 09:36:37 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-02 14:45:32.328466
- Title: Too Big, so Fail? -- Enabling Neural Construction Methods to Solve
Large-Scale Routing Problems
- Title(参考訳): 大きすぎるから 失敗するの?
--大規模ルーティング問題を解決するニューラルネットワーク構築手法の実現
- Authors: Jonas K. Falkner and Lars Schmidt-Thieme
- Abstract要約: 最先端のニューラルコンストラクション手法でさえ、単純なイテレーションによって性能が向上していることを示す。
本稿では, 解の局所的な部分を完全に破壊し, 改良された変種を再現する。
- 参考スコア(独自算出の注目度): 10.832715681422842
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In recent years new deep learning approaches to solve combinatorial
optimization problems, in particular NP-hard Vehicle Routing Problems (VRP),
have been proposed. The most impactful of these methods are sequential neural
construction approaches which are usually trained via reinforcement learning.
Due to the high training costs of these models, they usually are trained on
limited instance sizes (e.g. serving 100 customers) and later applied to vastly
larger instance size (e.g. 2000 customers). By means of a systematic scale-up
study we show that even state-of-the-art neural construction methods are
outperformed by simple heuristics, failing to generalize to larger problem
instances. We propose to use the ruin recreate principle that alternates
between completely destroying a localized part of the solution and then
recreating an improved variant. In this way, neural construction methods like
POMO are never applied to the global problem but just in the reconstruction
step, which only involves partial problems much closer in size to their
original training instances. In thorough experiments on four datasets of
varying distributions and modalities we show that our neural ruin recreate
approach outperforms alternative forms of improving construction methods such
as sampling and beam search and in several experiments also advanced local
search approaches.
- Abstract(参考訳): 近年,組合せ最適化問題,特にnp-hard vehicle routing problem (vrp) に対する新しいディープラーニング手法が提案されている。
これらの手法の最も大きな影響は、通常強化学習によって訓練される逐次的神経構築アプローチである。
これらのモデルの高いトレーニングコストのため、通常、限られたインスタンスサイズ(例えば100の顧客にサービスを提供する)で訓練され、後に非常に大きなインスタンスサイズ(例えば2000の顧客)に適用される。
系統的なスケールアップ研究により、最先端のニューラルネットワーク構築手法でさえ単純なヒューリスティックスによって性能が向上し、より大きな問題インスタンスに一般化できないことを示した。
我々は, 溶液の局所化部分を完全に破壊し, 改良版を再現する代わりに, 破壊再生成原理を用いることを提案する。
このように、POMOのようなニューラルな構築法は、グローバルな問題に適用されることはないが、再構築の段階では、元のトレーニングインスタンスにはるかに近い部分的な問題のみを含む。
異なる分布とモダリティの4つのデータセットを徹底的に実験した結果,本手法はサンプリングやビーム探索などの構築方法を改善する代替形態よりも優れており,いくつかの実験では局所探索手法も進歩していることが示された。
関連論文リスト
- Prompt Learning for Generalized Vehicle Routing [17.424910810870273]
本研究は, クロスディストリビューション適応のためのニューラル最適化において, 効率的なプロンプト学習手法について検討する。
提案モデルでは, 各種分布の一連のプロンプトを学習し, 最良適合のプロンプトを選択し, 各問題インスタンスに対して事前学習したアテンションモデルを提案する。
また、分散予測とゼロショット一般化の両方において、既存の一般化されたモデルよりも、多様な新しいタスクセットに優れる。
論文 参考訳(メタデータ) (2024-05-20T15:42:23Z) - Instance-Conditioned Adaptation for Large-scale Generalization of Neural Combinatorial Optimization [15.842155380912002]
本研究は,ニューラル最適化の大規模一般化のための新しいインスタンス・コンディション適応モデル(ICAM)を提案する。
特に,NCOモデルのための強力なインスタンス条件付きルーティング適応モジュールを設計する。
我々は,ラベル付き最適解を使わずに,モデルがクロススケールな特徴を学習することのできる,効率的な3段階強化学習ベーストレーニング手法を開発した。
論文 参考訳(メタデータ) (2024-05-03T08:00:19Z) - ODE Discovery for Longitudinal Heterogeneous Treatment Effects Inference [69.24516189971929]
本稿では, 閉形式常微分方程式(ODE)という, 縦条件下での新しい解法を提案する。
私たちはまだODEを学ぶために継続的な最適化に依存していますが、結果として生じる推論マシンはもはやニューラルネットワークではありません。
論文 参考訳(メタデータ) (2024-03-16T02:07:45Z) - Back to Basics: A Simple Recipe for Improving Out-of-Domain Retrieval in
Dense Encoders [63.28408887247742]
得られたモデルにおいて,より優れた一般化能力を得るために,トレーニング手順の改善が可能であるかを検討する。
我々は、高密度エンコーダをトレーニングするための簡単なレシピを推奨する: LoRAのようなパラメータ効率のよいMSMARCOのトレーニング。
論文 参考訳(メタデータ) (2023-11-16T10:42:58Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Sample-Efficient, Exploration-Based Policy Optimisation for Routing
Problems [2.6782615615913348]
本稿では,エントロピーに基づく新しい強化学習手法を提案する。
さらに、我々は、期待したリターンを最大化する、政治以外の強化学習手法を設計する。
我々のモデルは様々な経路問題に一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-05-31T09:51:48Z) - Characterizing possible failure modes in physics-informed neural
networks [55.83255669840384]
科学機械学習における最近の研究は、いわゆる物理情報ニューラルネットワーク(PINN)モデルを開発した。
既存のPINN方法論は比較的自明な問題に対して優れたモデルを学ぶことができるが、単純なPDEであっても、関連する物理現象を学習するのに失敗する可能性があることを実証する。
これらの障害モードは,NNアーキテクチャの表現力の欠如によるものではなく,PINNのセットアップによって損失状況の最適化が極めて困難であることを示す。
論文 参考訳(メタデータ) (2021-09-02T16:06:45Z) - Sample-based Regularization: A Transfer Learning Strategy Toward Better
Generalization [8.432864879027724]
少量のデータでディープニューラルネットワークをトレーニングすることは、難しい問題である。
私たちがよく直面する現実的な難題の1つは、多くのサンプルを集めることです。
大規模なデータセットでトレーニングされたソースモデルを使用することで、トレーニングデータの不足に起因する過度な適合を軽減することができる。
論文 参考訳(メタデータ) (2020-07-10T06:02:05Z) - Learning the Travelling Salesperson Problem Requires Rethinking
Generalization [9.176056742068813]
トラベリングセールスパーソン問題(TSP)のようなグラフ最適化問題に対するニューラルネットワークソルバのエンドツーエンドトレーニングは近年,関心が高まっている。
最先端の学習駆動アプローチは、自明に小さなサイズで訓練された場合、古典的な解法と密接に関係するが、実践的な規模で学習ポリシーを大規模に一般化することはできない。
この研究は、トレーニングで見られるものよりも大きいインスタンスへの一般化を促進する、原則化されたバイアス、モデルアーキテクチャ、学習アルゴリズムを特定するために、最近の論文を統一するエンドツーエンドのニューラルネットワークパイプラインを提示している。
論文 参考訳(メタデータ) (2020-06-12T10:14:15Z) - Learning to Stop While Learning to Predict [85.7136203122784]
多くのアルゴリズムにインスパイアされたディープモデルは全ての入力に対して固定深度に制限される。
アルゴリズムと同様に、深いアーキテクチャの最適深さは、異なる入力インスタンスに対して異なるかもしれない。
本稿では, ステアブルアーキテクチャを用いて, この様々な深さ問題に対処する。
学習した深層モデルと停止ポリシーにより,多様なタスクセットのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-06-09T07:22:01Z) - Deep Unfolding Network for Image Super-Resolution [159.50726840791697]
本稿では,学習に基づく手法とモデルに基づく手法の両方を活用する,エンドツーエンドのトレーニング可能なアンフォールディングネットワークを提案する。
提案するネットワークは, モデルベース手法の柔軟性を継承し, 一つのモデルを用いて, 異なるスケール要因に対する, 曖昧でノイズの多い画像の超解像化を行う。
論文 参考訳(メタデータ) (2020-03-23T17:55:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。