論文の概要: Learning to Solve Routing Problems via Distributionally Robust
Optimization
- arxiv url: http://arxiv.org/abs/2202.07241v1
- Date: Tue, 15 Feb 2022 08:06:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-16 13:55:35.447323
- Title: Learning to Solve Routing Problems via Distributionally Robust
Optimization
- Title(参考訳): 分散ロバスト最適化によるルーティング問題の解法
- Authors: Yuan Jiang, Yaoxin Wu, Zhiguang Cao, Jie Zhang
- Abstract要約: ルーティング問題を解決するための最近のディープモデルでは、トレーニング用のノードの単一分布が想定されており、分散一般化能力を著しく損なう。
この問題に対処するために、群分布的ロバストな最適化(グループDRO)を活用し、異なる分布群に対する重み付けと深層モデルのパラメータを、トレーニング中にインターリーブされた方法で共同で最適化する。
また、畳み込みニューラルネットワークに基づくモジュールを設計し、ディープモデルがノード間のより情報に富んだ潜在パターンを学習できるようにする。
- 参考スコア(独自算出の注目度): 14.506553345693536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent deep models for solving routing problems always assume a single
distribution of nodes for training, which severely impairs their
cross-distribution generalization ability. In this paper, we exploit group
distributionally robust optimization (group DRO) to tackle this issue, where we
jointly optimize the weights for different groups of distributions and the
parameters for the deep model in an interleaved manner during training. We also
design a module based on convolutional neural network, which allows the deep
model to learn more informative latent pattern among the nodes. We evaluate the
proposed approach on two types of well-known deep models including GCN and
POMO. The experimental results on the randomly synthesized instances and the
ones from two benchmark dataset (i.e., TSPLib and CVRPLib) demonstrate that our
approach could significantly improve the cross-distribution generalization
performance over the original models.
- Abstract(参考訳): ルーティング問題を解決するための最近のディープモデルは、常に訓練用ノードの単一分布を前提としており、分散一般化能力を著しく損なう。
本稿では,群分布的ロバストな最適化(グループDRO)を利用してこの問題に対処し,異なる分布群に対する重み付けと深層モデルのパラメータを学習中にインターリーブされた方法で共同で最適化する。
また,畳み込みニューラルネットワークに基づくモジュールも設計し,ディープモデルがノード間のより有益な潜在パターンを学習できるようにする。
提案手法はGCNとPOMOを含む2種類のよく知られた深層モデルに対して評価する。
ランダムに合成されたインスタンスと2つのベンチマークデータセット(TSPLibとCVRPLib)による実験結果から,本手法が元のモデルよりも分散一般化性能を大幅に向上することを示した。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - DiffSG: A Generative Solver for Network Optimization with Diffusion Model [75.27274046562806]
拡散生成モデルはより広い範囲の解を考えることができ、学習パラメータによるより強力な一般化を示す。
拡散生成モデルの本質的な分布学習を利用して高品質な解を学習する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T07:56:21Z) - A Diffusion Model Framework for Unsupervised Neural Combinatorial Optimization [7.378582040635655]
現在のディープラーニングアプローチは、正確なサンプル確率を生み出す生成モデルに依存している。
この研究は、この制限を解除し、高度に表現力のある潜在変数モデルを採用する可能性を開放する手法を導入する。
我々は,データフリーなコンビネーション最適化におけるアプローチを実験的に検証し,幅広いベンチマーク問題に対して新しい最先端の手法を実現することを実証した。
論文 参考訳(メタデータ) (2024-06-03T17:55:02Z) - Aggregation Weighting of Federated Learning via Generalization Bound
Estimation [65.8630966842025]
フェデレートラーニング(FL)は通常、サンプル比率によって決定される重み付けアプローチを使用して、クライアントモデルパラメータを集約する。
上記の重み付け法を,各局所モデルの一般化境界を考慮した新しい戦略に置き換える。
論文 参考訳(メタデータ) (2023-11-10T08:50:28Z) - Distributionally Robust Models with Parametric Likelihood Ratios [123.05074253513935]
3つの単純なアイデアにより、より広いパラメトリックな確率比のクラスを用いてDROでモデルを訓練することができる。
パラメトリック逆数を用いてトレーニングしたモデルは、他のDROアプローチと比較して、サブポピュレーションシフトに対して一貫して頑健であることがわかった。
論文 参考訳(メタデータ) (2022-04-13T12:43:12Z) - Model Fusion with Kullback--Leibler Divergence [58.20269014662046]
異種データセットから学習した後続分布を融合する手法を提案する。
我々のアルゴリズムは、融合モデルと個々のデータセット後部の両方に対する平均場仮定に依存している。
論文 参考訳(メタデータ) (2020-07-13T03:27:45Z) - DessiLBI: Exploring Structural Sparsity of Deep Networks via
Differential Inclusion Paths [45.947140164621096]
逆スケール空間の差分包摂に基づく新しい手法を提案する。
DessiLBIが早期に「優勝チケット」を発表することを示す。
論文 参考訳(メタデータ) (2020-07-04T04:40:16Z) - Large Scale Many-Objective Optimization Driven by Distributional
Adversarial Networks [1.2461503242570644]
本稿では, RVEA フレームワークに基づく新しいアルゴリズムを提案し, 分散適応ネットワーク (DAN) を用いて新たな子孫を生成する。
大規模多目的問題(LSMOP)における9つのベンチマーク問題に対して,新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-03-16T04:14:15Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。