論文の概要: On the Generalization of Neural Combinatorial Optimization Heuristics
- arxiv url: http://arxiv.org/abs/2206.00787v1
- Date: Wed, 1 Jun 2022 22:39:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-03 13:22:10.110180
- Title: On the Generalization of Neural Combinatorial Optimization Heuristics
- Title(参考訳): ニューラルコンビネーション最適化ヒューリスティックスの一般化について
- Authors: Sahil Manchanda, Sofia Michel, Darko Drakulic and Jean-Marc Andreoli
- Abstract要約: 提案手法は,2つの最先端モデルの一般化を著しく改善することを示す。
我々は、個別の学習課題として、与えられたインスタンス分布上でのCO問題の解法を定式化する。
新しいタスクに適応する能力の最適化を目的として,様々なタスクのモデル学習のためのメタラーニング手法について検討する。
- 参考スコア(独自算出の注目度): 0.7049738935364298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neural Combinatorial Optimization approaches have recently leveraged the
expressiveness and flexibility of deep neural networks to learn efficient
heuristics for hard Combinatorial Optimization (CO) problems. However, most of
the current methods lack generalization: for a given CO problem, heuristics
which are trained on instances with certain characteristics underperform when
tested on instances with different characteristics. While some previous works
have focused on varying the training instances properties, we postulate that a
one-size-fit-all model is out of reach. Instead, we formalize solving a CO
problem over a given instance distribution as a separate learning task and
investigate meta-learning techniques to learn a model on a variety of tasks, in
order to optimize its capacity to adapt to new tasks. Through extensive
experiments, on two CO problems, using both synthetic and realistic instances,
we show that our proposed meta-learning approach significantly improves the
generalization of two state-of-the-art models.
- Abstract(参考訳): Neural Combinatorial Optimizationアプローチは、ディープニューラルネットワークの表現性と柔軟性を活用して、ハードコンビネーション最適化(CO)問題の効率的なヒューリスティックを学習している。
しかしながら、現在の手法の多くは一般化に欠けており、与えられたCO問題に対して、異なる特性を持つインスタンスでテストした場合、特定の特性を持つインスタンスで訓練されるヒューリスティックスである。
以前の研究では、トレーニングインスタンスのプロパティの変更に重点を置いていたが、一大のモデルには到達できないと仮定している。
代わりに、与えられたインスタンス分布を個別の学習タスクとしてCO問題の解法を定式化し、メタラーニング手法を調べて様々なタスクのモデルを学習し、新しいタスクに適応する能力の最適化を図る。
本研究では,2つのCO問題を総合例と実例例を用いて実験した結果,メタラーニング手法が2つの最先端モデルの一般化を著しく改善することを示した。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - UNCO: Towards Unifying Neural Combinatorial Optimization through Large Language Model [21.232626415696267]
1つのモデルで異なるタイプの最適化問題(COP)を解決するために、統一的なニューラルネットワーク最適化フレームワークを提案する。
我々は自然言語を用いて、異なるCOPに対してテキスト分散インスタンスを定式化し、それらを大言語モデル(LLM)によって同じ埋め込み空間にエンコードする。
実験により、UNCOモデルはシングルセッショントレーニング後に複数のCOPを解決でき、伝統的なベースラインや学習ベースのベースラインに匹敵する満足なパフォーマンスを達成できることが示された。
論文 参考訳(メタデータ) (2024-08-22T08:42:44Z) - Instance-Conditioned Adaptation for Large-scale Generalization of Neural Combinatorial Optimization [15.842155380912002]
本研究は,ニューラル最適化の大規模一般化のための新しいインスタンス・コンディション適応モデル(ICAM)を提案する。
特に,NCOモデルのための強力なインスタンス条件付きルーティング適応モジュールを設計する。
我々は,ラベル付き最適解を使わずに,モデルがクロススケールな特徴を学習することのできる,効率的な3段階強化学習ベーストレーニング手法を開発した。
論文 参考訳(メタデータ) (2024-05-03T08:00:19Z) - Self-Improved Learning for Scalable Neural Combinatorial Optimization [15.842155380912002]
本研究は、ニューラルネットワーク最適化のスケーラビリティを向上させるための新しい自己改善学習(SIL)手法を提案する。
我々は,ラベル付きデータを使わずに大規模問題インスタンス上での直接モデルトレーニングを可能にする,効率的な自己改善機構を開発した。
さらに,計算モデルに対する線形注意複雑化機構を設計し,オーバヘッドの少ない大規模問題インスタンスを効率的に処理する。
論文 参考訳(メタデータ) (2024-03-28T16:46:53Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Unsupervised Learning for Combinatorial Optimization Needs Meta-Learning [14.86600327306136]
最適化のための教師なし学習(CO)の一般的なフレームワークは、出力がCOの目的を直接最適化することで問題解決をもたらすニューラルネットワーク(NN)を訓練することである。
本研究では,COにおける教師なし学習の新たな目的について提案する。この学習の目的は,直接的な解決策を与えるのではなく,将来の問題インスタンスの優れた初期化を探すことである。
微調整前のモデルが与える初期解だけでも, 様々な評価条件下では, ベースラインを著しく上回る結果が得られます。
論文 参考訳(メタデータ) (2023-01-08T22:14:59Z) - Neural Combinatorial Optimization: a New Player in the Field [69.23334811890919]
本稿では,ニューラルネットワークに基づくアルゴリズムの古典的最適化フレームワークへの導入に関する批判的分析を行う。
性能, 転送可能性, 計算コスト, 大規模インスタンスなど, これらのアルゴリズムの基本的側面を分析するために, 総合的研究を行った。
論文 参考訳(メタデータ) (2022-05-03T07:54:56Z) - Efficient Model-Based Multi-Agent Mean-Field Reinforcement Learning [89.31889875864599]
マルチエージェントシステムにおける学習に有効なモデルベース強化学習アルゴリズムを提案する。
我々の理論的な貢献は、MFCのモデルベース強化学習における最初の一般的な後悔の限界である。
コア最適化問題の実用的なパラメトリゼーションを提供する。
論文 参考訳(メタデータ) (2021-07-08T18:01:02Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。