論文の概要: Unveiling the Limits of Learned Local Search Heuristics: Are You the
Mightiest of the Meek?
- arxiv url: http://arxiv.org/abs/2310.19990v1
- Date: Mon, 30 Oct 2023 20:16:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-01 17:35:34.934432
- Title: Unveiling the Limits of Learned Local Search Heuristics: Are You the
Mightiest of the Meek?
- Title(参考訳): 学習したローカル検索ヒューリスティックの限界を解き明かす:あなたはミークの最高傑作か?
- Authors: Ankur Nath, Alan Kuhnle
- Abstract要約: Tabu Searchに基づく単純な学習は、パフォーマンスと一般化性の点で最先端の学習を超越していることが示される。
今後の研究に向けて,本研究は仮定に挑戦し,エキサイティングな道を開いた。
- 参考スコア(独自算出の注目度): 14.195843311387591
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, combining neural networks with local search heuristics has
become popular in the field of combinatorial optimization. Despite its
considerable computational demands, this approach has exhibited promising
outcomes with minimal manual engineering. However, we have identified three
critical limitations in the empirical evaluation of these integration attempts.
Firstly, instances with moderate complexity and weak baselines pose a challenge
in accurately evaluating the effectiveness of learning-based approaches.
Secondly, the absence of an ablation study makes it difficult to quantify and
attribute improvements accurately to the deep learning architecture. Lastly,
the generalization of learned heuristics across diverse distributions remains
underexplored. In this study, we conduct a comprehensive investigation into
these identified limitations. Surprisingly, we demonstrate that a simple
learned heuristic based on Tabu Search surpasses state-of-the-art (SOTA)
learned heuristics in terms of performance and generalizability. Our findings
challenge prevailing assumptions and open up exciting avenues for future
research and innovation in combinatorial optimization.
- Abstract(参考訳): 近年,ニューラルネットワークと局所探索ヒューリスティックスの組み合わせは,組合せ最適化の分野で人気が高まっている。
かなりの計算要求にもかかわらず、このアプローチは最小限の手動工学で有望な結果を示した。
しかし,これらの統合の試みの実証的評価において,3つの限界が認められた。
第一に、適度な複雑さと弱いベースラインを持つインスタンスは、学習ベースのアプローチの有効性を正確に評価する上で課題となる。
第2に,アブレーション研究の欠如により,深層学習アーキテクチャに対する精度の高い改良の定量化と属性化が困難になる。
最後に、多様な分布にまたがる学習ヒューリスティックの一般化は未検討のままである。
本研究では,これらの制約を包括的に調査する。
驚いたことに、Tabu Searchに基づく単純な学習ヒューリスティックは、パフォーマンスと一般化性の点で、最先端(SOTA)学習ヒューリスティックを超越している。
本研究の成果は,仮定を克服し,今後の研究と組合せ最適化の革新に向けたエキサイティングな道を開くものである。
関連論文リスト
- Interactive Ontology Matching with Cost-Efficient Learning [2.006461411375746]
この研究は、マッチングに適したアクティブな学習方法であるDualLoopを紹介している。
既存のアクティブラーニング手法と比較すると,F1のスコアとリコールは一貫して向上した。
本稿では,建築,工学,建設(AEC)産業部門における運用実績について報告する。
論文 参考訳(メタデータ) (2024-04-11T11:53:14Z) - Rethinking Complex Queries on Knowledge Graphs with Neural Link
Predictors [65.56849255423866]
本稿では,証明可能な推論能力を備えた複雑なクエリを用いたエンドツーエンド学習を支援するニューラルシンボリック手法を提案する。
これまでに検討されていない10種類の新しいクエリを含む新しいデータセットを開発する。
提案手法は,新しいデータセットにおいて先行手法を著しく上回り,既存データセットにおける先行手法を同時に上回っている。
論文 参考訳(メタデータ) (2023-04-14T11:35:35Z) - Representation Learning with Multi-Step Inverse Kinematics: An Efficient
and Optimal Approach to Rich-Observation RL [106.82295532402335]
既存の強化学習アルゴリズムは、計算的難易度、強い統計的仮定、最適なサンプルの複雑さに悩まされている。
所望の精度レベルに対して、レート最適サンプル複雑性を実現するための、最初の計算効率の良いアルゴリズムを提供する。
我々のアルゴリズムMusIKは、多段階の逆運動学に基づく表現学習と体系的な探索を組み合わせる。
論文 参考訳(メタデータ) (2023-04-12T14:51:47Z) - GLUECons: A Generic Benchmark for Learning Under Constraints [102.78051169725455]
本研究では,自然言語処理とコンピュータビジョンの分野における9つのタスクの集合であるベンチマークを作成する。
外部知識を制約としてモデル化し、各タスクの制約のソースを特定し、これらの制約を使用するさまざまなモデルを実装します。
論文 参考訳(メタデータ) (2023-02-16T16:45:36Z) - The rise of the lottery heroes: why zero-shot pruning is hard [3.1473798197405944]
ディープラーニング最適化の最近の進歩は、モデルのトレーニングを成功させるためには、パラメータのサブセットが本当に必要であることを示している。
トレーニング可能なサブネットワークを見つけるのは通常、コストがかかるプロセスです。
ディープラーニングモデルにおける学習されたサブグラフ構造は、トレーニング時に見つけることができるか?
論文 参考訳(メタデータ) (2022-02-24T22:49:36Z) - Constrained Learning with Non-Convex Losses [119.8736858597118]
学習は現代の情報処理の中核技術になっているが、バイアス、安全でない、偏見のあるソリューションにつながるという証拠はたくさんある。
論文 参考訳(メタデータ) (2021-03-08T23:10:33Z) - Instance-Dependent Complexity of Contextual Bandits and Reinforcement
Learning: A Disagreement-Based Perspective [104.67295710363679]
古典的なマルチアームバンディット問題において、インスタンス依存アルゴリズムは、ベストとセカンドベストのアーム間のギャップで「容易」な問題のパフォーマンスを向上させる。
我々は、インスタンス依存の後悔境界を得るのに十分かつ必要である複雑性尺度のファミリーを導入する。
次に、可能な限りギャップに適応する新しいオラクル効率アルゴリズムを導入し、最悪の場合にはミニマックスレートを得る。
論文 参考訳(メタデータ) (2020-10-07T01:33:06Z) - Topological Gradient-based Competitive Learning [1.6752712949948443]
この研究は、勾配に基づく学習で競争学習をブリッジすることを目的とした、新しい包括的理論を提示することを目的としている。
2つの新しい勾配ベースの競合層の理論的等価性を完全に実証する。
予備実験は、入力行列の変換に基づいて訓練された双対アプローチが、低次元シナリオと高次元シナリオの両方において、より高速な収束率とより高いトレーニング精度をもたらすことを示す。
論文 参考訳(メタデータ) (2020-08-21T13:44:38Z) - Optimization and Generalization of Regularization-Based Continual
Learning: a Loss Approximation Viewpoint [35.5156045701898]
各タスクの損失関数の2階Taylor近似として定式化することにより、正規化に基づく連続学習の新しい視点を提供する。
この観点から、正規化に基づく連続学習の最適化側面(収束)と一般化特性(有限サンプル保証)を考察する。
論文 参考訳(メタデータ) (2020-06-19T06:08:40Z) - Reparameterized Variational Divergence Minimization for Stable Imitation [57.06909373038396]
確率的発散の選択における変動が、より高性能なILOアルゴリズムをもたらす可能性について検討する。
本稿では,提案する$f$-divergence最小化フレームワークの課題を軽減するために,逆模倣学習のための再パラメータ化手法を提案する。
経験的に、我々の設計選択は、ベースラインアプローチより優れ、低次元連続制御タスクにおける専門家のパフォーマンスとより密に適合するIOOアルゴリズムを許容することを示した。
論文 参考訳(メタデータ) (2020-06-18T19:04:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。