論文の概要: Learning from Offline and Online Experiences: A Hybrid Adaptive Operator Selection Framework
- arxiv url: http://arxiv.org/abs/2404.10252v1
- Date: Tue, 16 Apr 2024 03:08:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-17 18:12:17.437048
- Title: Learning from Offline and Online Experiences: A Hybrid Adaptive Operator Selection Framework
- Title(参考訳): オフラインとオンライン体験から学ぶ:ハイブリッド適応型演算子選択フレームワーク
- Authors: Jiyuan Pei, Jialin Liu, Yi Mei,
- Abstract要約: 本稿では,オフライン体験とオンライン体験を効果的に組み合わせることに焦点を当てる。
探索演算子を動的かつ適応的に選択する新しいハイブリッドフレームワークを提案する。
- 参考スコア(独自算出の注目度): 2.148882675821217
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In many practical applications, usually, similar optimisation problems or scenarios repeatedly appear. Learning from previous problem-solving experiences can help adjust algorithm components of meta-heuristics, e.g., adaptively selecting promising search operators, to achieve better optimisation performance. However, those experiences obtained from previously solved problems, namely offline experiences, may sometimes provide misleading perceptions when solving a new problem, if the characteristics of previous problems and the new one are relatively different. Learning from online experiences obtained during the ongoing problem-solving process is more instructive but highly restricted by limited computational resources. This paper focuses on the effective combination of offline and online experiences. A novel hybrid framework that learns to dynamically and adaptively select promising search operators is proposed. Two adaptive operator selection modules with complementary paradigms cooperate in the framework to learn from offline and online experiences and make decisions. An adaptive decision policy is maintained to balance the use of those two modules in an online manner. Extensive experiments on 170 widely studied real-value benchmark optimisation problems and a benchmark set with 34 instances for combinatorial optimisation show that the proposed hybrid framework outperforms the state-of-the-art methods. Ablation study verifies the effectiveness of each component of the framework.
- Abstract(参考訳): 多くの実践的応用において、通常、同様の最適化問題やシナリオが繰り返し現れる。
従来の問題解決経験から学んだことは、メタヒューリスティック(メタヒューリスティック)のアルゴリズムコンポーネント、例えば、有望な探索演算子を適応的に選択することで、より良い最適化性能を実現するのに役立つ。
しかし,従来の問題,すなわちオフライン経験から得られた経験は,以前の問題と新しい問題の特徴が相対的に異なる場合,新しい問題を解く際に誤解を招くような認識を与えることがある。
進行中の問題解決プロセスで得られたオンライン経験から学ぶことは、より教育的だが、限られた計算資源によって非常に制限される。
本稿では,オフライン体験とオンライン体験を効果的に組み合わせることに焦点を当てる。
探索演算子を動的かつ適応的に選択する新しいハイブリッドフレームワークを提案する。
相補的なパラダイムを持つ2つの適応演算子選択モジュールは、オフラインおよびオンラインの経験から学び、意思決定を行うためにフレームワークに協力する。
適応的な決定ポリシーは、これら2つのモジュールの使用をオンライン的にバランスをとるために維持される。
170の広範に研究されている実値ベンチマーク最適化問題に対する広範な実験と、組合せ最適化のための34のインスタンスからなるベンチマークセットは、提案したハイブリッドフレームワークが最先端の手法よりも優れていることを示している。
アブレーション研究は、フレームワークの各コンポーネントの有効性を検証する。
関連論文リスト
- Learning Mixture-of-Experts for General-Purpose Black-Box Discrete Optimization [45.243090644194695]
この記事では、完全なデータ駆動学習最適化(L2O)アプローチを通じてトレーニングされた、新しい汎用ニューラルネットワークMEGOを紹介する。
MEGOは、トレーニング問題の解決からの経験に基づいて訓練された、エキスパートの混合物で構成されている。
MEGOは、高品質なソリューションを生成するために、関連する専門家モデルを積極的に選択する。
論文 参考訳(メタデータ) (2024-05-29T08:41:08Z) - Understanding the performance gap between online and offline alignment algorithms [63.137832242488926]
オフラインのアルゴリズムは、ペアの分類が得意になるようにポリシーを訓練し、オンラインのアルゴリズムは世代ごとに良いことを示しています。
このことは、識別能力と生成能力の間のユニークな相互作用を示唆しており、これはサンプリングプロセスに大きく影響している。
我々の研究は、AIアライメントにおけるオンラインサンプリングの重要な役割に光を当て、オフラインアライメントアルゴリズムのある種の根本的な課題を示唆している。
論文 参考訳(メタデータ) (2024-05-14T09:12:30Z) - Offline Model-Based Optimization via Policy-Guided Gradient Search [30.87992788876113]
オフライン強化学習問題として再構成することで、オフライン最適化のための新しい学習-探索-勾配の視点を導入する。
提案手法は,オフラインデータから生成されたサロゲートモデルに対して,適切なポリシーを明示的に学習する。
論文 参考訳(メタデータ) (2024-05-08T18:27:37Z) - Adaptive operator selection utilising generalised experience [0.8287206589886879]
強化学習(Reinforcement Learning, RL)は, 高度に効果的な適応的な選択システムをカスタマイズし, 形成する方法として提案されている。
本稿では,RLをベースとした新たなアプローチを提案し,今後の利用経験の獲得,処理,活用のための汎用的なフレームワークの開発を支援する。
論文 参考訳(メタデータ) (2023-12-04T00:27:59Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Rethinking and Benchmarking Predict-then-Optimize Paradigm for
Combinatorial Optimization Problems [62.25108152764568]
多くのWebアプリケーションは、エネルギーコストを考慮したスケジューリング、Web広告の予算配分、ソーシャルネットワークでのグラフマッチングなど、最適化問題の解決に頼っている。
統一システムにおける予測と意思決定の性能について考察する。
我々は、現在のアプローチを包括的に分類し、既存の実験シナリオを統合する。
論文 参考訳(メタデータ) (2023-11-13T13:19:34Z) - Solving Expensive Optimization Problems in Dynamic Environments with
Meta-learning [34.77121111015387]
本稿では,高コストな動的最適化問題を解くための,シンプルなメタラーニングに基づく最適化フレームワークを提案する。
このフレームワークは柔軟性があり、任意の既製のサロゲートモデルをプラグイン形式で連続的に使用することができる。
いくつかの最先端アルゴリズムと比較して,提案手法の有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-10-19T07:42:51Z) - Interactive Graph Convolutional Filtering [79.34979767405979]
インタラクティブ・レコメンダ・システム(IRS)は、パーソナライズされた記事レコメンデーション、ソーシャルメディア、オンライン広告など、さまざまな領域でますます利用されている。
これらの問題は、コールドスタート問題とデータスポーサリティ問題によって悪化する。
既存のMulti-Armed Bandit手法は、慎重に設計された探査戦略にもかかわらず、しばしば初期の段階で満足な結果を提供するのに苦労する。
提案手法は,ユーザとアイテム間の協調フィルタリング性能を向上させるため,協調フィルタリングをグラフモデルに拡張する。
論文 参考訳(メタデータ) (2023-09-04T09:02:31Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - DeepCO: Offline Combinatorial Optimization Framework Utilizing Deep
Learning [1.2183405753834562]
ディープラーニングを利用したオフライン最適化フレームワークDeepCOを提案する。
また,倉庫運用順序最適化問題をモデル化するために,TSP(Travelling Salesman Problem)のオフライン変動を設計する。
限られた履歴データのみで、新しい分布正規化最適化は、経路長を平均5.7%削減するオフライン実験において、既存のベースライン法より優れている。
論文 参考訳(メタデータ) (2020-07-20T04:17:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。