論文の概要: A Framework Based on Generational and Environmental Response Strategies
for Dynamic Multi-objective Optimization
- arxiv url: http://arxiv.org/abs/2207.04047v1
- Date: Wed, 6 Jul 2022 14:21:36 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 16:04:26.285585
- Title: A Framework Based on Generational and Environmental Response Strategies
for Dynamic Multi-objective Optimization
- Title(参考訳): 動的多目的最適化のための世代・環境対応戦略に基づく枠組み
- Authors: Qingya Li, Xiangzhi Liu, Fuqiang Wang, Shuai Wang, Peng Zhang,
Xiaoming Wu
- Abstract要約: 本稿では、世代・環境対応戦略(FGERS)に基づく新しい枠組みを提案する。
FGERS-CPSは, 環境変化段階における最適解の変動傾向を予測するだけでなく, 環境安定段階における数世代後の個体群の進化傾向を予測する。
様々な特徴を持つ13のDMOPにおいて、FGERS-CPSは従来のフレームワークの4つの古典的応答戦略と比較された。
- 参考スコア(独自算出の注目度): 14.503732166625518
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Due to the dynamics and uncertainty of the dynamic multi-objective
optimization problems (DMOPs), it is difficult for algorithms to find a
satisfactory solution set before the next environmental change, especially for
some complex environments. One reason may be that the information in the
environmental static stage can not be used well in the traditional framework.
In this paper, a novel framework based on generational and environmental
response strategies (FGERS) is proposed, in which response strategies are run
both in the environmental change stage and the environmental static stage to
obtain population evolution information of those both stages. Unlike in the
traditional framework, response strategies are only run in the environmental
change stage. For simplicity, the feed-forward center point strategy was chosen
to be the response strategy in the novel dynamic framework (FGERS-CPS).
FGERS-CPS is not only to predict change trend of the optimum solution set in
the environmental change stage, but to predict the evolution trend of the
population after several generations in the environmental static stage.
Together with the feed-forward center point strategy, a simple memory strategy
and adaptive diversity maintenance strategy were used to form the complete
FGERS-CPS. On 13 DMOPs with various characteristics, FGERS-CPS was compared
with four classical response strategies in the traditional framework.
Experimental results show that FGERS-CPS is effective for DMOPs.
- Abstract(参考訳): 動的多目的最適化問題(DMOP)のダイナミクスと不確実性のため、アルゴリズムが次の環境変化、特に複雑な環境において設定された満足な解を見つけることは困難である。
一つの理由は、環境静的な段階の情報は従来の枠組みではうまく利用できないためかもしれない。
本稿では, 環境変化段階と環境静的段階の両方において, 世代・環境対応戦略(FGERS)に基づく新たな枠組みを提案し, 両段階の個体群進化情報を得る。
従来のフレームワークとは異なり、応答戦略は環境変化の段階でのみ実行される。
シンプルにするために、フィードフォワードセンターポイント戦略が、新しい動的フレームワーク(FGERS-CPS)の応答戦略に選ばれた。
fgers-cpsは, 環境変化段階における最適解の変動傾向を予測するだけでなく, 環境変動段階における数世代後における個体群の進化傾向を予測する。
フィードフォワードセンターポイント戦略と合わせて、シンプルなメモリ戦略と適応的な多様性維持戦略を用いて、完全なFGERS-CPSを形成した。
様々な特徴を持つ13のDMOPにおいて、FGERS-CPSは従来のフレームワークの4つの古典的応答戦略と比較された。
FGERS-CPSはDMOPに有効である。
関連論文リスト
- DyPNIPP: Predicting Environment Dynamics for RL-based Robust Informative Path Planning [13.462524685985818]
DyPNIPPは、時間的環境を効果的に横断するために設計された堅牢なRLベースのIPPフレームワークである。
野火環境での実験では、DyPNIPPは既存のRLベースのIPPアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2024-10-22T17:07:26Z) - Survival of the Fittest: Evolutionary Adaptation of Policies for Environmental Shifts [0.15889427269227555]
進化ゲーム理論(EGT)にインスパイアされた適応的再学習アルゴリズムを開発する。
ERPOは、ポリシー適応の高速化、平均報酬の向上、およびポリシー適応の計算コストの削減を示す。
論文 参考訳(メタデータ) (2024-10-22T09:29:53Z) - An accelerate Prediction Strategy for Dynamic Multi-Objective Optimization [7.272641346606365]
本稿では,進化的アルゴリズムフレームワークにおける予測戦略の高速化のための新しいアプローチを提案する。
本稿では,アルゴリズムの探索動作を予測・調整するために,二階微分を組み込んだ適応予測戦略を提案する。
標準DMOPのベンチマーク問題を用いて,提案手法の性能を4つの最先端アルゴリズムと比較した。
論文 参考訳(メタデータ) (2024-10-08T08:13:49Z) - Effective Tuning Strategies for Generalist Robot Manipulation Policies [45.36380662552082]
汎用ロボット操作ポリシー(GMP)は、幅広いタスク、デバイス、環境にまたがって一般化する可能性がある。
ファインチューニングは、新しいドメインやタスクに限られたサンプルで迅速に適応する実用的な方法であるが、その結果のGMPの性能は、ファインチューニング戦略の設計選択に関して大きく異なる。
論文 参考訳(メタデータ) (2024-10-02T04:00:25Z) - A Conservative Approach for Few-Shot Transfer in Off-Dynamics Reinforcement Learning [3.1515473193934778]
オフダイナミックス強化学習(英語: Off-dynamics Reinforcement Learning)は、ソース環境から、異なるが類似したダイナミクスによって特徴づけられるターゲット環境へポリシーを移そうとする。
我々は近年のImitation Learningと保守的RLアルゴリズムの進歩に触発された革新的なアプローチを提案する。
論文 参考訳(メタデータ) (2023-12-24T13:09:08Z) - Curriculum Reinforcement Learning via Morphology-Environment
Co-Evolution [46.27211830466317]
形態-環境共進化」によるRL剤とその形態の最適化
カリキュラムを手作りする代わりに、形態と環境を自動的に変えるために2つのポリシーを訓練します。
論文 参考訳(メタデータ) (2023-09-21T22:58:59Z) - RE-MOVE: An Adaptive Policy Design for Robotic Navigation Tasks in
Dynamic Environments via Language-Based Feedback [56.219221064727016]
継続的制御ロボットナビゲーションタスクのための強化学習ベースのポリシーは、リアルタイムデプロイメント中に環境の変化に適応できないことが多い。
本稿では,RE-MOVEと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-03-14T04:20:59Z) - Diverse Policy Optimization for Structured Action Space [59.361076277997704]
エネルギーベースモデル(EBM)として構造化された行動空間における政策をモデル化するための多元的政策最適化(DPO)を提案する。
新しい強力な生成モデルであるGFlowNetは、効率よく多様なEMMベースのポリシーサンプリングとして導入されている。
ATSCとBattleベンチマークの実験では、DPOが驚くほど多様なポリシーを効率的に発見できることが示されている。
論文 参考訳(メタデータ) (2023-02-23T10:48:09Z) - Revisiting GANs by Best-Response Constraint: Perspective, Methodology,
and Application [49.66088514485446]
ベストレスポンス制約(Best-Response Constraint、BRC)は、ジェネレータのディスクリミネータへの依存性を明示的に定式化する一般的な学習フレームワークである。
モチベーションや定式化の相違があっても, フレキシブルBRC法により, 様々なGANが一様に改善できることが示される。
論文 参考訳(メタデータ) (2022-05-20T12:42:41Z) - Learning to Continuously Optimize Wireless Resource in a Dynamic
Environment: A Bilevel Optimization Perspective [52.497514255040514]
この研究は、データ駆動メソッドが動的環境でリソース割り当て戦略を継続的に学び、最適化することを可能にする新しいアプローチを開発しています。
学習モデルが新たなエピソードに段階的に適応できるように、連続学習の概念を無線システム設計に組み込むことを提案する。
我々の設計は、異なるデータサンプルにまたがる公平性を保証する、新しい二段階最適化定式化に基づいている。
論文 参考訳(メタデータ) (2021-05-03T07:23:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。