論文の概要: FM-EAC: Feature Model-based Enhanced Actor-Critic for Multi-Task Control in Dynamic Environments
- arxiv url: http://arxiv.org/abs/2512.15430v1
- Date: Wed, 17 Dec 2025 13:26:17 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:27.003022
- Title: FM-EAC: Feature Model-based Enhanced Actor-Critic for Multi-Task Control in Dynamic Environments
- Title(参考訳): FM-EAC:動的環境におけるマルチタスク制御のための特徴モデルに基づく拡張アクタ臨界
- Authors: Quanxi Zhou, Wencan Mao, Manabu Tsukada, John C. S. Lui, Yusheng Ji,
- Abstract要約: 本研究では,動的環境におけるマルチタスク制御のための計画,行動,学習を統合するアルゴリズムを提案する。
モデルベース強化学習(MBRL)とモデルフリー強化学習(MFRL)は、異なる経路に沿って進化するが、Dyna-Qの設計に収束する。
- 参考スコア(独自算出の注目度): 34.36979510173132
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model-based reinforcement learning (MBRL) and model-free reinforcement learning (MFRL) evolve along distinct paths but converge in the design of Dyna-Q [1]. However, modern RL methods still struggle with effective transferability across tasks and scenarios. Motivated by this limitation, we propose a generalized algorithm, Feature Model-Based Enhanced Actor-Critic (FM-EAC), that integrates planning, acting, and learning for multi-task control in dynamic environments. FM-EAC combines the strengths of MBRL and MFRL and improves generalizability through the use of novel feature-based models and an enhanced actor-critic framework. Simulations in both urban and agricultural applications demonstrate that FM-EAC consistently outperforms many state-of-the-art MBRL and MFRL methods. More importantly, different sub-networks can be customized within FM-EAC according to user-specific requirements.
- Abstract(参考訳): モデルベース強化学習(MBRL)とモデルフリー強化学習(MFRL)は、異なる経路に沿って進化するが、Dyna-Q [1] の設計に収束する。
しかし、現代のRL手法はタスクやシナリオ間の効果的な転送可能性に苦慮している。
この制限により、動的環境におけるマルチタスク制御のための計画、行動、学習を統合する一般化されたアルゴリズム、FM-EAC(Feature Model-Based Enhanced Actor-Critic)を提案する。
FM-EACは、MBRLとMFRLの強みを組み合わせ、新しい特徴ベースのモデルとアクター・クリティック・フレームワークを使うことで、一般化性を向上させる。
都市と農業の両方の応用におけるシミュレーションは、FM-EACが多くの最先端のMBRL法とMFRL法を一貫して上回っていることを示している。
さらに重要なのは、ユーザ固有の要件に従って、FM-EAC内で異なるサブネットワークをカスタマイズできることだ。
関連論文リスト
- Meta Hierarchical Reinforcement Learning for Scalable Resource Management in O-RAN [9.290879387995401]
本稿では,モデル非依存型メタラーニング(MAML)に触発された適応型メタ階層型強化学習フレームワークを提案する。
このフレームワークは階層的な制御とメタラーニングを統合し、グローバルとローカルの両方の適応を可能にする。
ネットワークスケールの増加に伴い、適応と一貫性のある公平性、レイテンシ、スループットのパフォーマンスが最大40%向上する。
論文 参考訳(メタデータ) (2025-12-08T08:16:27Z) - CSMoE: An Efficient Remote Sensing Foundation Model with Soft Mixture-of-Experts [5.429166905724048]
マスク付きオートエンコーダによる自己教師型学習は、リモートセンシング(RS)基礎モデル(FM)開発において大きな注目を集めている。
既存のRS FMは、トレーニングと推論の両方でかなりの計算複雑性に悩まされることが多い。
本稿では,ソフト・ミックス・オブ・エキスパート・メカニズムをFMに組み込むことにより,RS FMの効率を向上させるための適応法を提案する。
論文 参考訳(メタデータ) (2025-09-17T15:47:18Z) - Residual Learning Inspired Crossover Operator and Strategy Enhancements for Evolutionary Multitasking [0.3749861135832073]
進化的マルチタスキングでは、クロスオーバー演算子やスキルファクター割り当てといった戦略が効果的な知識伝達に不可欠である。
本稿では,残差学習に基づくMFEA-RL法を提案する。
ResNetベースのメカニズムは、タスク適応性を改善するためのスキルファクタを動的に割り当て、ランダムマッピング機構は、効率的にクロスオーバー操作を行う。
論文 参考訳(メタデータ) (2025-03-27T10:27:17Z) - Distilling Reinforcement Learning Algorithms for In-Context Model-Based Planning [39.53836535326121]
In-context Model-based RL frameworkであるDistillation for In-Context Planning (DICP)を提案する。
以上の結果から,DICPはベースラインよりも環境相互作用を著しく少なく抑えながら,最先端の性能を実現することが示唆された。
論文 参考訳(メタデータ) (2025-02-26T10:16:57Z) - Aerial Reliable Collaborative Communications for Terrestrial Mobile Users via Evolutionary Multi-Objective Deep Reinforcement Learning [59.660724802286865]
無人航空機(UAV)は、地上通信を改善するための航空基地局(BS)として登場した。
この作業では、UAV対応仮想アンテナアレイによる協調ビームフォーミングを使用して、UAVから地上モバイルユーザへの伝送性能を向上させる。
論文 参考訳(メタデータ) (2025-02-09T09:15:47Z) - HarmonyDream: Task Harmonization Inside World Models [93.07314830304193]
モデルベース強化学習(MBRL)は、サンプル効率の学習を約束する。
本稿では,タスク調和性を維持するために損失係数を自動的に調整する,シンプルで効果的なアプローチであるHarmonyDreamを提案する。
論文 参考訳(メタデータ) (2023-09-30T11:38:13Z) - Decision-Focused Model-based Reinforcement Learning for Reward Transfer [27.899494428456048]
本稿では,報酬関数の変化に頑健でありながら高いリターンを達成する遷移モデルを学習する,新しいロバストな決定中心(RDF)アルゴリズムを提案する。
我々は、様々なシミュレーターと実際の患者データに基づいて、RDFがパーソナライズされたポリシーを計画するのに使えるシンプルで効果的なモデルを学ぶことができるという理論的および実証的な証拠を提供する。
論文 参考訳(メタデータ) (2023-04-06T20:47:09Z) - Information Theoretic Model Predictive Q-Learning [64.74041985237105]
本稿では,情報理論的MPCとエントロピー正規化RLとの新たな理論的関連性を示す。
バイアスモデルを利用したQ-ラーニングアルゴリズムを開発した。
論文 参考訳(メタデータ) (2019-12-31T00:29:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。