論文の概要: Safe Hierarchical Reinforcement Learning for CubeSat Task Scheduling
Based on Energy Consumption
- arxiv url: http://arxiv.org/abs/2309.12004v1
- Date: Thu, 21 Sep 2023 12:22:11 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-22 15:28:45.533842
- Title: Safe Hierarchical Reinforcement Learning for CubeSat Task Scheduling
Based on Energy Consumption
- Title(参考訳): エネルギー消費に基づくcubesatタスクスケジューリングのための安全階層強化学習
- Authors: Mahya Ramezani, M. Amin Alandihallaj, Jose Luis Sanchez-Lopez, and
Andreas Hein
- Abstract要約: 本稿では,低地球軌道(LEO)におけるキューブサットタスクスケジューリングの最適化に適した階層型強化学習手法を提案する。
本手法は,タスク優先順位付けのためのSABE(Simisity Attention-based convergence)と,エネルギー消費予測のための推定器を統合する。
シミュレーションの結果、階層強化学習の優位性とタスク成功率を検証し、MADDPGモデルと従来のランダムスケジューリングの両方に優れていた。
- 参考スコア(独自算出の注目度): 0.46603287532620735
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper presents a Hierarchical Reinforcement Learning methodology
tailored for optimizing CubeSat task scheduling in Low Earth Orbits (LEO).
Incorporating a high-level policy for global task distribution and a low-level
policy for real-time adaptations as a safety mechanism, our approach integrates
the Similarity Attention-based Encoder (SABE) for task prioritization and an
MLP estimator for energy consumption forecasting. Integrating this mechanism
creates a safe and fault-tolerant system for CubeSat task scheduling.
Simulation results validate the Hierarchical Reinforcement Learning superior
convergence and task success rate, outperforming both the MADDPG model and
traditional random scheduling across multiple CubeSat configurations.
- Abstract(参考訳): 本稿では,低地球軌道(LEO)におけるCubeSatタスクスケジューリングの最適化に適した階層型強化学習手法を提案する。
課題優先順位付けのための類似性注意型エンコーダ(SABE)とエネルギー消費予測のためのMLP推定器を統合し,グローバルなタスク分散のための高レベルポリシーとリアルタイム適応のための低レベルポリシーを安全メカニズムとして組み込んだ。
このメカニズムを統合することで、CubeSatタスクスケジューリングのための安全でフォールトトレラントなシステムを生成する。
シミュレーションの結果,複数のCubeSat構成におけるMADDPGモデルと従来のランダムスケジューリングの両方よりも優れた収束率とタスク成功率を示す。
関連論文リスト
- DHP: Discrete Hierarchical Planning for Hierarchical Reinforcement Learning Agents [2.1438108757511958]
我々の重要な貢献は、従来の距離に基づくアプローチに代わる離散階層的計画法(DHP)である。
提案手法の理論的基礎を提供し,その効果を広範な経験的評価を通じて実証する。
提案手法は,25室環境における長期視覚計画タスクにおいて,成功率と平均エピソード長において,従来のベンチマークよりも有意に優れていた。
論文 参考訳(メタデータ) (2025-02-04T03:05:55Z) - Proposing Hierarchical Goal-Conditioned Policy Planning in Multi-Goal Reinforcement Learning [0.0]
強化学習と自動計画を組み合わせた手法を提案する。
我々のアプローチは,高レベル行動(HLA)を用いたモンテカルロ木探索(MCTS)計画を用いて,階層的に構成された短期目標条件ポリシーを用いる。
エージェントの生涯に維持される単一のプランツリーは、目標達成に関する知識を持っている。
論文 参考訳(メタデータ) (2025-01-03T09:37:54Z) - Scalable Hierarchical Reinforcement Learning for Hyper Scale Multi-Robot Task Planning [17.989467671223043]
RMFSにおける超大規模MRTPのための効率的な多段階HRLベースのマルチロボットタスクプランナを構築した。
最適性を確保するため、プランナーは集中型アーキテクチャで設計されているが、スケールアップと一般化の課題ももたらしている。
我々のプランナーは、最大200台のロボットと1000台の検索ラックでRMFSの超大規模MRTPインスタンスにスケールアップできる。
論文 参考訳(メタデータ) (2024-12-27T09:07:11Z) - Cluster-Based Multi-Agent Task Scheduling for Space-Air-Ground Integrated Networks [60.085771314013044]
低高度経済は、コミュニケーションやセンシングなどの分野で発展する大きな可能性を秘めている。
本稿では,SAGINにおけるマルチUAV協調タスクスケジューリング問題に対処するため,クラスタリングに基づく多エージェントDeep Deterministic Policy Gradient (CMADDPG)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-12-14T06:17:33Z) - Dependency-Aware CAV Task Scheduling via Diffusion-Based Reinforcement Learning [12.504232513881828]
動的無人航空機支援型コネクテッド自動運転車(CAV)のための新しい依存性を考慮したタスクスケジューリング手法を提案する。
平均タスク完了時間を最小化することを目的として,共同スケジューリング優先度とサブタスク割り当て最適化問題を定式化する。
本稿では,Synthetic DDQNをベースとしたSubtasks Schedulingという拡散型強化学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-27T11:07:31Z) - Generalization of Compositional Tasks with Logical Specification via Implicit Planning [14.46490764849977]
本稿では,タスク一般化の効率性と最適性を向上する階層的RLフレームワークを提案する。
高いレベルでは、作曲タスクの一般化に特化して設計された暗黙のプランナーを示す。
潜時遷移モデルを学び、グラフニューラルネットワーク(GNN)を用いて潜時空間で計画を実行する。
論文 参考訳(メタデータ) (2024-10-13T00:57:10Z) - A Distance Similarity-based Genetic Optimization Algorithm for Satellite Ground Network Planning Considering Feeding Mode [53.71516191515285]
衛星データ中継ミッションの送信効率の低さは、現在システムの構築を制約している問題となっている。
本研究では,タスク間の状態特性を考慮した距離類似性に基づく遺伝的最適化アルゴリズム(DSGA)を提案し,タスク間の類似性を決定するための重み付きユークリッド距離法を提案する。
論文 参考訳(メタデータ) (2024-08-29T06:57:45Z) - Reinforcement Learning with Success Induced Task Prioritization [68.8204255655161]
本稿では,自動カリキュラム学習のためのフレームワークであるSuccess induced Task Prioritization (SITP)を紹介する。
アルゴリズムはエージェントに最速の学習を提供するタスクの順序を選択する。
我々は,SITPが他のカリキュラム設計手法と一致するか,あるいは上回っていることを実証する。
論文 参考訳(メタデータ) (2022-12-30T12:32:43Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Jump Operator Planning: Goal-Conditioned Policy Ensembles and Zero-Shot
Transfer [71.44215606325005]
本稿では,シーケンシャルなサブゴールタスクの超指数空間における解を高速に計算するための,Jump-Operator Dynamic Programmingという新しいフレームワークを提案する。
このアプローチでは、時間的に拡張された行動として機能する、再利用可能な目標条件付き警察のアンサンブルを制御する。
すると、この部分空間上の目的関数のクラスを、解がグラウンド化に不変であるものとして特定し、最適ゼロショット移動をもたらす。
論文 参考訳(メタデータ) (2020-07-06T05:13:20Z) - Decentralized MCTS via Learned Teammate Models [89.24858306636816]
本稿では,モンテカルロ木探索に基づくトレーニング可能なオンライン分散計画アルゴリズムを提案する。
深層学習と畳み込みニューラルネットワークを用いて正確なポリシー近似を作成可能であることを示す。
論文 参考訳(メタデータ) (2020-03-19T13:10:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。