論文の概要: Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming
- arxiv url: http://arxiv.org/abs/2002.03910v3
- Date: Tue, 29 Jun 2021 14:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:18:06.042330
- Title: Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming
- Title(参考訳): 環境適応型マルチUAV-UGVチームのための熟練度制約付きマルチエージェント強化学習
- Authors: Qifei Yu, Zhexin Shen, Yijiang Pang and Rui Liu
- Abstract要約: 空中と地上の混成ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
そこで本研究では,Mix-RL (Mix-RL) を用いた地上・空中協調学習手法を開発した。
Mix-RLは、タスク要件と環境条件へのロボット機能の適用を認識しながら、ロボット機能を利用する。
- 参考スコア(独自算出の注目度): 2.745883395089022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A mixed aerial and ground robot team, which includes both unmanned ground
vehicles (UGVs) and unmanned aerial vehicles (UAVs), is widely used for
disaster rescue, social security, precision agriculture, and military missions.
However, team capability and corresponding configuration vary since robots have
different motion speeds, perceiving ranges, reaching areas, and resilient
capabilities to the dynamic environment. Due to heterogeneous robots inside a
team and the resilient capabilities of robots, it is challenging to perform a
task with an optimal balance between reasonable task allocations and maximum
utilization of robot capability. To address this challenge for effective mixed
ground and aerial teaming, this paper developed a novel teaming method,
proficiency aware multi-agent deep reinforcement learning (Mix-RL), to guide
ground and aerial cooperation by considering the best alignments between robot
capabilities, task requirements, and environment conditions. Mix-RL largely
exploits robot capabilities while being aware of the adaption of robot
capabilities to task requirements and environment conditions. Mix-RL's
effectiveness in guiding mixed teaming was validated with the task "social
security for criminal vehicle tracking".
- Abstract(参考訳): 無人地上機(UGV)と無人航空機(UAV)の両方を含む混合空中地上ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
しかし、ロボットは運動速度、範囲、到達範囲、動的環境への回復能力が異なるため、チームの能力とそれに対応する構成が異なる。
チーム内の異種ロボットとロボットのレジリエントな能力のため、合理的なタスク割り当てとロボット能力の最大利用の間の最適なバランスでタスクを実行することは困難である。
そこで本稿では,この課題を解決するために,ロボットの能力,課題要件,環境条件の最適な調整を考慮し,地上と空中の協調を導くための,熟練度対応型多エージェント深層強化学習(mix-rl)という新しいチーム分け手法を開発した。
Mix-RLは、タスク要件と環境条件にロボットの能力が適応していることを認識しながら、ロボットの機能を利用する。
Mix-RLの有効性は「犯罪車両追跡のための社会保障」という課題で検証された。
関連論文リスト
- We Choose to Go to Space: Agent-driven Human and Multi-Robot
Collaboration in Microgravity [28.64243893838686]
将来の宇宙探査には人間とロボットが協力する必要がある。
本研究では,微小重力環境下での人間とロボットの協調戦略を学習するSpaceAgents-1を提案する。
論文 参考訳(メタデータ) (2024-02-22T05:32:27Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning
via Generative Simulation [64.51563634951394]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - MTAC: Hierarchical Reinforcement Learning-based Multi-gait
Terrain-adaptive Quadruped Controller [12.300578189051963]
動的・荒地環境における四足歩行ロボットの制御は、これらのロボットの自由度が高いため、難しい問題である。
現在の四足歩行制御装置は、複数の適応歩行を生産し、時間と資源効率のよい方法でタスクを解く能力に制限があり、面倒なトレーニングと手動のチューニング手順を必要とする。
時間とメモリ効率を両立させながら階層的強化学習(HRL)アプローチを利用するマルチゲット地形適応型コントローラMTACを提案する。
論文 参考訳(メタデータ) (2023-11-01T18:17:47Z) - Efficient Skill Acquisition for Complex Manipulation Tasks in Obstructed
Environments [18.348489257164356]
本稿では,オブジェクト指向生成モデル(OCGM)を多目的ゴール識別に活用する,効率的なスキル獲得システムを提案する。
OCGMは、新しいシーンでワンショットターゲットオブジェクトの識別と再識別を可能にし、MPは障害物を避けながらロボットを対象オブジェクトに誘導することができる。
論文 参考訳(メタデータ) (2023-03-06T18:49:59Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - DC-MRTA: Decentralized Multi-Robot Task Allocation and Navigation in
Complex Environments [55.204450019073036]
本稿では,倉庫環境における移動ロボットのためのタスク割り当てと分散ナビゲーションアルゴリズムを提案する。
本稿では,共同分散タスク割り当てとナビゲーションの問題について考察し,それを解決するための2段階のアプローチを提案する。
ロボットの衝突のない軌道の計算では,タスク完了時間において最大14%の改善と最大40%の改善が観察される。
論文 参考訳(メタデータ) (2022-09-07T00:35:27Z) - SERA: Safe and Efficient Reactive Obstacle Avoidance for Collaborative
Robotic Planning in Unstructured Environments [1.5229257192293197]
本稿では,リアクティブな全身障害物回避手法を提案する。
ロボットアームは、直接接触することなく、任意の3次元形状の障害物を積極的に回避することができる。
本手法は,非定常環境における安全ロボット協調のための堅牢で効果的なソリューションを提供する。
論文 参考訳(メタデータ) (2022-03-24T21:11:43Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - Adaptation of Quadruped Robot Locomotion with Meta-Learning [64.71260357476602]
本研究では,多岐にわたる移動課題を解くロボットの訓練にメタ強化学習を用いることを実証する。
メタトレーニングロボットのパフォーマンスは、単一のタスクでトレーニングされたロボットと似ている。
論文 参考訳(メタデータ) (2021-07-08T10:37:18Z) - Show Me What You Can Do: Capability Calibration on Reachable Workspace
for Human-Robot Collaboration [83.4081612443128]
本稿では,REMPを用いた短時間キャリブレーションにより,ロボットが到達できると考える非専門家と地道とのギャップを効果的に埋めることができることを示す。
この校正手順は,ユーザ認識の向上だけでなく,人間とロボットのコラボレーションの効率化にも寄与することを示す。
論文 参考訳(メタデータ) (2021-03-06T09:14:30Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。