論文の概要: Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming
- arxiv url: http://arxiv.org/abs/2002.03910v3
- Date: Tue, 29 Jun 2021 14:46:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-02 09:18:06.042330
- Title: Proficiency Constrained Multi-Agent Reinforcement Learning for
Environment-Adaptive Multi UAV-UGV Teaming
- Title(参考訳): 環境適応型マルチUAV-UGVチームのための熟練度制約付きマルチエージェント強化学習
- Authors: Qifei Yu, Zhexin Shen, Yijiang Pang and Rui Liu
- Abstract要約: 空中と地上の混成ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
そこで本研究では,Mix-RL (Mix-RL) を用いた地上・空中協調学習手法を開発した。
Mix-RLは、タスク要件と環境条件へのロボット機能の適用を認識しながら、ロボット機能を利用する。
- 参考スコア(独自算出の注目度): 2.745883395089022
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A mixed aerial and ground robot team, which includes both unmanned ground
vehicles (UGVs) and unmanned aerial vehicles (UAVs), is widely used for
disaster rescue, social security, precision agriculture, and military missions.
However, team capability and corresponding configuration vary since robots have
different motion speeds, perceiving ranges, reaching areas, and resilient
capabilities to the dynamic environment. Due to heterogeneous robots inside a
team and the resilient capabilities of robots, it is challenging to perform a
task with an optimal balance between reasonable task allocations and maximum
utilization of robot capability. To address this challenge for effective mixed
ground and aerial teaming, this paper developed a novel teaming method,
proficiency aware multi-agent deep reinforcement learning (Mix-RL), to guide
ground and aerial cooperation by considering the best alignments between robot
capabilities, task requirements, and environment conditions. Mix-RL largely
exploits robot capabilities while being aware of the adaption of robot
capabilities to task requirements and environment conditions. Mix-RL's
effectiveness in guiding mixed teaming was validated with the task "social
security for criminal vehicle tracking".
- Abstract(参考訳): 無人地上機(UGV)と無人航空機(UAV)の両方を含む混合空中地上ロボットチームは、災害救助、社会保障、精密農業、軍事任務に広く利用されている。
しかし、ロボットは運動速度、範囲、到達範囲、動的環境への回復能力が異なるため、チームの能力とそれに対応する構成が異なる。
チーム内の異種ロボットとロボットのレジリエントな能力のため、合理的なタスク割り当てとロボット能力の最大利用の間の最適なバランスでタスクを実行することは困難である。
そこで本稿では,この課題を解決するために,ロボットの能力,課題要件,環境条件の最適な調整を考慮し,地上と空中の協調を導くための,熟練度対応型多エージェント深層強化学習(mix-rl)という新しいチーム分け手法を開発した。
Mix-RLは、タスク要件と環境条件にロボットの能力が適応していることを認識しながら、ロボットの機能を利用する。
Mix-RLの有効性は「犯罪車両追跡のための社会保障」という課題で検証された。
関連論文リスト
- Autonomous Decision Making for UAV Cooperative Pursuit-Evasion Game with Reinforcement Learning [50.33447711072726]
本稿では,マルチロールUAV協調追従ゲームにおける意思決定のための深層強化学習モデルを提案する。
提案手法は,追従回避ゲームシナリオにおけるUAVの自律的意思決定を可能にする。
論文 参考訳(メタデータ) (2024-11-05T10:45:30Z) - Multi-Task Interactive Robot Fleet Learning with Visual World Models [25.001148860168477]
Sirius-Fleetはマルチタスク対話型ロボットフリートラーニングフレームワークである。
デプロイ中のロボットのパフォーマンスを監視し、必要な時にロボットの動作を修正するよう人間に要求する。
ロボットの自律性が向上するにつれて、異常予測器は予測基準に自動的に適応する。
論文 参考訳(メタデータ) (2024-10-30T04:49:39Z) - Robotic warehousing operations: a learn-then-optimize approach to large-scale neighborhood search [84.39855372157616]
本稿では,ワークステーションの注文処理,アイテムポッドの割り当て,ワークステーションでの注文処理のスケジュールを最適化することで,ウェアハウジングにおけるロボット部品対ピッカー操作を支援する。
そこで我々は, 大規模近傍探索を用いて, サブプロブレム生成に対する学習を最適化する手法を提案する。
Amazon Roboticsと共同で、我々のモデルとアルゴリズムは、最先端のアプローチよりも、実用的な問題に対するより強力なソリューションを生み出していることを示す。
論文 参考訳(メタデータ) (2024-08-29T20:22:22Z) - Robot Navigation with Entity-Based Collision Avoidance using Deep Reinforcement Learning [0.0]
本稿では,ロボットのさまざまなエージェントや障害物との相互作用を高める新しい手法を提案する。
このアプローチでは、エンティティタイプに関する情報を使用し、衝突回避を改善し、より安全なナビゲーションを保証する。
本研究では,大人,自転車乗り,子供,静的障害物など,さまざまな物体との衝突に対してロボットをペナルティ化する新たな報酬関数を提案する。
論文 参考訳(メタデータ) (2024-08-26T11:16:03Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - We Choose to Go to Space: Agent-driven Human and Multi-Robot
Collaboration in Microgravity [28.64243893838686]
将来の宇宙探査には人間とロボットが協力する必要がある。
本研究では,微小重力環境下での人間とロボットの協調戦略を学習するSpaceAgents-1を提案する。
論文 参考訳(メタデータ) (2024-02-22T05:32:27Z) - RoboGen: Towards Unleashing Infinite Data for Automated Robot Learning via Generative Simulation [68.70755196744533]
RoboGenはジェネレーティブなロボットエージェントで、ジェネレーティブなシミュレーションを通じて、さまざまなロボットのスキルを自動的に学習する。
我々の研究は、大規模モデルに埋め込まれた広範囲で多目的な知識を抽出し、それらをロボット工学の分野に移す試みである。
論文 参考訳(メタデータ) (2023-11-02T17:59:21Z) - MTAC: Hierarchical Reinforcement Learning-based Multi-gait
Terrain-adaptive Quadruped Controller [12.300578189051963]
動的・荒地環境における四足歩行ロボットの制御は、これらのロボットの自由度が高いため、難しい問題である。
現在の四足歩行制御装置は、複数の適応歩行を生産し、時間と資源効率のよい方法でタスクを解く能力に制限があり、面倒なトレーニングと手動のチューニング手順を必要とする。
時間とメモリ効率を両立させながら階層的強化学習(HRL)アプローチを利用するマルチゲット地形適応型コントローラMTACを提案する。
論文 参考訳(メタデータ) (2023-11-01T18:17:47Z) - AdverSAR: Adversarial Search and Rescue via Multi-Agent Reinforcement
Learning [4.843554492319537]
本稿では,敵対的エージェント間コミュニケーションの存在下で,ロボットの戦略を効率的に調整するアルゴリズムを提案する。
ロボットは対象の場所について事前の知識を持っておらず、隣接するロボットのサブセットのみといつでも対話できると仮定される。
提案手法の有効性は, グリッドワールド環境のプロトタイプで実証した。
論文 参考訳(メタデータ) (2022-12-20T08:13:29Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。