論文の概要: Autonomous Drone Swarm Navigation and Multi-target Tracking in 3D
Environments with Dynamic Obstacles
- arxiv url: http://arxiv.org/abs/2202.06253v1
- Date: Sun, 13 Feb 2022 08:26:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-15 15:41:43.921859
- Title: Autonomous Drone Swarm Navigation and Multi-target Tracking in 3D
Environments with Dynamic Obstacles
- Title(参考訳): 動的障害物を有する3次元環境における自律型ドローン群ナビゲーションとマルチターゲットトラッキング
- Authors: Suleman Qamar, Saddam Hussain Khan, Muhammad Arif Arshad, Maryam
Qamar, and Asifullah Khan
- Abstract要約: 本研究では,Swarmナビゲーションにおける深層強化学習を用いた自律的アプローチを提案する。
このアプローチでは、静的および動的障害物を伴う複雑な3次元環境をモデル化し、複数の動的ターゲットを追跡する。
- 参考スコア(独自算出の注目度): 0.24466725954625884
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Autonomous modeling of artificial swarms is necessary because manual creation
is a time intensive and complicated procedure which makes it impractical. An
autonomous approach employing deep reinforcement learning is presented in this
study for swarm navigation. In this approach, complex 3D environments with
static and dynamic obstacles and resistive forces (like linear drag, angular
drag, and gravity) are modeled to track multiple dynamic targets. Moreover,
reward functions for robust swarm formation and target tracking are devised for
learning complex swarm behaviors. Since the number of agents is not fixed and
has only the partial observance of the environment, swarm formation and
navigation become challenging. In this regard, the proposed strategy consists
of three main phases to tackle the aforementioned challenges: 1) A methodology
for dynamic swarm management, 2) Avoiding obstacles, Finding the shortest path
towards the targets, 3) Tracking the targets and Island modeling. The dynamic
swarm management phase translates basic sensory input to high level commands to
enhance swarm navigation and decentralized setup while maintaining the swarms
size fluctuations. While, in the island modeling, the swarm can split into
individual subswarms according to the number of targets, conversely, these
subswarms may join to form a single huge swarm, giving the swarm ability to
track multiple targets. Customized state of the art policy based deep
reinforcement learning algorithms are employed to achieve significant results.
The promising results show that our proposed strategy enhances swarm navigation
and can track multiple static and dynamic targets in complex dynamic
environments.
- Abstract(参考訳): 人工群の自動モデリングは、手作業による作成が時間を要する複雑な手順であるため、現実的ではない。
本研究では,深層強化学習を用いた自律的アプローチを提案する。
このアプローチでは、静的および動的障害物と抵抗力(線形ドラッグ、角ドラッグ、重力など)を持つ複雑な3d環境が、複数の動的ターゲットを追跡するためにモデル化される。
さらに,ロバストなSwarm生成とターゲットトラッキングのための報酬関数を,複雑なSwarm動作の学習のために考案した。
エージェントの数は固定されておらず、環境の一部しか観察できないため、Swarmの形成とナビゲーションは困難になる。
この観点から、提案された戦略は、上記の課題に取り組むための3つの主要な段階から構成される。
1)動的スウォーム管理のための方法論
2)障害物回避,目標への最短経路の発見
3) ターゲットの追跡と島のモデリング。
動的swarm管理フェーズは、基本的な感覚入力をハイレベルコマンドに変換し、swarmサイズ変動を維持しながら、swarmナビゲーションと分散設定を強化する。
島のモデリングでは、swarmはターゲットの数に応じて個々のサブスワームに分割されるが、逆にこれらのサブスワームは単一の巨大なswarmを形成するために結合し、swarmは複数のターゲットを追跡できる。
技術ポリシーに基づく深層強化学習アルゴリズムのカスタマイズ状態は、重要な結果を得るために使用される。
提案手法は,Swarmナビゲーションを強化し,複雑な動的環境における複数の静的および動的ターゲットを追跡できることを示す。
関連論文リスト
- 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - Biologically Inspired Swarm Dynamic Target Tracking and Obstacle Avoidance [0.0]
本研究では、軍用分散ドローン群を用いた動的目標追跡のためのAI駆動飛行コンピュータを提案する。
コントローラはファジィインタフェース、素早い適応、予測能力、マルチエージェント問題解決を可能にするニューラルネットワークを統合する。
論文 参考訳(メタデータ) (2024-10-15T03:47:09Z) - EgoGaussian: Dynamic Scene Understanding from Egocentric Video with 3D Gaussian Splatting [95.44545809256473]
エゴガウスアン(EgoGaussian)は、3Dシーンを同時に再構築し、RGBエゴセントリックな入力のみから3Dオブジェクトの動きを動的に追跡する手法である。
動的オブジェクトと背景再構築の品質の両面で,最先端技術と比較して大きな改善が見られた。
論文 参考訳(メタデータ) (2024-06-28T10:39:36Z) - Modular Neural Network Policies for Learning In-Flight Object Catching
with a Robot Hand-Arm System [55.94648383147838]
本稿では,ロボットハンドアームシステムによる飛行物体の捕獲方法の学習を可能にするモジュラーフレームワークを提案する。
本フレームワークは,物体の軌跡予測を学習するオブジェクト状態推定器,(ii)捕捉対象のポーズのスコアとランク付けを学ぶキャッチポーズ品質ネットワーク,(iii)ロボットハンドをキャッチ前ポーズに移動させるように訓練されたリーチ制御ポリシ,(iv)ソフトキャッチ動作を行うように訓練された把握制御ポリシの5つのコアモジュールから構成される。
各モジュールと統合システムのシミュレーションにおいて、我々のフレームワークを広範囲に評価し、飛行における高い成功率を示す。
論文 参考訳(メタデータ) (2023-12-21T16:20:12Z) - Enhancing Robotic Navigation: An Evaluation of Single and
Multi-Objective Reinforcement Learning Strategies [0.9208007322096532]
本研究では,ロボットが目的達成に向けて効果的に移動できるよう訓練するための単目的と多目的の強化学習法の比較分析を行った。
報酬関数を変更して報酬のベクターを返却し、それぞれ異なる目的に関連付けることで、ロボットはそれぞれの目標を効果的にバランスさせるポリシーを学ぶ。
論文 参考訳(メタデータ) (2023-12-13T08:00:26Z) - Short vs. Long-term Coordination of Drones: When Distributed Optimization Meets Deep Reinforcement Learning [0.9208007322096532]
自律型対話型ドローンの群れは、交通監視などスマートシティのアプリケーションに魅力的なセンシング機能を提供する。
本稿では,ドローン群による大規模時空間センシングにおけるタスク割り当て問題に焦点をあてる。
長期DRLと短期集団学習を統合した新しい相乗的最適化手法を提案する。
論文 参考訳(メタデータ) (2023-11-16T12:28:31Z) - Robot path planning using deep reinforcement learning [0.0]
強化学習法は、地図のないナビゲーションタスクに代わる手段を提供する。
障害物回避と目標指向ナビゲーションタスクの両方に深部強化学習エージェントを実装した。
報酬関数の変更によるエージェントの挙動と性能の変化を解析する。
論文 参考訳(メタデータ) (2023-02-17T20:08:59Z) - VAE-Loco: Versatile Quadruped Locomotion by Learning a Disentangled Gait
Representation [78.92147339883137]
本研究では,特定の歩行を構成する主要姿勢位相を捕捉する潜在空間を学習することにより,制御器のロバスト性を高めることが重要であることを示す。
本研究では,ドライブ信号マップの特定の特性が,歩幅,歩幅,立位などの歩行パラメータに直接関係していることを示す。
生成モデルを使用することで、障害の検出と緩和が容易になり、汎用的で堅牢な計画フレームワークを提供する。
論文 参考訳(メタデータ) (2022-05-02T19:49:53Z) - ACID: Action-Conditional Implicit Visual Dynamics for Deformable Object
Manipulation [135.10594078615952]
本稿では,体積変形可能なオブジェクトに対する動作条件の視覚力学モデルであるACIDを紹介する。
ベンチマークには17,000以上のアクション・トラジェクトリー、6種類のぬいぐるみと78種類の変種が含まれている。
我々のモデルは、幾何学、対応、力学の予測において最高の性能を達成する。
論文 参考訳(メタデータ) (2022-03-14T04:56:55Z) - GEM: Group Enhanced Model for Learning Dynamical Control Systems [78.56159072162103]
サンプルベースの学習が可能な効果的なダイナミクスモデルを構築します。
リー代数ベクトル空間上のダイナミクスの学習は、直接状態遷移モデルを学ぶよりも効果的であることを示す。
この研究は、ダイナミクスの学習とリー群の性質の関連性を明らかにし、新たな研究の方向への扉を開く。
論文 参考訳(メタデータ) (2021-04-07T01:08:18Z) - ReLMoGen: Leveraging Motion Generation in Reinforcement Learning for
Mobile Manipulation [99.2543521972137]
ReLMoGenは、サブゴールを予測するための学習されたポリシーと、これらのサブゴールに到達するために必要な動作を計画し実行するためのモーションジェネレータを組み合わせたフレームワークである。
本手法は,フォトリアリスティック・シミュレーション環境における7つのロボットタスクの多種多様なセットをベンチマークする。
ReLMoGenは、テスト時に異なるモーションジェネレータ間で顕著な転送可能性を示し、実際のロボットに転送する大きな可能性を示している。
論文 参考訳(メタデータ) (2020-08-18T08:05:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。