論文の概要: Perception-Aware Communication-Free Multi-UAV Coordination in the Wild
- arxiv url: http://arxiv.org/abs/2603.08379v1
- Date: Mon, 09 Mar 2026 13:41:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-23 08:17:42.101961
- Title: Perception-Aware Communication-Free Multi-UAV Coordination in the Wild
- Title(参考訳): 野生における知覚型コミュニケーションフリー多UAVコーディネーション
- Authors: Manuel Boldrer, Michal Kamler, Afzal Ahmad, Martin Saska,
- Abstract要約: 本研究では,高密度天蓋を有する森林などの複雑な環境において,安全なマルチロボット協調のためのコミュニケーションフリー手法を提案する。
我々のアプローチは、SLAMや障害物や近接するロボットを検出するために使用される、搭載された異方性3DLiDARセンサーに依存している。
我々は,センサの視野が限られているにも関わらず,ロボットが目標領域に向けて安全かつ効果的に前進できる新しい3Dナビゲーションフレームワークを開発した。
- 参考スコア(独自算出の注目度): 4.317027632626673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a communication-free method for safe multi-robot coordination in complex environments such as forests with dense canopy cover, where GNSS is unavailable. Our approach relies on an onboard anisotropic 3D LiDAR sensor used for SLAM as well as for detecting obstacles and neighboring robots. We develop a novel perception-aware 3D navigation framework that enables robots to safely and effectively progress toward a goal region despite limited sensor field-of-view. The approach is evaluated through extensive simulations across diverse scenarios and validated in real-world field experiments, demonstrating its scalability, robustness, and reliability.
- Abstract(参考訳): 本稿では,GNSSが利用できない森林などの複雑な環境において,通信不要で安全なマルチロボット協調手法を提案する。
我々のアプローチは、SLAMや障害物や近接するロボットを検出するために使用される、搭載された異方性3DLiDARセンサーに依存している。
我々は,センサの視野が限られているにも関わらず,ロボットが目標領域に向けて安全かつ効果的に前進できる新しい3Dナビゲーションフレームワークを開発した。
このアプローチは、さまざまなシナリオにわたる広範なシミュレーションを通じて評価され、実世界のフィールド実験で検証され、そのスケーラビリティ、堅牢性、信頼性が実証される。
関連論文リスト
- IMAGINE: Intelligent Multi-Agent Godot-based Indoor Networked Exploration [0.0]
本稿では,2次元屋内環境における課題に対処するために,MARL(Multi-Agent Reinforcement Learning)を実装した。
政策訓練は、不確実性の下で創発的な協調行動と意思決定を達成することを目的としている。
論文 参考訳(メタデータ) (2026-02-02T22:08:41Z) - AerialMind: Towards Referring Multi-Object Tracking in UAV Scenarios [64.51320327698231]
UAVシナリオにおける最初の大規模RMOTベンチマークであるAerialMindを紹介する。
我々は、革新的な半自動協調型エージェントベースラベリングアシスタントフレームワークを開発した。
また,視覚言語表現学習を協調的に強化する新しい手法であるHawkEyeTrackを提案する。
論文 参考訳(メタデータ) (2025-11-26T04:44:27Z) - Decentralized Vision-Based Autonomous Aerial Wildlife Monitoring [55.159556673975544]
野生生物モニタリングのための分散視覚に基づくマルチクワッドロータシステムを提案する。
我々のアプローチは、その自然生息地における大型種のロバスト同定と追跡を可能にする。
論文 参考訳(メタデータ) (2025-08-20T20:05:05Z) - Design and Experimental Validation of an Autonomous USV for Sensor Fusion-Based Navigation in GNSS-Denied Environments [2.915868985330569]
MARVEL(MARVEL)は、センサーフュージョンに基づくナビゲーションアルゴリズムの現実的なテストのために開発された無人表面車両である。
電磁ログ、ドップラー速度ログ、慣性センサー、リアルタイムキネマティック位置決めを統合している。
MARVELは、冗長な同期センサーを使用して、高度なナビゲーションとAI駆動アルゴリズムのリアルタイム、その場検証を可能にする。
論文 参考訳(メタデータ) (2025-03-30T13:50:46Z) - Enhancing Autonomous Navigation by Imaging Hidden Objects using Single-Photon LiDAR [12.183773707869069]
単一光子LiDARを用いたNon-Line-of-Sight(NLOS)センシングによる視認性の向上と自律ナビゲーションの向上を目的とした新しいアプローチを提案する。
本手法は,マルチバウンス光情報を利用することで,移動ロボットを「隅々まで見る」ことを可能にする。
論文 参考訳(メタデータ) (2024-10-04T16:03:13Z) - HUM3DIL: Semi-supervised Multi-modal 3D Human Pose Estimation for
Autonomous Driving [95.42203932627102]
3Dの人間のポーズ推定は、自動運転車が歩行者の微妙で複雑な振る舞いを知覚し理解できるようにする新しい技術である。
提案手法は,これらの補完信号を半教師付き方式で効率的に利用し,既存の手法よりも大きなマージンで性能を向上する。
具体的には、LiDAR点を画素整列マルチモーダル特徴に埋め込み、トランスフォーマーの精細化段階を経る。
論文 参考訳(メタデータ) (2022-12-15T11:15:14Z) - Incremental 3D Scene Completion for Safe and Efficient Exploration
Mapping and Planning [60.599223456298915]
本研究では,情報,安全,解釈可能な地図作成と計画に3次元シーン補完を活用することによって,深層学習を探索に統合する新しい手法を提案する。
本手法は,地図の精度を最小限に抑えることで,ベースラインに比べて環境のカバレッジを73%高速化できることを示す。
最終地図にシーン完了が含まれていなくても、ロボットがより情報的な経路を選択するように誘導し、ロボットのセンサーでシーンの測定を35%高速化できることが示される。
論文 参考訳(メタデータ) (2022-08-17T14:19:33Z) - Autonomous Aerial Robot for High-Speed Search and Intercept Applications [86.72321289033562]
高速物体把握のための完全自律飛行ロボットが提案されている。
追加のサブタスクとして、我々のシステムは、表面に近い極にある気球を自律的にピアスすることができる。
我々のアプローチは、挑戦的な国際競争で検証され、優れた結果が得られました。
論文 参考訳(メタデータ) (2021-12-10T11:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。