論文の概要: Greedy Perspectives: Multi-Drone View Planning for Collaborative Perception in Cluttered Environments
- arxiv url: http://arxiv.org/abs/2310.10863v2
- Date: Mon, 25 Mar 2024 20:46:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 00:51:06.009475
- Title: Greedy Perspectives: Multi-Drone View Planning for Collaborative Perception in Cluttered Environments
- Title(参考訳): グリーディ・パースペクティブ: クラッタ環境における協調的知覚のための多次元視点計画
- Authors: Krishna Suresh, Aditya Rauniyar, Micah Corah, Sebastian Scherer,
- Abstract要約: 我々は,グループを撮影する目的を意識したマルチロボット・マルチアクター・ビュー・プランナーを開発した。
フォーメーションプランナーと比較して、連続プランナーは3つのシナリオに対してアクターよりも14%大きなビュー報酬を生成する。
また、ロボット間衝突の制約を伴わずに連続的な計画を行う場合、ほぼ同一のビュー報酬も観測する。
- 参考スコア(独自算出の注目度): 1.3499500088995464
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deployment of teams of aerial robots could enable large-scale filming of dynamic groups of people (actors) in complex environments for applications in areas such as team sports and cinematography. Toward this end, methods for submodular maximization via sequential greedy planning can be used for scalable optimization of camera views across teams of robots but face challenges with efficient coordination in cluttered environments. Obstacles can produce occlusions and increase chances of inter-robot collision which can violate requirements for near-optimality guarantees. To coordinate teams of aerial robots in filming groups of people in dense environments, a more general view-planning approach is required. We explore how collision and occlusion impact performance in filming applications through the development of a multi-robot multi-actor view planner with an occlusion-aware objective for filming groups of people and compare with a formation planner and a greedy planner that ignores inter-robot collisions. We evaluate our approach based on five test environments and complex multi-actor behaviors. Compared with a formation planner, our sequential planner generates 14% greater view reward over the actors for three scenarios and comparable performance to formation planning on two others. We also observe near identical view rewards for sequential planning both with and without inter-robot collision constraints which indicates that robots are able to avoid collisions without impairing performance in the perception task. Overall, we demonstrate effective coordination of teams of aerial robots for filming groups that may split, merge, or spread apart and in environments cluttered with obstacles that may cause collisions or occlusions.
- Abstract(参考訳): 空飛ぶロボットのチームの配置は、チームスポーツや撮影などの分野への応用のために、複雑な環境での動的グループ(アクター)の大規模な撮影を可能にする。
この目的のために、逐次欲求計画による部分モジュラー最大化手法は、ロボットのチーム間でカメラビューのスケーラブルな最適化に使用できるが、散在する環境における効率的な調整を伴う課題に直面している。
障害物はオクルージョンを発生させ、ロボット同士の衝突の可能性を高め、ほぼ最適の保証の要求に反する可能性がある。
密集した環境下での人々の撮影グループにおける航空ロボットのチームを協調させるためには、より一般的なビュープランニングアプローチが必要である。
マルチロボット・マルチ・アクター・ビュー・プランナの開発を通じて,映像撮影における衝突・閉塞が映像撮影アプリケーションにどう影響するかを考察し,ロボット間衝突を無視するボケーション・プランナーとグリーディ・プランナーとの比較を行った。
提案手法は,5つのテスト環境と複雑なマルチアクタの挙動に基づいて評価する。
コンフォーメーションプランナーと比較して、シーケンシャルプランナーは3つのシナリオに対してアクターよりも14%大きなビュー報酬を生成し、他の2つのシナリオにおいてコンフォーメーションプランナーに匹敵するパフォーマンスを示した。
また,ロボット同士の衝突制約を伴わない連続的な計画において,ロボットが知覚タスクの性能を損なうことなく衝突を回避できることを示す,ほぼ同一の視点報酬も観測した。
全体として、衝突や閉塞を引き起こす障害物が混ざり合った環境下で、分割、融合、あるいは分散するグループを撮影するための、空中ロボットのチームの効果的な協調を実証する。
関連論文リスト
- Analysis of Unstructured High-Density Crowded Scenes for Crowd Monitoring [55.2480439325792]
我々は,人群集の組織的動きを検出する自動システムの開発に興味がある。
コンピュータビジョンアルゴリズムは、混雑したシーンのビデオから情報を抽出することができる。
組織化されたコホート内の参加者数を見積もることができます。
論文 参考訳(メタデータ) (2024-08-06T22:09:50Z) - Commonsense Reasoning for Legged Robot Adaptation with Vision-Language Models [81.55156507635286]
脚のついたロボットは、様々な環境をナビゲートし、幅広い障害を克服することができる。
現在の学習手法は、人間の監督を伴わずに、予期せぬ状況の長い尾への一般化に苦慮することが多い。
本稿では,VLM-Predictive Control (VLM-PC) というシステムを提案する。
論文 参考訳(メタデータ) (2024-07-02T21:00:30Z) - Track2Act: Predicting Point Tracks from Internet Videos enables Generalizable Robot Manipulation [65.46610405509338]
我々は、ゼロショットロボット操作を可能にする汎用的な目標条件ポリシーを学習することを目指している。
私たちのフレームワークであるTrack2Actは、ゴールに基づいて将来のタイムステップで画像内のポイントがどのように動くかを予測する。
学習したトラック予測を残留ポリシーと組み合わせることで,多種多様な汎用ロボット操作が可能となることを示す。
論文 参考訳(メタデータ) (2024-05-02T17:56:55Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - Multi-robot Social-aware Cooperative Planning in Pedestrian Environments
Using Multi-agent Reinforcement Learning [2.7716102039510564]
我々は、非政治的マルチエージェント強化学習(MARL)に基づく、新しいマルチロボット・ソーシャル・アウェア・効率的な協調プランナーを提案する。
我々は、時間空間グラフ(TSG)に基づくソーシャルエンコーダを採用し、その視野における各ロボットと歩行者の社会的関係の重要性をよりよく抽出する。
論文 参考訳(メタデータ) (2022-11-29T03:38:47Z) - COPILOT: Human-Environment Collision Prediction and Localization from
Egocentric Videos [62.34712951567793]
エゴセントリックな観測から人間と環境の衝突を予測する能力は、VR、AR、ウェアラブルアシストロボットなどのアプリケーションにおける衝突回避を可能にするために不可欠である。
本稿では、ボディマウントカメラから撮影した多視点エゴセントリックビデオから、多様な環境における衝突を予測するという課題を紹介する。
衝突予測と局所化を同時に行うために,COPILOTと呼ばれるトランスフォーマーモデルを提案する。
論文 参考訳(メタデータ) (2022-10-04T17:49:23Z) - Distributing Collaborative Multi-Robot Planning with Gaussian Belief
Propagation [13.65857209749568]
本稿では、動的制約と衝突制約を定義する汎用因子グラフに基づく、新しい純粋分散手法を実証する。
本手法は, 道路交通シミュレーションシナリオにおいて, 極めて高性能な協調計画を可能にすることを示す。
論文 参考訳(メタデータ) (2022-03-22T11:13:36Z) - Cooperative Task and Motion Planning for Multi-Arm Assembly Systems [32.56644393804845]
マルチロボット組立システムは、製造においてますます魅力的になりつつある。
それぞれのロボットがアイドルではなく同時に生産されることを保証する方法でこれらのシステムを計画することは困難である。
本稿では,ロボットのチームが複雑な空間構造を組み立てるための安全で低リスクな計画と協調的に計画するタスク・アンド・モーション・プランニング・フレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T18:12:49Z) - Multi-Robot Collaborative Perception with Graph Neural Networks [6.383576104583731]
汎用グラフニューラルネットワーク(GNN)を提案する。
提案手法は,単眼深度推定やセマンティックセグメンテーションなどの多視点視覚認識問題に対処できることを示す。
論文 参考訳(メタデータ) (2022-01-05T18:47:07Z) - Multi Camera Placement via Z-buffer Rendering for the Optimization of
the Coverage and the Visual Hull [2.642698101441705]
障害セーフシステムは、ロボットワークセルの重要な領域を安全重複で最適にカバーする必要がある。
ワークセルの3次元CADモデルにカメラを最適配置・配向するための効率的なアルゴリズムを提案します。
このシミュレーションにより、静的および動的視覚障害物の存在下で、画像の歪みや高度な画像解析に関する品質を評価することができる。
論文 参考訳(メタデータ) (2021-03-20T17:04:00Z) - Vision-Based Mobile Robotics Obstacle Avoidance With Deep Reinforcement
Learning [49.04274612323564]
障害物回避は、移動ロボットの自律ナビゲーションのための根本的かつ困難な問題です。
本稿では,ロボットが単一眼カメラにのみ依存しなければならない単純な3D環境における障害物回避の問題を検討する。
データ駆動型エンドツーエンドディープラーニングアプローチとして,障害回避問題に取り組む。
論文 参考訳(メタデータ) (2021-03-08T13:05:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。