論文の概要: On the Advantages of Multiple Stereo Vision Camera Designs for
Autonomous Drone Navigation
- arxiv url: http://arxiv.org/abs/2105.12691v1
- Date: Wed, 26 May 2021 17:10:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:16:28.032580
- Title: On the Advantages of Multiple Stereo Vision Camera Designs for
Autonomous Drone Navigation
- Title(参考訳): 自律型ドローンナビゲーションのための複数ステレオビジョンカメラ設計の利点について
- Authors: Rui Pimentel de Figueiredo, Jakob Grimm Hansen, Jonas Le Fevre, Martim
Brand\~ao, Erdal Kayacan
- Abstract要約: 我々は,最先端の計画およびマッピングアルゴリズムと組み合わせて,マルチカメラUAVの性能を示す。
我々は、自律ドローンによる検査タスクにアプローチを採用し、自律的な探索とマッピングのシナリオでそれらを評価します。
- 参考スコア(独自算出の注目度): 7.299239909796724
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work we showcase the design and assessment of the performance of a
multi-camera UAV, when coupled with state-of-the-art planning and mapping
algorithms for autonomous navigation. The system leverages state-of-the-art
receding horizon exploration techniques for Next-Best-View (NBV) planning with
3D and semantic information, provided by a reconfigurable multi stereo camera
system. We employ our approaches in an autonomous drone-based inspection task
and evaluate them in an autonomous exploration and mapping scenario. We discuss
the advantages and limitations of using multi stereo camera flying systems, and
the trade-off between number of cameras and mapping performance.
- Abstract(参考訳): 本研究では,自律ナビゲーションのための最先端計画およびマッピングアルゴリズムと組み合わせたマルチカメラUAVの性能設計と評価について紹介する。
このシステムは、再構成可能なマルチステレオカメラシステムによって提供される3Dおよび意味情報を備えたNext-Best-View (NBV)計画のための最先端の水平探査技術を活用する。
我々は、自律ドローンによる検査タスクにアプローチを採用し、自律的な探索とマッピングのシナリオでそれらを評価します。
本稿では,マルチステレオカメラ飛行システムの利点と限界,およびカメラ数とマッピング性能のトレードオフについて論じる。
関連論文リスト
- Design and Flight Demonstration of a Quadrotor for Urban Mapping and
Target Tracking Research [0.04993209378495078]
本稿では,都市マッピング,ハザード回避,目標追跡研究のための画像センサを備えた小型四角形機のハードウェア設計と飛行実証について述べる。
車両には5台のカメラが装備されており、2対の魚眼ステレオカメラが装備されており、ほぼ一方向の視界と2軸ジンバルカメラが装備されている。
Robot Operating Systemソフトウェアを実行するNVIDIA Jetson Orin Nanoコンピュータがデータ収集に使用されている。
論文 参考訳(メタデータ) (2024-02-20T18:06:00Z) - OccNeRF: Self-Supervised Multi-Camera Occupancy Prediction with Neural
Radiance Fields [80.35807140179736]
自己監督型マルチカメラ占有率予測のためのOccNeRF法を提案する。
我々は、再構成された占有領域をパラメータ化し、サンプリング戦略を再編成する。
意味的占有予測のために,事前学習した開語彙2Dセグメンテーションモデルの出力をフィルタリングし,プロンプトを洗練するためのいくつかの戦略を設計する。
論文 参考訳(メタデータ) (2023-12-14T18:58:52Z) - Tri-Perspective View for Vision-Based 3D Semantic Occupancy Prediction [84.94140661523956]
本稿では,2つの垂直面を追加してBEVに付随するトリ・パースペクティブ・ビュー(TPV)表現を提案する。
3次元空間の各点を3次元平面上の投影された特徴をまとめてモデル化する。
実験結果から,本モデルは全ボクセルのセマンティック占有率を効果的に予測できることが示唆された。
論文 参考訳(メタデータ) (2023-02-15T17:58:10Z) - People Tracking in Panoramic Video for Guiding Robots [2.092922495279074]
ガイドロボットは、おそらく未知の環境の特定の場所への移動を効果的に行うことを目的としている。
この操作の間、ロボットは、付随する人物を検出し、追跡し、彼女/彼の姿を見失おうとはしない。
360deg Field of View (FoV)は、あらゆるフレームオブジェクトがセンサーから外されたり、遠く離れていなければ、FoVを離れることができないことを保証します。
我々は、視線カメラ用に設計された標準的な人検出・追跡パイプラインであるパノラマビデオに効果的に適応できる一連の手法を提案する。
論文 参考訳(メタデータ) (2022-06-06T16:44:38Z) - BEVerse: Unified Perception and Prediction in Birds-Eye-View for
Vision-Centric Autonomous Driving [92.05963633802979]
マルチカメラシステムに基づく3次元認識と予測のための統合フレームワークであるBEVerseを提案する。
マルチタスクBEVerseは3次元オブジェクト検出,セマンティックマップ構築,動き予測において単一タスク法より優れていることを示す。
論文 参考訳(メタデータ) (2022-05-19T17:55:35Z) - Scalable and Real-time Multi-Camera Vehicle Detection,
Re-Identification, and Tracking [58.95210121654722]
理想化されたビデオストリームやキュレートされたビデオストリームの代わりに,リアルタイムで低解像度のCCTVを処理する,リアルタイムな都市規模のマルチカメラ車両追跡システムを提案する。
私たちの手法は、公共のリーダーボードで上位5人のパフォーマーにランク付けされています。
論文 参考訳(メタデータ) (2022-04-15T12:47:01Z) - SurroundDepth: Entangling Surrounding Views for Self-Supervised
Multi-Camera Depth Estimation [101.55622133406446]
本研究では,複数の周囲からの情報を組み込んだSurroundDepth法を提案し,カメラ間の深度マップの予測を行う。
具体的には、周囲のすべてのビューを処理し、複数のビューから情報を効果的に融合するクロスビュー変換器を提案する。
実験において,本手法は,挑戦的なマルチカメラ深度推定データセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2022-04-07T17:58:47Z) - MFuseNet: Robust Depth Estimation with Learned Multiscopic Fusion [47.2251122861135]
低コストの単眼RGBカメラを用いて正確な深度推定を行うマルチスコープ・ビジョン・システムの設計を行う。
制約のないカメラポーズで撮影された画像を持つマルチビューステレオとは異なり、提案システムはカメラの動きを制御して画像列をキャプチャする。
論文 参考訳(メタデータ) (2021-08-05T08:31:01Z) - Understanding Bird's-Eye View Semantic HD-Maps Using an Onboard
Monocular Camera [110.83289076967895]
本研究では,ワンオンボードカメラからの映像入力を用いて,セマンティック・バードズ・アイ・ビューHDマップのオンライン推定形式でのシーン理解について検討した。
実験では,HDマップの理解において,考慮すべき側面が相補的であることを実証した。
論文 参考訳(メタデータ) (2020-12-05T14:39:14Z) - Do You See What I See? Coordinating Multiple Aerial Cameras for Robot
Cinematography [9.870369982132678]
ショットの多様性を最大化し、衝突を回避しつつ、ダイナミックな目標を記録できるリアルタイムマルチUAVコーディネートシステムを開発した。
我々の調整方式は計算コストが低く、平均1.17ミリ秒で10秒の時間帯で3UAVのチームを計画できることが示される。
論文 参考訳(メタデータ) (2020-11-10T22:43:25Z) - Deep Multimodality Learning for UAV Video Aesthetic Quality Assessment [22.277636020333198]
UAVビデオの審美的品質評価のための深層マルチモーダリティ学習法を提案する。
この新しいマルチストリームフレームワークには,新たなモーションストリームネットワークが提案されている。
本稿では,UAVビデオグラデーション,プロのセグメント検出,審美に基づくUAVパス計画の3つの応用例を示す。
論文 参考訳(メタデータ) (2020-11-04T15:37:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。