論文の概要: MorphEyes: Variable Baseline Stereo For Quadrotor Navigation
- arxiv url: http://arxiv.org/abs/2011.03077v1
- Date: Thu, 5 Nov 2020 20:04:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-29 12:41:09.635535
- Title: MorphEyes: Variable Baseline Stereo For Quadrotor Navigation
- Title(参考訳): morpheyes:quadrotorナビゲーションのための可変ベースラインステレオ
- Authors: Nitin J. Sanket, Chahat Deep Singh, Varun Asthana, Cornelia
Ferm\"uller, Yiannis Aloimonos
- Abstract要約: 本稿では,ベースラインをオンザフライで適用可能なステレオカメラシステムに基づく,四角形ナビゲーションのためのフレームワークを提案する。
変数ベースラインシステムは,3つのシナリオすべてにおいて,より正確で堅牢であることを示す。
- 参考スコア(独自算出の注目度): 13.830987813403018
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Morphable design and depth-based visual control are two upcoming trends
leading to advancements in the field of quadrotor autonomy. Stereo-cameras have
struck the perfect balance of weight and accuracy of depth estimation but
suffer from the problem of depth range being limited and dictated by the
baseline chosen at design time. In this paper, we present a framework for
quadrotor navigation based on a stereo camera system whose baseline can be
adapted on-the-fly. We present a method to calibrate the system at a small
number of discrete baselines and interpolate the parameters for the entire
baseline range. We present an extensive theoretical analysis of calibration and
synchronization errors. We showcase three different applications of such a
system for quadrotor navigation: (a) flying through a forest, (b) flying
through an unknown shaped/location static/dynamic gap, and (c) accurate 3D pose
detection of an independently moving object. We show that our variable baseline
system is more accurate and robust in all three scenarios. To our knowledge,
this is the first work that applies the concept of morphable design to achieve
a variable baseline stereo vision system on a quadrotor.
- Abstract(参考訳): モーファブルデザインと奥行きベースのビジュアルコントロールは、クワッドローター自律の分野における進歩につながる2つの新しいトレンドである。
ステレオカメラは、重量と深度推定の精度の完全なバランスをとってきたが、設計時に選択されたベースラインによって深度範囲が制限され、決定されるという問題に苦しんでいる。
本稿では,ベースラインをオンザフライで適用可能なステレオカメラシステムに基づく,四角形ナビゲーションのためのフレームワークを提案する。
本稿では,少数の個別ベースラインでシステムを校正し,ベースライン全体のパラメータを補間する手法を提案する。
本稿では,キャリブレーションと同期誤差の広範な理論的解析を行う。
このようなシステムの3つの異なる応用例を紹介します。
(a)森の中を飛ぶこと
(b)未知の形状・位置・空隙を飛行し、
(c)独立して動く物体の正確な3次元ポーズ検出。
3つのシナリオすべてにおいて,可変ベースラインシステムはより正確かつ堅牢であることを示す。
私たちの知る限りでは、これは四角体上の可変ベースラインステレオビジョンシステムを達成するためにモーフィブルデザインの概念を適用した最初の作品である。
関連論文リスト
- GEOcc: Geometrically Enhanced 3D Occupancy Network with Implicit-Explicit Depth Fusion and Contextual Self-Supervision [49.839374549646884]
本稿では,視覚のみのサラウンドビュー知覚に適したジオメトリ強化OccupancyネットワークであるGEOccについて述べる。
提案手法は,Occ3D-nuScenesデータセット上で,画像解像度が最小で,画像バックボーンが最大である状態-Of-The-Art性能を実現する。
論文 参考訳(メタデータ) (2024-05-17T07:31:20Z) - Vision-based control for landing an aerial vehicle on a marine vessel [0.0]
本研究は,イメージベースビジュアルサーボ制御を用いた移動プラットフォーム上での航空機の着陸問題に対処する。
テクスチャ化された対象平面上の画像特徴を利用して、視覚に基づく制御法則を導出する。
提案法は、目標と移動プラットフォームの間の未知距離を推定することなく収束を保証する。
論文 参考訳(メタデータ) (2024-04-17T12:53:57Z) - CHOSEN: Contrastive Hypothesis Selection for Multi-View Depth Refinement [17.4479165692548]
CHOSENは柔軟で堅牢で効果的なマルチビュー深度改善フレームワークである。
既存のマルチビューステレオパイプラインでも使用できる。
論文 参考訳(メタデータ) (2024-04-02T18:27:03Z) - OCTraN: 3D Occupancy Convolutional Transformer Network in Unstructured
Traffic Scenarios [0.0]
我々は2次元画像特徴を3次元占有特徴に変換するために反復アテンションを用いたトランスフォーマーアーキテクチャOCTraNを提案する。
また、LiDARの地上真実の必要性を排除し、任意のシーンにモデルを一般化するための自己教師型トレーニングパイプラインも開発している。
論文 参考訳(メタデータ) (2023-07-20T15:06:44Z) - Tightly-Coupled LiDAR-Visual SLAM Based on Geometric Features for Mobile
Agents [43.137917788594926]
幾何学的特徴に基づく密結合LiDAR視覚SLAMを提案する。
視覚サブシステムによって検出された全ラインセグメントは、LiDARサブシステムの制限を克服する。
本システムは,現在最先端のマルチモーダル手法と比較して,より正確でロバストなポーズ推定を実現する。
論文 参考訳(メタデータ) (2023-07-15T10:06:43Z) - Geometric-aware Pretraining for Vision-centric 3D Object Detection [77.7979088689944]
GAPretrainと呼ばれる新しい幾何学的事前学習フレームワークを提案する。
GAPretrainは、複数の最先端検出器に柔軟に適用可能なプラグアンドプレイソリューションとして機能する。
BEVFormer法を用いて, nuScenes val の 46.2 mAP と 55.5 NDS を実現し, それぞれ 2.7 と 2.1 点を得た。
論文 参考訳(メタデータ) (2023-04-06T14:33:05Z) - Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images [96.66271207089096]
FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
論文 参考訳(メタデータ) (2022-05-27T05:42:16Z) - Visual-tactile sensing for Real-time liquid Volume Estimation in
Grasping [58.50342759993186]
変形性容器内の液体をリアルタイムに推定するためのビジュオ触覚モデルを提案する。
我々は、RGBカメラからの生の視覚入力と、特定の触覚センサーからの触覚手がかりの2つの感覚モードを融合する。
ロボットシステムは、推定モデルに基づいて、リアルタイムで適切に制御され、調整される。
論文 参考訳(メタデータ) (2022-02-23T13:38:31Z) - SGM3D: Stereo Guided Monocular 3D Object Detection [62.11858392862551]
SGM3Dと呼ばれるステレオ誘導単分子物体検出ネットワークを提案する。
ステレオ画像から抽出したロバストな3次元特徴を利用して、モノクル画像から得られた特徴を強化する。
本手法は,余分な計算コストを伴わずに性能を向上させるために,他の多くの単分子的手法に統合することができる。
論文 参考訳(メタデータ) (2021-12-03T13:57:14Z) - OmniSLAM: Omnidirectional Localization and Dense Mapping for
Wide-baseline Multi-camera Systems [88.41004332322788]
超広視野魚眼カメラ(FOV)を用いた広視野多視点ステレオ構成のための全方向位置決めと高密度マッピングシステムを提案する。
より実用的で正確な再構築のために、全方向深度推定のための改良された軽量のディープニューラルネットワークを導入する。
我々は全方位深度推定をビジュアル・オドメトリー(VO)に統合し,大域的整合性のためのループ閉鎖モジュールを付加する。
論文 参考訳(メタデータ) (2020-03-18T05:52:10Z) - Spatiotemporal Camera-LiDAR Calibration: A Targetless and Structureless
Approach [32.15405927679048]
ターゲットレスで構造のないカメラ-DARキャリブレーション法を提案する。
本手法は, 時間的パラメータの初期調整を必要としないような, 閉形式解と非構造束を結合する。
提案手法の精度とロバスト性をシミュレーションおよび実データ実験により実証する。
論文 参考訳(メタデータ) (2020-01-17T07:25:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。