論文の概要: Attitude-Guided Loop Closure for Cameras with Negative Plane
- arxiv url: http://arxiv.org/abs/2209.05167v1
- Date: Mon, 12 Sep 2022 11:51:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-13 13:55:55.135577
- Title: Attitude-Guided Loop Closure for Cameras with Negative Plane
- Title(参考訳): 負面カメラの姿勢誘導ループクロージャ
- Authors: Ze Wang, Kailun Yang, Peng Li, Fei Gao, Kaiwei Wang
- Abstract要約: FoV(Large Field-of-View)カメラはSLAMの分野で広く注目を集めている。
パノラマレンズの負面に位置する情報的手がかりを組み込む大FoV VIOにおいて、画像特徴を単位長の3次元ベクトルで表現する。
単位長表現に基づく新しい外乱除去手法を用いたループ閉鎖フレームワークを提案する。
- 参考スコア(独自算出の注目度): 20.12276497982041
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Loop closure is an important component of Simultaneous Localization and
Mapping (SLAM) systems. Large Field-of-View (FoV) cameras have received
extensive attention in the SLAM field as they can exploit more surrounding
features on the panoramic image. In large-FoV VIO, for incorporating the
informative cues located on the negative plane of the panoramic lens, image
features are represented by a three-dimensional vector with a unit length.
While the panoramic FoV is seemingly advantageous for loop closure, the
benefits cannot easily be materialized under large-attitude-angle differences,
where loop-closure frames can hardly be matched by existing methods. In this
work, to fully unleash the potential of ultra-wide FoV, we propose to leverage
the attitude information of a VIO system to guide the feature point detection
of the loop closure. As loop closure on wide-FoV panoramic data further comes
with a large number of outliers, traditional outlier rejection methods are not
directly applicable. To tackle this issue, we propose a loop closure framework
with a new outlier rejection method based on the unit length representation, to
improve the accuracy of LF-VIO. On the public PALVIO dataset, a comprehensive
set of experiments is carried out and the proposed LF-VIO-Loop outperforms
state-of-the-art visual-inertial-odometry methods. Our code will be
open-sourced at https://github.com/flysoaryun/LF-VIO-Loop.
- Abstract(参考訳): ループクロージャは、同時局在マッピング(SLAM)システムの重要なコンポーネントである。
大規模視野カメラ(FoV)は、パノラマ画像上のより周囲の機能を活用できるため、SLAMフィールドで広く注目を集めている。
パノラマレンズの負面に位置する情報的手がかりを組み込む大FoV VIOにおいて、画像特徴を単位長の3次元ベクトルで表現する。
パノラマFoVはループ閉鎖に有利であるように見えるが、ループ閉鎖フレームが既存の方法とほとんど一致しない大角度角度差では、その利点は容易に実現できない。
本研究では,超広帯域FoVの可能性を完全に解き放つために,VIOシステムの姿勢情報を活用し,ループ閉包の特徴点検出を導くことを提案する。
広範囲パノラマデータのループクロージャは、さらに多くの外れ値を伴うため、従来の外れ値拒否法は直接適用されない。
この問題に対処するために, LF-VIO の精度を向上させるために, 単位長表現に基づく新しい外乱除去手法を用いたループクロージャフレームワークを提案する。
パブリックなPALVIOデータセットでは、包括的な実験が実施され、提案したLF-VIO-Loopは最先端のビジュアル慣性オードメトリー法より優れている。
私たちのコードはhttps://github.com/flysoaryun/LF-VIO-Loop.comでオープンソース化されます。
関連論文リスト
- Open Panoramic Segmentation [34.46596562350091]
我々は,FoV制限されたピンホール画像をオープン語彙設定でトレーニングする,Open Panoramic (OPS) と呼ばれる新しいタスクを提案する。
また,DAN (Deformable Adapter Network) を用いた OOOPS モデルを提案し,パノラマセマンティックセマンティックセマンティクスの性能を大幅に向上させる。
他の最先端のオープンボキャブラリセマンティックセマンティクスアプローチを超越すると、3つのパノラマデータセットのパフォーマンスが著しく向上する。
論文 参考訳(メタデータ) (2024-07-02T22:00:32Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - MuRF: Multi-Baseline Radiance Fields [117.55811938988256]
スパースビュー合成におけるフィードフォワードアプローチであるmulti-Baseline Radiance Fields(MuRF)を提案する。
MuRFは、複数の異なるベースライン設定で最先端のパフォーマンスを達成する。
また、Mip-NeRF 360データセット上でゼロショットの一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:56Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments [29.539527817449923]
本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
本研究の目的は,大FoV全方位カメラを用いた点線オドメトリーの可能性を明らかにすることである。
論文 参考訳(メタデータ) (2023-06-11T12:26:41Z) - Center Feature Fusion: Selective Multi-Sensor Fusion of Center-based
Objects [26.59231069298659]
本稿では,自律走行車のためのロバストな3次元物体検出システムを構築するための新しい手法を提案する。
我々は、カメラとLiDARストリームのセンターベースの検出ネットワークを利用して、関連するオブジェクトの位置を識別する。
nuScenesデータセットでは、LiDARのみのベースラインを4.9%のmAPで上回り、他の融合法よりも100倍少ない特徴を融合させる。
論文 参考訳(メタデータ) (2022-09-26T17:51:18Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - LF-VIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras with Negative Plane [17.667596036994908]
視野の大きさ(FoV)は視覚オドメトリー(VO)と視覚慣性オドメトリー(VIO)において重要な役割を果たしている
非常に大きなFoVを持つカメラのためのリアルタイムVIOフレームワークLF-VIOを提案する。
単位長の3次元ベクトルを利用して特徴点を表現し、この課題を克服するために一連のアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-02-25T11:03:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。