論文の概要: LF-VISLAM: A SLAM Framework for Large Field-of-View Cameras with
Negative Imaging Plane on Mobile Agents
- arxiv url: http://arxiv.org/abs/2209.05167v3
- Date: Thu, 12 Oct 2023 03:09:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 04:45:19.058117
- Title: LF-VISLAM: A SLAM Framework for Large Field-of-View Cameras with
Negative Imaging Plane on Mobile Agents
- Title(参考訳): LF-VISLAM:移動体に負の撮像平面を持つ大視野カメラ用SLAMフレームワーク
- Authors: Ze Wang, Kailun Yang, Hao Shi, Peng Li, Fei Gao, Jian Bai, Kaiwei Wang
- Abstract要約: LF-VISLAMは、極端に大型のFoVとループクロージャを備えたカメラのためのVisual Inertial SLAMフレームワークである。
負の半平面上でも特徴点を効果的に表現するために、単位長さの3次元ベクトルを導入する。
SLAMシステムの姿勢情報を利用してループ閉鎖の特徴点検出を誘導する。
- 参考スコア(独自算出の注目度): 31.690784355435763
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Simultaneous Localization And Mapping (SLAM) has become a crucial aspect in
the fields of autonomous driving and robotics. One crucial component of visual
SLAM is the Field-of-View (FoV) of the camera, as a larger FoV allows for a
wider range of surrounding elements and features to be perceived. However, when
the FoV of the camera reaches the negative half-plane, traditional methods for
representing image feature points using [u,v,1]^T become ineffective. While the
panoramic FoV is advantageous for loop closure, its benefits are not easily
realized under large-attitude-angle differences where loop-closure frames
cannot be easily matched by existing methods. As loop closure on wide-FoV
panoramic data further comes with a large number of outliers, traditional
outlier rejection methods are not directly applicable. To address these issues,
we propose LF-VISLAM, a Visual Inertial SLAM framework for cameras with
extremely Large FoV with loop closure. A three-dimensional vector with unit
length is introduced to effectively represent feature points even on the
negative half-plane. The attitude information of the SLAM system is leveraged
to guide the feature point detection of the loop closure. Additionally, a new
outlier rejection method based on the unit length representation is integrated
into the loop closure module. We collect the PALVIO dataset using a Panoramic
Annular Lens (PAL) system with an entire FoV of 360{\deg}x(40{\deg}~120{\deg})
and an Inertial Measurement Unit (IMU) for Visual Inertial Odometry (VIO) to
address the lack of panoramic SLAM datasets. Experiments on the established
PALVIO and public datasets show that the proposed LF-VISLAM outperforms
state-of-the-art SLAM methods. Our code will be open-sourced at
https://github.com/flysoaryun/LF-VISLAM.
- Abstract(参考訳): 同時ローカライゼーションとマッピング(slam)は、自動運転とロボティクスの分野において重要な側面となっている。
視界SLAMの重要な要素の1つはカメラのFoV(Field-of-View)であり、より大きなFoVは周囲の様々な要素や特徴を認識することができる。
しかし、カメラのFoVが負の半平面に達すると、[u,v,1]^Tを用いて画像特徴点を表現する従来の方法は効果がなくなる。
パノラマフォブはループクロージャに有利であるが、ループクロージャーフレームが既存の方法で容易にマッチできないような大きな角度差では、その利点は実現できない。
広範囲パノラマデータのループクロージャは、さらに多くの外れ値を伴うため、従来の外れ値拒否法は直接適用されない。
これらの問題に対処するため,極端に大型のFoVでループを閉ざしたカメラのための Visual Inertial SLAM フレームワーク LF-VISLAM を提案する。
単位長さの3次元ベクトルを導入し、負の半平面上においても特徴点を効果的に表現する。
SLAMシステムの姿勢情報を利用してループ閉鎖の特徴点検出を誘導する。
さらに、ループクロージャモジュールには、単位長表現に基づく新しい外れ値拒否方法が組み込まれている。
PALVIOデータセットは、パノラマSLAMデータセットの欠如に対応するために、360{\deg}x(40{\deg}~120{\deg})の全FoVとVisual Inertial Odometry(VIO)のための慣性計測ユニット(IMU)を用いて、パノラマ環状レンズ(PAL)システムを用いて収集する。
確立されたPALVIOおよび公開データセットの実験は、提案されたLF-VISLAMが最先端SLAM法より優れていることを示している。
私たちのコードはhttps://github.com/flysoaryun/LF-VISLAM.comでオープンソース化されます。
関連論文リスト
- Open Panoramic Segmentation [34.46596562350091]
我々は,FoV制限されたピンホール画像をオープン語彙設定でトレーニングする,Open Panoramic (OPS) と呼ばれる新しいタスクを提案する。
また,DAN (Deformable Adapter Network) を用いた OOOPS モデルを提案し,パノラマセマンティックセマンティックセマンティクスの性能を大幅に向上させる。
他の最先端のオープンボキャブラリセマンティックセマンティクスアプローチを超越すると、3つのパノラマデータセットのパフォーマンスが著しく向上する。
論文 参考訳(メタデータ) (2024-07-02T22:00:32Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - MuRF: Multi-Baseline Radiance Fields [117.55811938988256]
スパースビュー合成におけるフィードフォワードアプローチであるmulti-Baseline Radiance Fields(MuRF)を提案する。
MuRFは、複数の異なるベースライン設定で最先端のパフォーマンスを達成する。
また、Mip-NeRF 360データセット上でゼロショットの一般化能力を示す。
論文 参考訳(メタデータ) (2023-12-07T18:59:56Z) - OAFuser: Towards Omni-Aperture Fusion for Light Field Semantic Segmentation [48.828453331724965]
我々は,Omni-Aperture Fusion Model (OAFuser) を提案する。
提案したOAFuserは,すべての評価指標から4つのUrbanLFデータセット上での最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-28T14:43:27Z) - LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments [29.539527817449923]
本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
本研究の目的は,大FoV全方位カメラを用いた点線オドメトリーの可能性を明らかにすることである。
論文 参考訳(メタデータ) (2023-06-11T12:26:41Z) - Center Feature Fusion: Selective Multi-Sensor Fusion of Center-based
Objects [26.59231069298659]
本稿では,自律走行車のためのロバストな3次元物体検出システムを構築するための新しい手法を提案する。
我々は、カメラとLiDARストリームのセンターベースの検出ネットワークを利用して、関連するオブジェクトの位置を識別する。
nuScenesデータセットでは、LiDARのみのベースラインを4.9%のmAPで上回り、他の融合法よりも100倍少ない特徴を融合させる。
論文 参考訳(メタデータ) (2022-09-26T17:51:18Z) - Structure PLP-SLAM: Efficient Sparse Mapping and Localization using
Point, Line and Plane for Monocular, RGB-D and Stereo Cameras [13.693353009049773]
本稿では,PPRモジュールを組み込んだ高機能カメラローカライゼーションを実現するために,ポイント・ライン・クラウドを用いた視界SLAMシステムを提案する。
再構成された線や平面上での複数の実行時最適化を提案することにより,幾何的プリミティブをスケールのあいまいさで再構築するという課題に対処する。
その結果,提案したSLAMはセマンティック機能をしっかりと組み込んで,トラッキングとバックエンドの最適化を強化していることがわかった。
論文 参考訳(メタデータ) (2022-07-13T09:05:35Z) - DeepFusion: Lidar-Camera Deep Fusion for Multi-Modal 3D Object Detection [83.18142309597984]
ライダーとカメラは、自動運転における3D検出を補完する情報を提供する重要なセンサーである。
我々はDeepFusionという名前の汎用マルチモーダル3D検出モデル群を開発した。
論文 参考訳(メタデータ) (2022-03-15T18:46:06Z) - LF-VIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras with Negative Plane [17.667596036994908]
視野の大きさ(FoV)は視覚オドメトリー(VO)と視覚慣性オドメトリー(VIO)において重要な役割を果たしている
非常に大きなFoVを持つカメラのためのリアルタイムVIOフレームワークLF-VIOを提案する。
単位長の3次元ベクトルを利用して特徴点を表現し、この課題を克服するために一連のアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-02-25T11:03:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。