論文の概要: LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments
- arxiv url: http://arxiv.org/abs/2306.06663v1
- Date: Sun, 11 Jun 2023 12:26:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-13 17:26:37.337187
- Title: LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments
- Title(参考訳): LF-PGVIO:点と測地線を用いた大規模視野カメラのためのビジュアル慣性オドメトリーフレームワーク
- Authors: Ze Wang, Kailun Yang, Hao Shi, Yufan Zhang, Fei Gao, Kaiwei Wang
- Abstract要約: 本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
LF-PGVIOは、負面FoVのカメラであっても、大きなFoVのカメラに対してライン制約を提供することができる。
提案手法を公開データセット上で評価した結果,LF-PGVIO は精度とロバスト性において最先端の手法より優れていることが示された。
- 参考スコア(独自算出の注目度): 17.48363657351067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose LF-PGVIO, a Visual-Inertial-Odometry (VIO)
framework for large Field-of-View (FoV) cameras with a negative plane using
points and geodesic segments. Notoriously, when the FoV of a panoramic camera
reaches the negative half-plane, the image cannot be unfolded into a single
pinhole image. Moreover, if a traditional straight-line detection method is
directly applied to the original panoramic image, it cannot be normally used
due to the large distortions in the panoramas and remains under-explored in the
literature. To address these challenges, we put forward LF-PGVIO, which can
provide line constraints for cameras with large FoV, even for cameras with
negative-plane FoV, and directly extract omnidirectional curve segments from
the raw omnidirectional image. We propose an Omnidirectional Curve Segment
Detection (OCSD) method combined with a camera model which is applicable to
images with large distortions, such as panoramic annular images, fisheye
images, and various panoramic images. Each point on the image is projected onto
the sphere, and the detected omnidirectional curve segments in the image named
geodesic segments must satisfy the criterion of being a geodesic segment on the
unit sphere. The detected geodesic segment is sliced into multiple
straight-line segments according to the radian of the geodesic, and descriptors
are extracted separately and recombined to obtain new descriptors. Based on
descriptor matching, we obtain the constraint relationship of the 3D line
segments between multiple frames. In our VIO system, we use sliding window
optimization using point feature residuals, line feature residuals, and IMU
residuals. Our evaluation of the proposed system on public datasets
demonstrates that LF-PGVIO outperforms state-of-the-art methods in terms of
accuracy and robustness. Code will be open-sourced at
https://github.com/flysoaryun/LF-PGVIO.
- Abstract(参考訳): 本稿では,点と測地線を用いた負面を有する大型視野カメラのための視覚慣性オドメトリ(vio)フレームワークlf-pgvioを提案する。
歴史的に、パノラマカメラのFoVが負の半平面に達すると、画像は単一のピンホール画像に展開できない。
また、従来の直線検出法が本来のパノラマ画像に直接適用されている場合、パノラマの歪みが大きいため通常は使用できず、文献に未発見のままである。
このような課題に対処するため,我々は,負面fovを有するカメラにおいても大きなfovを持つカメラにライン制約を与えるlf-pgvioを展開し,全方位画像から全方位カーブセグメントを直接抽出する。
本論文では,パノラマ輪郭画像,魚眼画像,各種パノラマ画像などの歪みが大きい画像に適用可能なカメラモデルと組み合わせた全方位曲線セグメント検出(ocsd)法を提案する。
画像上の各点を球面上に投影し、検出された測地線セグメントと呼ばれる画像の全方位曲線セグメントは、単位球面上の測地線セグメントの基準を満たす必要がある。
検出されたジオデシックセグメントをジオデシックのラディアンに従って複数の直線セグメントにスライスし、デクリプタを分離して再結合して新しいデクリプタを得る。
記述子マッチングに基づいて,複数フレーム間の3次元線分間の制約関係を求める。
我々のVIOシステムでは、点特徴残差、線特徴残差、IMU残差を用いたスライディングウィンドウ最適化を用いる。
提案手法を公開データセット上で評価した結果,LF-PGVIOは精度とロバスト性において最先端の手法よりも優れていた。
コードはhttps://github.com/flysoaryun/lf-pgvioでオープンソース化される。
関連論文リスト
- View-Consistent Hierarchical 3D Segmentation Using Ultrametric Feature Fields [52.08335264414515]
我々は3次元シーンを表すニューラル・レージアンス・フィールド(NeRF)内の新しい特徴場を学習する。
本手法は、ビュー一貫性の多粒性2Dセグメンテーションを入力とし、3D一貫性のセグメンテーションの階層構造を出力として生成する。
提案手法と,多視点画像と多粒性セグメンテーションを用いた合成データセットのベースラインの評価を行い,精度と視点整合性を向上したことを示す。
論文 参考訳(メタデータ) (2024-05-30T04:14:58Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - LF-VISLAM: A SLAM Framework for Large Field-of-View Cameras with
Negative Imaging Plane on Mobile Agents [31.690784355435763]
LF-VISLAMは、極端に大型のFoVとループクロージャを備えたカメラのためのVisual Inertial SLAMフレームワークである。
負の半平面上でも特徴点を効果的に表現するために、単位長さの3次元ベクトルを導入する。
SLAMシステムの姿勢情報を利用してループ閉鎖の特徴点検出を誘導する。
論文 参考訳(メタデータ) (2022-09-12T11:51:20Z) - Cross-Camera View-Overlap Recognition [42.75360135783111]
本稿では、参照3Dマップを必要とせずに、自由に動くカメラ間で動作可能な分散ビューオーバラップ認識フレームワークを提案する。
ビューオーバーラップはビューマッチングと幾何学的検証によって認識され、間違ったマッチしたビューを破棄する。
論文 参考訳(メタデータ) (2022-08-24T16:55:52Z) - PolarFormer: Multi-camera 3D Object Detection with Polar Transformers [93.49713023975727]
自律運転における3次元物体検出は、3次元の世界に存在する「何」と「どこに」の物体を推論することを目的としている。
既存の手法はしばしば垂直軸を持つ標準カルテ座標系を採用する。
鳥眼ビュー(BEV)におけるより正確な3次元物体検出のための新しい極変換器(PolarFormer)を,マルチカメラ2D画像のみを入力として提案する。
論文 参考訳(メタデータ) (2022-06-30T16:32:48Z) - LaRa: Latents and Rays for Multi-Camera Bird's-Eye-View Semantic
Segmentation [43.12994451281451]
複数のカメラからの車両セマンティックセグメンテーションのための効率的なエンコーダデコーダである'LaRa'を提案する。
我々のアプローチは、複数のセンサーにまたがる情報を、コンパクトでリッチな潜在表現の集合に集約するクロスアテンションシステムを用いています。
論文 参考訳(メタデータ) (2022-06-27T13:37:50Z) - LF-VIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras with Negative Plane [17.667596036994908]
視野の大きさ(FoV)は視覚オドメトリー(VO)と視覚慣性オドメトリー(VIO)において重要な役割を果たしている
非常に大きなFoVを持つカメラのためのリアルタイムVIOフレームワークLF-VIOを提案する。
単位長の3次元ベクトルを利用して特徴点を表現し、この課題を克服するために一連のアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-02-25T11:03:31Z) - ULSD: Unified Line Segment Detection across Pinhole, Fisheye, and
Spherical Cameras [17.943949895764938]
ラインセグメント検出は、コンピュータビジョンとロボット工学におけるハイレベルなタスクに不可欠である。
現在、ほとんどの最新技術(SOTA)法は、歪みのないピンホール画像の直線部分の検出に特化している。
本稿では,歪み画像と歪画像の両方に対して,統一ラインセグメント検出(ULSD)を目標とする。
論文 参考訳(メタデータ) (2020-11-06T03:30:17Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。