論文の概要: LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments
- arxiv url: http://arxiv.org/abs/2306.06663v2
- Date: Tue, 12 Mar 2024 02:52:35 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 02:17:31.757795
- Title: LF-PGVIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras using Points and Geodesic Segments
- Title(参考訳): LF-PGVIO:点と測地線を用いた大規模視野カメラのためのビジュアル慣性オドメトリーフレームワーク
- Authors: Ze Wang, Kailun Yang, Hao Shi, Yufan Zhang, Zhijie Xu, Fei Gao, Kaiwei
Wang
- Abstract要約: 本研究では,大規模視野カメラ(FoV)のための視覚慣性オドメトリー(VIO)フレームワークを提案する。
本研究の目的は,大FoV全方位カメラを用いた点線オドメトリーの可能性を明らかにすることである。
- 参考スコア(独自算出の注目度): 29.539527817449923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose LF-PGVIO, a Visual-Inertial-Odometry (VIO)
framework for large Field-of-View (FoV) cameras with a negative plane using
points and geodesic segments. The purpose of our research is to unleash the
potential of point-line odometry with large-FoV omnidirectional cameras, even
for cameras with negative-plane FoV. To achieve this, we propose an
Omnidirectional Curve Segment Detection (OCSD) method combined with a camera
model which is applicable to images with large distortions, such as panoramic
annular images, fisheye images, and various panoramic images. The geodesic
segment is sliced into multiple straight-line segments based on the radian and
descriptors are extracted and recombined. Descriptor matching establishes the
constraint relationship between 3D line segments in multiple frames. In our VIO
system, line feature residual is also extended to support large-FoV cameras.
Extensive evaluations on public datasets demonstrate the superior accuracy and
robustness of LF-PGVIO compared to state-of-the-art methods. The source code
will be made publicly available at https://github.com/flysoaryun/LF-PGVIO.
- Abstract(参考訳): 本稿では,点と測地線を用いた負面を有する大型視野カメラのための視覚慣性オドメトリ(vio)フレームワークlf-pgvioを提案する。
我々の研究の目的は、負平面フォブカメラでさえも、大焦点全方位カメラで点線オドメトリの可能性を解き放つことである。
そこで本研究では,パノラマ環状画像,魚眼画像,各種パノラマ画像など,大きな歪みのある画像に適用可能なカメラモデルと組み合わせたOmnidirectional Curve Segment Detection (OCSD)法を提案する。
ジオデシックセグメントをラジアンに基づいて複数の直線セグメントに分割し、デクリプタを抽出して再結合する。
ディスクリプタマッチングは、複数のフレーム内の3dラインセグメント間の制約関係を確立する。
vioシステムでは、大型カメラをサポートするためにライン機能残差も拡張しています。
公開データセットの大規模評価は、最先端手法と比較してLF-PGVIOの精度と堅牢性に優れていた。
ソースコードはhttps://github.com/flysoaryun/lf-pgvioで公開されている。
関連論文リスト
- View-Consistent Hierarchical 3D Segmentation Using Ultrametric Feature Fields [52.08335264414515]
我々は3次元シーンを表すニューラル・レージアンス・フィールド(NeRF)内の新しい特徴場を学習する。
本手法は、ビュー一貫性の多粒性2Dセグメンテーションを入力とし、3D一貫性のセグメンテーションの階層構造を出力として生成する。
提案手法と,多視点画像と多粒性セグメンテーションを用いた合成データセットのベースラインの評価を行い,精度と視点整合性を向上したことを示す。
論文 参考訳(メタデータ) (2024-05-30T04:14:58Z) - FoVA-Depth: Field-of-View Agnostic Depth Estimation for Cross-Dataset
Generalization [57.98448472585241]
本研究では,広く利用可能なピンホールデータに基づいてステレオ深度推定モデルを訓練する手法を提案する。
屋内および屋外の両方のデータセットに対するアプローチの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2024-01-24T20:07:59Z) - PointOcc: Cylindrical Tri-Perspective View for Point-based 3D Semantic
Occupancy Prediction [72.75478398447396]
本稿では,点雲を効果的かつ包括的に表現する円筒型三重対視図を提案する。
また,LiDAR点雲の距離分布を考慮し,円筒座標系における三点ビューを構築した。
プロジェクション中に構造の詳細を維持するために空間群プーリングを使用し、各TPV平面を効率的に処理するために2次元バックボーンを採用する。
論文 参考訳(メタデータ) (2023-08-31T17:57:17Z) - LF-VISLAM: A SLAM Framework for Large Field-of-View Cameras with
Negative Imaging Plane on Mobile Agents [31.690784355435763]
LF-VISLAMは、極端に大型のFoVとループクロージャを備えたカメラのためのVisual Inertial SLAMフレームワークである。
負の半平面上でも特徴点を効果的に表現するために、単位長さの3次元ベクトルを導入する。
SLAMシステムの姿勢情報を利用してループ閉鎖の特徴点検出を誘導する。
論文 参考訳(メタデータ) (2022-09-12T11:51:20Z) - Cross-Camera View-Overlap Recognition [42.75360135783111]
本稿では、参照3Dマップを必要とせずに、自由に動くカメラ間で動作可能な分散ビューオーバラップ認識フレームワークを提案する。
ビューオーバーラップはビューマッチングと幾何学的検証によって認識され、間違ったマッチしたビューを破棄する。
論文 参考訳(メタデータ) (2022-08-24T16:55:52Z) - PolarFormer: Multi-camera 3D Object Detection with Polar Transformers [93.49713023975727]
自律運転における3次元物体検出は、3次元の世界に存在する「何」と「どこに」の物体を推論することを目的としている。
既存の手法はしばしば垂直軸を持つ標準カルテ座標系を採用する。
鳥眼ビュー(BEV)におけるより正確な3次元物体検出のための新しい極変換器(PolarFormer)を,マルチカメラ2D画像のみを入力として提案する。
論文 参考訳(メタデータ) (2022-06-30T16:32:48Z) - LaRa: Latents and Rays for Multi-Camera Bird's-Eye-View Semantic
Segmentation [43.12994451281451]
複数のカメラからの車両セマンティックセグメンテーションのための効率的なエンコーダデコーダである'LaRa'を提案する。
我々のアプローチは、複数のセンサーにまたがる情報を、コンパクトでリッチな潜在表現の集合に集約するクロスアテンションシステムを用いています。
論文 参考訳(メタデータ) (2022-06-27T13:37:50Z) - LF-VIO: A Visual-Inertial-Odometry Framework for Large Field-of-View
Cameras with Negative Plane [17.667596036994908]
視野の大きさ(FoV)は視覚オドメトリー(VO)と視覚慣性オドメトリー(VIO)において重要な役割を果たしている
非常に大きなFoVを持つカメラのためのリアルタイムVIOフレームワークLF-VIOを提案する。
単位長の3次元ベクトルを利用して特徴点を表現し、この課題を克服するために一連のアルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-02-25T11:03:31Z) - ULSD: Unified Line Segment Detection across Pinhole, Fisheye, and
Spherical Cameras [17.943949895764938]
ラインセグメント検出は、コンピュータビジョンとロボット工学におけるハイレベルなタスクに不可欠である。
現在、ほとんどの最新技術(SOTA)法は、歪みのないピンホール画像の直線部分の検出に特化している。
本稿では,歪み画像と歪画像の両方に対して,統一ラインセグメント検出(ULSD)を目標とする。
論文 参考訳(メタデータ) (2020-11-06T03:30:17Z) - Neural Ray Surfaces for Self-Supervised Learning of Depth and Ego-motion [51.19260542887099]
カメラモデルの事前知識を必要とせずに、自己超越を用いて正確な深度とエゴモーション推定を学習できることが示される。
Grossberg と Nayar の幾何学モデルにインスパイアされた我々は、ピクセルワイド射影線を表す畳み込みネットワークである Neural Ray Surfaces (NRS) を導入する。
本研究では,多種多様なカメラシステムを用いて得られた生ビデオから,視覚計測の自己教師付き学習と深度推定にNRSを用いることを実証する。
論文 参考訳(メタデータ) (2020-08-15T02:29:13Z) - Lightweight Multi-View 3D Pose Estimation through Camera-Disentangled
Representation [57.11299763566534]
空間校正カメラで撮影した多視点画像から3次元ポーズを復元する手法を提案する。
我々は3次元形状を利用して、入力画像をカメラ視点から切り離したポーズの潜在表現に融合する。
アーキテクチャは、カメラプロジェクション演算子に学習した表現を条件付け、ビュー当たりの正確な2次元検出を生成する。
論文 参考訳(メタデータ) (2020-04-05T12:52:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。