論文の概要: PL-VINS: Real-Time Monocular Visual-Inertial SLAM with Point and Line
Features
- arxiv url: http://arxiv.org/abs/2009.07462v3
- Date: Fri, 15 Apr 2022 01:33:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:39:02.939768
- Title: PL-VINS: Real-Time Monocular Visual-Inertial SLAM with Point and Line
Features
- Title(参考訳): PL-VINS:ポイントとライン機能を備えたリアルタイム単眼のビジュアル慣性SLAM
- Authors: Qiang Fu, Jialong Wang, Hongshan Yu, Islam Ali, Feng Guo, Yijia He,
Hong Zhang
- Abstract要約: 本稿では,実時間最適化に基づく点と線の特徴を持つ単分子VINS法であるPL-VINSを提案する。
提案手法の局所化誤差は,VINS-Monoよりも12~16%小さく,更新頻度が同じであることを示す。
- 参考スコア(独自算出の注目度): 11.990163046319974
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging line features to improve localization accuracy of point-based
visual-inertial SLAM (VINS) is gaining interest as they provide additional
constraints on scene structure. However, real-time performance when
incorporating line features in VINS has not been addressed. This paper presents
PL-VINS, a real-time optimization-based monocular VINS method with point and
line features, developed based on the state-of-the-art point-based VINS-Mono
\cite{vins}. We observe that current works use the LSD \cite{lsd} algorithm to
extract line features; however, LSD is designed for scene shape representation
instead of the pose estimation problem, which becomes the bottleneck for the
real-time performance due to its high computational cost. In this paper, a
modified LSD algorithm is presented by studying a hidden parameter tuning and
length rejection strategy. The modified LSD can run at least three times as
fast as LSD. Further, by representing space lines with the Pl\"{u}cker
coordinates, the residual error in line estimation is modeled in terms of the
point-to-line distance, which is then minimized by iteratively updating the
minimum four-parameter orthonormal representation of the Pl\"{u}cker
coordinates. Experiments in a public benchmark dataset show that the
localization error of our method is 12-16\% less than that of VINS-Mono at the
same pose update frequency. %For the benefit of the community, The source code
of our method is available at: https://github.com/cnqiangfu/PL-VINS.
- Abstract(参考訳): ポイントベース視覚慣性SLAM(VINS)のローカライズ精度を向上させるためにライン機能を活用することは、シーン構造にさらなる制約を加えることで関心を集めている。
しかし、VINSにライン機能を組み込む場合のリアルタイム性能は未解決である。
本稿では,点と線の特徴を持つリアルタイム最適化に基づく単分子VINS法であるPL-VINSについて述べる。
現在の手法では,線の特徴を抽出するためにlsd \cite{lsd}アルゴリズムを用いるが,lsdはポーズ推定問題ではなくシーン形状表現のために設計されており,計算コストが高いためリアルタイム性能のボトルネックとなる。
本稿では,隠れパラメータチューニングと長さ拒否戦略について検討し,修正lsdアルゴリズムを提案する。
修正されたLSDはLSDの少なくとも3倍の速さで動作可能である。
さらに、Pl\"{u}cker 座標で空間線を表現することにより、直線推定における残差誤差を点から点までの距離でモデル化し、Pl\"{u}cker 座標の最小4パラメータ正規表現を反復的に更新することによって最小化する。
公開ベンチマークデータセットにおける実験では,同一ポーズ更新周波数におけるvins-monoのローカライズ誤差は12~16\%であった。
コミュニティの利益のために、このメソッドのソースコードはhttps://github.com/cnqiangfu/pl-vins.com/で入手できる。
関連論文リスト
- PNeRFLoc: Visual Localization with Point-based Neural Radiance Fields [54.8553158441296]
統一された点ベース表現に基づく新しい視覚的ローカライゼーションフレームワーク PNeRFLoc を提案する。
一方、PNeRFLocは2次元特徴点と3次元特徴点をマッチングして初期ポーズ推定をサポートする。
一方、レンダリングベースの最適化を用いた新しいビュー合成によるポーズ改善も実現している。
論文 参考訳(メタデータ) (2023-12-17T08:30:00Z) - RD-VIO: Robust Visual-Inertial Odometry for Mobile Augmented Reality in
Dynamic Environments [55.864869961717424]
視覚的・視覚的慣性オドメトリーシステムでは、動的シーンや純粋な回転の問題に対処することが通常困難である。
我々はこれらの問題に対処するためにRD-VIOと呼ばれる新しい視覚-慣性オドメトリーシステム(VIO)を設計する。
論文 参考訳(メタデータ) (2023-10-23T16:30:39Z) - LDL: Line Distance Functions for Panoramic Localization [22.46846444866008]
線分を用いた3次元地図にパノラマをローカライズするアルゴリズム LDL を導入する。
提案手法は,パノラマ画像と3次元地図内のラインの全体分布を効果的に観察する。
論文 参考訳(メタデータ) (2023-08-27T02:57:07Z) - IDLS: Inverse Depth Line based Visual-Inertial SLAM [9.38589798999922]
Inverse Depth Line SLAM (IDLS) を提案する。
IDLSは、複数の知覚的整合性データセットで広く評価されている。
論文 参考訳(メタデータ) (2023-04-23T20:53:05Z) - VP-SLAM: A Monocular Real-time Visual SLAM with Points, Lines and
Vanishing Points [31.55798962786664]
本稿では,ライン抽出とVP抽出をリアルタイムに行う一眼レフ画像SLAMシステムを提案する。
また,ロボットの翻訳を推定し,回転を改善するために,失点を利用した2つの戦略を提案する。
提案システムは最先端の結果をリアルタイムに実現し,その性能は従来のORB-SLAM2システムに近いままである。
論文 参考訳(メタデータ) (2022-10-23T15:54:26Z) - Learning Smooth Neural Functions via Lipschitz Regularization [92.42667575719048]
ニューラルフィールドにおけるスムーズな潜伏空間を促進するために設計された新しい正規化を導入する。
従来のリプシッツ正規化ネットワークと比較して、我々のアルゴリズムは高速で、4行のコードで実装できる。
論文 参考訳(メタデータ) (2022-02-16T21:24:54Z) - Space-Time Graph Neural Networks [104.55175325870195]
本研究では、時空間グラフニューラルネットワーク(ST-GNN)を導入し、時間変動ネットワークデータの時空間トポロジを共同処理する。
解析の結果,システムのネットワークトポロジと時間進化の変動はST-GNNの性能に大きく影響しないことがわかった。
論文 参考訳(メタデータ) (2021-10-06T16:08:44Z) - STA-VPR: Spatio-temporal Alignment for Visual Place Recognition [17.212503755962757]
画像間の距離を計測しながら空間領域から局所的な特徴を整列する適応動的時間ウォーピングアルゴリズムを提案する。
時間的アライメントに基づく画像シーケンスマッチングを行うために、局所マッチングDTWアルゴリズムを適用した。
その結果,提案手法はcnnに基づく手法を大幅に改善した。
論文 参考訳(メタデータ) (2021-03-25T03:27:42Z) - Avoiding Degeneracy for Monocular Visual SLAM with Point and Line
Features [1.5938324336156293]
本稿では,点と線に基づく視覚SLAMアルゴリズムの退化回避法を提案する。
縮退問題を回避するために,新しい構造制約を提案する。
より正確な位置決めとマッピング結果が得られることが証明されています。
論文 参考訳(メタデータ) (2021-03-02T06:41:44Z) - Graph-PCNN: Two Stage Human Pose Estimation with Graph Pose Refinement [54.29252286561449]
グラフPCNNと呼ばれる2段階のグラフベースおよびモデルに依存しないフレームワークを提案する。
第1段階では、粗局化結果を得るために熱マップ回帰ネットワークを適用し、ガイドポイントと呼ばれる一連の提案キーポイントをサンプリングする。
第2段階では、各案内点について、ローカライゼーションにより異なる視覚特徴を抽出する。
ガイドされた点間の関係は、より正確なローカライゼーション結果を得るためにグラフポーズ精製モジュールによって探索される。
論文 参考訳(メタデータ) (2020-07-21T04:59:15Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。