論文の概要: DynPL-SVO: A New Method Using Point and Line Features for Stereo Visual
Odometry in Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2205.08207v1
- Date: Tue, 17 May 2022 10:08:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 14:20:20.183165
- Title: DynPL-SVO: A New Method Using Point and Line Features for Stereo Visual
Odometry in Dynamic Scenes
- Title(参考訳): dynpl-svo : 動的シーンにおけるステレオ視覚オドメトリーのための点線特徴を用いた新しい手法
- Authors: Xiaoguang Ma, Ya Wang, Baosheng Zhang, Hong-Jun Ma and Chunbo Luo
- Abstract要約: DynPL-SVOは、$dynamic$$grid$アルゴリズムとコスト関数を備えたステレオビジュアルオドメトリーである。
特に低テクスチャとダイナミックなシーンでは、より堅牢で正確な動き推定が可能である。
- 参考スコア(独自算出の注目度): 11.675817623269129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Stereo visual odometry is widely used where a robot tracks its position and
orientation using stereo cameras. Most of the approaches recovered mobile
robotics motion based on the matching and tracking of point features along a
sequence of stereo images. But in low-textured and dynamic scenes, there are no
sufficient robust static point features for motion estimation, causing lots of
previous work to fail to reconstruct the robotic motion. However, line features
can be detected in such low-textured and dynamic scenes. In this paper, we
proposed DynPL-SVO, a stereo visual odometry with the $dynamic$ $grid$
algorithm and the cost function containing both vertical and horizontal
information of the line features. Stereo camera motion was obtained through
Levenberg-Marquard minimization of re-projection error of point and line
features. The experimental results on the KITTI and EuRoC MAV datasets showed
that the DynPL-SVO had a competitive performance when compared to other
state-of-the-art systems by producing more robust and accurate motion
estimation, especially in low-textured and dynamic scenes.
- Abstract(参考訳): ステレオカメラを用いてロボットの位置と方向を追跡するステレオ視覚計測が広く用いられている。
アプローチのほとんどは、ステレオ画像のシーケンスに沿ってポイント特徴のマッチングと追跡に基づいて、移動ロボットの動きを復元した。
しかし、低テクスチャとダイナミックなシーンでは、運動推定に十分な頑健な静的な特徴がなく、以前の多くの作業でロボットの動きを再構築できなかった。
しかし、このような低テクスチャとダイナミックなシーンで線の特徴を検出することができる。
本稿では,DynPL-SVOを提案する。DynPL-SVOは$dynamic$$grid$アルゴリズムと,ライン特徴の垂直情報と水平情報の両方を含むコスト関数である。
点と線の特徴の再投影誤差の最小化によりステレオカメラの動作が得られた。
KITTIとEuRoC MAVデータセットの実験結果から、DynPL-SVOは他の最先端システムと比較して、特に低テクスチャおよびダイナミックなシーンにおいて、より堅牢で正確な動き推定を生成することで、競争力のある性能を示した。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - DytanVO: Joint Refinement of Visual Odometry and Motion Segmentation in
Dynamic Environments [6.5121327691369615]
動的環境を扱う最初の教師付き学習ベースVO法であるDytanVOを提案する。
実世界の動的環境における最先端VOソリューションよりも平均27.7%向上した。
論文 参考訳(メタデータ) (2022-09-17T23:56:03Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。