論文の概要: DynPL-SVO: A Robust Stereo Visual Odometry for Dynamic Scenes
- arxiv url: http://arxiv.org/abs/2205.08207v3
- Date: Sat, 24 Jun 2023 08:47:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 01:15:21.785555
- Title: DynPL-SVO: A Robust Stereo Visual Odometry for Dynamic Scenes
- Title(参考訳): DynPL-SVO:動的シーンのためのロバストステレオビジュアルオドメトリー
- Authors: Baosheng Zhang, Xiaoguang Ma, Hongjun Ma and Chunbo Luo
- Abstract要約: 特徴量に基づくステレオ・ビジュアル・オドメトリーのアプローチは、ステレオ画像の列に沿った点特徴のマッチングと追跡によって移動ロボットの動きを推定する。
本稿では,一致点特徴と直線特徴の向きに垂直な再投影誤差の情報を統合した,完全な動的SVO手法であるDynPL-SVOを提案する。
- 参考スコア(独自算出の注目度): 10.257520572384067
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Most feature-based stereo visual odometry (SVO) approaches estimate the
motion of mobile robots by matching and tracking point features along a
sequence of stereo images. However, in dynamic scenes mainly comprising moving
pedestrians, vehicles, etc., there are insufficient robust static point
features to enable accurate motion estimation, causing failures when
reconstructing robotic motion. In this paper, we proposed DynPL-SVO, a complete
dynamic SVO method that integrated united cost functions containing information
between matched point features and re-projection errors perpendicular and
parallel to the direction of the line features. Additionally, we introduced a
\textit{dynamic} \textit{grid} algorithm to enhance its performance in dynamic
scenes. The stereo camera motion was estimated through Levenberg-Marquard
minimization of the re-projection errors of both point and line features.
Comprehensive experimental results on KITTI and EuRoC MAV datasets showed that
accuracy of the DynPL-SVO was improved by over 20\% on average compared to
other state-of-the-art SVO systems, especially in dynamic scenes.
- Abstract(参考訳): ほとんどの機能ベースステレオオドメトリ(svo)アプローチは、ステレオ画像のシーケンスに沿ってポイント特徴のマッチングと追跡によって移動ロボットの動作を推定する。
しかし、移動歩行者や車両等を主体とするダイナミックシーンでは、正確な動き推定を可能にするための頑健な静的点特徴が不十分であり、ロボットの動きを再構築する際に障害が発生する。
本稿では,一致点特徴と直線特徴の向きに垂直かつ平行な再投影誤差の情報を含む統合コスト関数を統合する,完全な動的SVO手法であるDynPL-SVOを提案する。
さらに,動的シーンにおける性能を向上させるために,<textit{dynamic} \textit{grid} アルゴリズムを導入した。
ステレオカメラの動きは、点と線の特徴の再投影誤差の最小化により推定された。
kittiとeuroc mavデータセットの包括的な実験の結果、dynpl-svoの精度は、他の最先端svoシステム、特に動的シーンと比較して平均で20\%向上した。
関連論文リスト
- DATAP-SfM: Dynamic-Aware Tracking Any Point for Robust Structure from Motion in the Wild [85.03973683867797]
本稿では,スムーズなカメラ軌跡を推定し,野生のカジュアルビデオのための高密度点雲を得るための,簡潔でエレガントでロバストなパイプラインを提案する。
提案手法は,複雑な動的課題シーンにおいても,カメラポーズ推定による最先端性能を実現する。
論文 参考訳(メタデータ) (2024-11-20T13:01:16Z) - TK-Planes: Tiered K-Planes with High Dimensional Feature Vectors for Dynamic UAV-based Scenes [58.180556221044235]
本研究では,無人航空機(UAV)の認識における合成データと実世界データとの領域ギャップを埋める新しい手法を提案する。
私たちの定式化は、小さな動く物体や人間の行動からなる動的なシーンのために設計されています。
我々は,Okutama ActionやUG2など,挑戦的なデータセットの性能を評価する。
論文 参考訳(メタデータ) (2024-05-04T21:55:33Z) - LEAP-VO: Long-term Effective Any Point Tracking for Visual Odometry [52.131996528655094]
本稿では,LEAP(Long-term Effective Any Point Tracking)モジュールについて述べる。
LEAPは、動的トラック推定のために、視覚的、トラック間、時間的キューと慎重に選択されたアンカーを革新的に組み合わせている。
これらの特徴に基づき,強靭な視力計測システムLEAP-VOを開発した。
論文 参考訳(メタデータ) (2024-01-03T18:57:27Z) - DynaMoN: Motion-Aware Fast and Robust Camera Localization for Dynamic Neural Radiance Fields [71.94156412354054]
動的ニューラルラジアンス場(DynaMoN)の高速かつロバストなカメラ位置推定法を提案する。
DynaMoNは、初期のカメラポーズ推定と高速で正確なノベルビュー合成のための静的集光線サンプリングのために動的コンテンツを処理している。
我々は,TUM RGB-DデータセットとBONN RGB-D Dynamicデータセットの2つの実世界の動的データセットに対するアプローチを広く評価した。
論文 参考訳(メタデータ) (2023-09-16T08:46:59Z) - Alignment-free HDR Deghosting with Semantics Consistent Transformer [76.91669741684173]
高ダイナミックレンジイメージングは、複数の低ダイナミックレンジ入力から情報を取得し、リアルな出力を生成することを目的としている。
既存の手法では、前景やカメラの動きによって引き起こされる入力フレーム間の空間的ずれに焦点を当てることが多い。
本研究では,SCTNet(Semantics Consistent Transformer)を用いたアライメントフリーネットワークを提案する。
論文 参考訳(メタデータ) (2023-05-29T15:03:23Z) - Dyna-DepthFormer: Multi-frame Transformer for Self-Supervised Depth
Estimation in Dynamic Scenes [19.810725397641406]
シーン深度と3次元運動場を協調的に予測する新しいDyna-Depthformerフレームワークを提案する。
まず,多視点の相関を一連の自己・横断的層を通じて活用し,深度特徴表現の強化を図る。
第2に,動的物体の運動場をセマンティック・プレセプションを使わずに推定するワーピングに基づく運動ネットワークを提案する。
論文 参考訳(メタデータ) (2023-01-14T09:43:23Z) - DytanVO: Joint Refinement of Visual Odometry and Motion Segmentation in
Dynamic Environments [6.5121327691369615]
動的環境を扱う最初の教師付き学習ベースVO法であるDytanVOを提案する。
実世界の動的環境における最先端VOソリューションよりも平均27.7%向上した。
論文 参考訳(メタデータ) (2022-09-17T23:56:03Z) - DOT: Dynamic Object Tracking for Visual SLAM [83.69544718120167]
DOTはインスタンスセグメンテーションとマルチビュー幾何を組み合わせて、動的オブジェクトのマスクを生成する。
実際にどのオブジェクトが動いているかを判断するために、DOTは、潜在的にダイナミックなオブジェクトの最初のインスタンスを抽出し、次に推定されたカメラモーションで、測光再投射誤差を最小限にして、そのようなオブジェクトを追跡する。
提案手法はORB-SLAM 2の精度とロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2020-09-30T18:36:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。