論文の概要: DynaMiTe: A Dynamic Local Motion Model with Temporal Constraints for
Robust Real-Time Feature Matching
- arxiv url: http://arxiv.org/abs/2007.16005v1
- Date: Fri, 31 Jul 2020 12:18:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-04 06:37:56.593751
- Title: DynaMiTe: A Dynamic Local Motion Model with Temporal Constraints for
Robust Real-Time Feature Matching
- Title(参考訳): DynaMiTe:ロバストリアルタイム特徴マッチングのための時間制約付き動的局所運動モデル
- Authors: Patrick Ruhkamp and Ruiqi Gong and Nassir Navab and Benjamin Busam
- Abstract要約: 本稿では,ディスクリプタ入力に非依存な軽量パイプラインDynaMiTeを提案する。
DynaMiTeは、マッチング精度とフレームレートの高いカメラポーズ推定の両方で優れた結果を得る。
- 参考スコア(独自算出の注目度): 47.72468932196169
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Feature based visual odometry and SLAM methods require accurate and fast
correspondence matching between consecutive image frames for precise camera
pose estimation in real-time. Current feature matching pipelines either rely
solely on the descriptive capabilities of the feature extractor or need
computationally complex optimization schemes. We present the lightweight
pipeline DynaMiTe, which is agnostic to the descriptor input and leverages
spatial-temporal cues with efficient statistical measures. The theoretical
backbone of the method lies within a probabilistic formulation of feature
matching and the respective study of physically motivated constraints. A
dynamically adaptable local motion model encapsulates groups of features in an
efficient data structure. Temporal constraints transfer information of the
local motion model across time, thus additionally reducing the search space
complexity for matching. DynaMiTe achieves superior results both in terms of
matching accuracy and camera pose estimation with high frame rates,
outperforming state-of-the-art matching methods while being computationally
more efficient.
- Abstract(参考訳): 特徴量に基づくビジュアルオドメトリーとSLAM法では,リアルタイムに正確なカメラポーズ推定を行うために,連続した画像フレーム間の正確な対応が求められている。
現在の特徴マッチングパイプラインは、特徴抽出器の記述能力にのみ依存するか、計算的に複雑な最適化スキームを必要とする。
本稿では,ディスクリプタ入力に非依存な軽量パイプラインDynaMiTeを提案する。
この手法の理論的バックボーンは、特徴マッチングの確率的定式化と、物理的動機づけのある制約の研究にある。
動的適応可能な局所運動モデルは、効率的なデータ構造に特徴群をカプセル化する。
時間的制約は局所運動モデルの情報を時間的に伝達するので、マッチングの検索空間の複雑さも軽減する。
dynamiteは、高いフレームレートでマッチング精度とカメラポーズ推定の両面で優れた結果を達成し、計算効率は高く、最先端のマッチング手法よりも優れている。
関連論文リスト
- Cross Space and Time: A Spatio-Temporal Unitized Model for Traffic Flow Forecasting [16.782154479264126]
時間的要因間の複雑な相互作用により、バックボーン・時間的トラフィックフローを予測することが課題となる。
既存のアプローチでは、これらの次元を分離し、重要な相互依存を無視している。
本稿では,空間的および時間的依存関係の両方をキャプチャする統合フレームワークであるSanonymous-Temporal Unitized Unitized Cell (ASTUC)を紹介する。
論文 参考訳(メタデータ) (2024-11-14T07:34:31Z) - Event-Aided Time-to-Collision Estimation for Autonomous Driving [28.13397992839372]
ニューロモルフィックなイベントベースカメラを用いて衝突時刻を推定する新しい手法を提案する。
提案アルゴリズムは, 事象データに適合する幾何モデルに対して, 効率的かつ高精度な2段階のアプローチで構成する。
合成データと実データの両方の実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2024-07-10T02:37:36Z) - Representation Alignment Contrastive Regularization for Multi-Object Tracking [29.837560662395713]
多目的追跡アルゴリズムのメインストリーム性能は、データアソシエーション段階における重時間関係のモデリングに依存する。
この研究は、深層学習に基づく時間的関係モデルを単純化し、データアソシエーション設計に解釈可能性を導入することを目的としている。
論文 参考訳(メタデータ) (2024-04-03T08:33:08Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Revisiting the Spatial and Temporal Modeling for Few-shot Action
Recognition [16.287968292213563]
スロシュネット(SloshNet)は、数発のアクション認識のための空間的および時間的モデリングを、より細かく修正する新しいフレームワークである。
提案するSloshNetは,Something V2, Kinetics, UCF101, HMDB51の4つのアクション認識データセットに対して広範に検証する。
論文 参考訳(メタデータ) (2023-01-19T08:34:04Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Good Feature Matching: Towards Accurate, Robust VO/VSLAM with Low
Latency [23.443265839365054]
最先端VO/VSLAMシステムの解析は、性能(正確性と堅牢性)と効率(レイテンシ)のバランスのギャップを露呈する
本稿では,特徴量に基づくVSLAMの適用により,性能と効率のギャップを埋めることを目的としている。
論文 参考訳(メタデータ) (2020-01-03T03:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。