論文の概要: SMF-VO: Direct Ego-Motion Estimation via Sparse Motion Fields
- arxiv url: http://arxiv.org/abs/2511.09072v1
- Date: Thu, 13 Nov 2025 01:30:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.397221
- Title: SMF-VO: Direct Ego-Motion Estimation via Sparse Motion Fields
- Title(参考訳): SMF-VO:スパース運動場による直接エゴ運動推定
- Authors: Sangheon Yang, Yeongin Yoon, Hong Mo Jung, Jongwoo Lim,
- Abstract要約: 本稿では,Sparse Motion Field Visual Odometry (SMF-VO)を紹介した。
提案手法では,視線速度と視線速度を直接推定し,明示的なポーズ推定や高価なランドマーク追跡の必要性を回避している。
我々の研究は、従来の方法に代わるスケーラブルで効率的な代替手段を確立し、モバイルロボティクスやウェアラブルデバイスに非常に適している。
- 参考スコア(独自算出の注目度): 4.710825549574638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional Visual Odometry (VO) and Visual Inertial Odometry (VIO) methods rely on a 'pose-centric' paradigm, which computes absolute camera poses from the local map thus requires large-scale landmark maintenance and continuous map optimization. This approach is computationally expensive, limiting their real-time performance on resource-constrained devices. To overcome these limitations, we introduce Sparse Motion Field Visual Odometry (SMF-VO), a lightweight, 'motion-centric' framework. Our approach directly estimates instantaneous linear and angular velocity from sparse optical flow, bypassing the need for explicit pose estimation or expensive landmark tracking. We also employed a generalized 3D ray-based motion field formulation that works accurately with various camera models, including wide-field-of-view lenses. SMF-VO demonstrates superior efficiency and competitive accuracy on benchmark datasets, achieving over 100 FPS on a Raspberry Pi 5 using only a CPU. Our work establishes a scalable and efficient alternative to conventional methods, making it highly suitable for mobile robotics and wearable devices.
- Abstract(参考訳): 従来のVisual Odometry (VO) と Visual Inertial Odometry (VIO) の手法は、ローカルマップから絶対的なカメラポーズを計算し、大規模なランドマークの維持と連続したマップの最適化を必要とする。
このアプローチは計算コストが高く、リソース制約のあるデバイス上でのリアルタイムパフォーマンスを制限している。
これらの制限を克服するために、軽量な「モーション中心」フレームワークであるSparse Motion Field Visual Odometry (SMF-VO)を導入する。
提案手法では,視線速度と視線速度を直接推定し,明示的なポーズ推定や高価なランドマーク追跡の必要性を回避している。
また、広視野レンズを含む様々なカメラモデルで正確に機能する、一般化された3D線ベースの運動場定式化も導入した。
SMF-VOはベンチマークデータセットに対して優れた効率性と競合精度を示し、CPUのみを使用してRaspberry Pi 5上で100 FPS以上を達成している。
我々の研究は、従来の方法に代わるスケーラブルで効率的な代替手段を確立し、モバイルロボティクスやウェアラブルデバイスに非常に適している。
関連論文リスト
- Visual Odometry with Transformers [68.453547770334]
特徴抽出により単眼フレームのシーケンスを処理するビジュアル・オドメトリ・トランスフォーマ(VoT)を導入する。
従来の方法とは異なり、VoTは密度の高い幾何学を推定することなくカメラの動きを直接予測し、監視のためにカメラのポーズのみに依存する。
VoTは、より大きなデータセットで効果的にスケールし、より強力なトレーニング済みバックボーンの恩恵を受け、多様なカメラモーションとキャリブレーション設定を一般化し、従来のメソッドよりも3倍以上高速に動作しながらパフォーマンスを向上する。
論文 参考訳(メタデータ) (2025-10-02T17:00:14Z) - FRAME: Floor-aligned Representation for Avatar Motion from Egocentric Video [52.33896173943054]
ヘッドマウントのボディフェイスステレオカメラを備えたエゴセントリックなモーションキャプチャーは、VRやARアプリケーションには不可欠だ。
既存の方法は、合成事前学習と、現実の環境で滑らかで正確な予測を生成するのに苦労している。
本稿では、デバイスポーズとカメラフィードを組み合わせて、最先端のボディポーズ予測を行う、シンプルで効果的なアーキテクチャFRAMEを提案する。
論文 参考訳(メタデータ) (2025-03-29T14:26:06Z) - Image as an IMU: Estimating Camera Motion from a Single Motion-Blurred Image [14.485182089870928]
本研究では,動きのぼかしを動き推定のためのリッチキューとして活用する新しいフレームワークを提案する。
提案手法は, 単一動画像から直接, 濃密な運動流場と単眼深度マップを推定することにより機能する。
本手法は,高速でアグレッシブなカメラの動きを強く捉えるIMUライクな計測法である。
論文 参考訳(メタデータ) (2025-03-21T17:58:56Z) - ESVO2: Direct Visual-Inertial Odometry with Stereo Event Cameras [41.992980062962495]
イベントベースビジュアル・オドメトリーは、追跡とサブプロブレムのマッピング(典型的には並列)を解決することを目的としている
直接パイプライン上に,イベントベースのステレオビジュアル慣性オドメトリーシステムを構築した。
結果として得られるシステムは、現代の高解像度のイベントカメラでうまくスケールする。
論文 参考訳(メタデータ) (2024-10-12T05:35:27Z) - ParticleSfM: Exploiting Dense Point Trajectories for Localizing Moving
Cameras in the Wild [57.37891682117178]
本稿では,一対の光流からの高密度対応に基づく動画の高密度間接構造抽出手法を提案する。
不規則点軌道データを処理するために,新しいニューラルネットワークアーキテクチャを提案する。
MPIシンテルデータセットを用いた実験により,我々のシステムはより正確なカメラ軌道を生成することがわかった。
論文 参考訳(メタデータ) (2022-07-19T09:19:45Z) - Event-aided Direct Sparse Odometry [54.602311491827805]
本稿では,イベントとフレームを用いた直接単眼視覚計測法であるEDSを紹介する。
我々のアルゴリズムは、イベント生成モデルを利用して、フレーム間のブラインドタイムにおけるカメラの動きを追跡する。
EDSは直接アプローチでイベントとフレームを使用して6-DOF VOを実行する最初の方法である。
論文 参考訳(メタデータ) (2022-04-15T20:40:29Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - FLAVR: Flow-Agnostic Video Representations for Fast Frame Interpolation [97.99012124785177]
FLAVRは、3D空間時間の畳み込みを使用して、ビデオフレームのエンドツーエンドの学習と推論を可能にする柔軟で効率的なアーキテクチャです。
FLAVRは、アクション認識、光フロー推定、モーション拡大のための有用な自己解釈タスクとして役立つことを実証します。
論文 参考訳(メタデータ) (2020-12-15T18:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。