論文の概要: E-MoFlow: Learning Egomotion and Optical Flow from Event Data via Implicit Regularization
- arxiv url: http://arxiv.org/abs/2510.12753v1
- Date: Tue, 14 Oct 2025 17:33:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.42126
- Title: E-MoFlow: Learning Egomotion and Optical Flow from Event Data via Implicit Regularization
- Title(参考訳): E-MoFlow:不必要規則化によるイベントデータからのエゴモーションと光フローの学習
- Authors: Wenpu Li, Bangyan Liao, Yi Zhou, Qi Xu, Pian Wan, Peidong Liu,
- Abstract要約: オプティカルフローと6-DoFエゴモーションの推定は、通常独立して対処されてきた。
ニューロモルフィック・ビジョンでは、ロバストなデータアソシエーションが欠如しているため、この2つの問題を別々に解決することは不十分な課題である。
本研究では,暗黙の空間的時間的・幾何学的正則化を通じて,運動と光の流れを協調的に最適化する,教師なしのフレームワークを提案する。
- 参考スコア(独自算出の注目度): 38.46024197872764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The estimation of optical flow and 6-DoF ego-motion, two fundamental tasks in 3D vision, has typically been addressed independently. For neuromorphic vision (e.g., event cameras), however, the lack of robust data association makes solving the two problems separately an ill-posed challenge, especially in the absence of supervision via ground truth. Existing works mitigate this ill-posedness by either enforcing the smoothness of the flow field via an explicit variational regularizer or leveraging explicit structure-and-motion priors in the parametrization to improve event alignment. The former notably introduces bias in results and computational overhead, while the latter, which parametrizes the optical flow in terms of the scene depth and the camera motion, often converges to suboptimal local minima. To address these issues, we propose an unsupervised framework that jointly optimizes egomotion and optical flow via implicit spatial-temporal and geometric regularization. First, by modeling camera's egomotion as a continuous spline and optical flow as an implicit neural representation, our method inherently embeds spatial-temporal coherence through inductive biases. Second, we incorporate structure-and-motion priors through differential geometric constraints, bypassing explicit depth estimation while maintaining rigorous geometric consistency. As a result, our framework (called E-MoFlow) unifies egomotion and optical flow estimation via implicit regularization under a fully unsupervised paradigm. Experiments demonstrate its versatility to general 6-DoF motion scenarios, achieving state-of-the-art performance among unsupervised methods and competitive even with supervised approaches.
- Abstract(参考訳): 3次元視覚における2つの基本的なタスクである光学フローと6-DoFエゴモーションの推定は、通常独立して対処されてきた。
しかし、ニューロモルフィック・ビジョン(例えばイベント・カメラ)では、堅牢なデータ・アソシエーションが欠如しているため、2つの問題は別々に解決される。
既存の作業は、明示的な変分正規化器を介して流れ場の滑らかさを強制するか、あるいはパラメトリゼーションにおける明示的な構造と動きの先行を活用してイベントアライメントを改善することによって、この不正を緩和する。
前者は結果のバイアスと計算オーバーヘッドを顕著に導入し、後者はシーンの深さとカメラの動きで光の流れをパラメータ化し、しばしば最適な局所最小値に収束する。
これらの課題に対処するために,暗黙の空間的時間的・幾何学的正則化を通じて,運動と光の流れを協調的に最適化する教師なしフレームワークを提案する。
まず、カメラの運動を連続スプラインとして、光学的流れを暗黙の神経表現としてモデル化することにより、本手法は本質的に帰納バイアスを通じて空間的時間的コヒーレンスを埋め込む。
第二に、厳密な幾何学的整合性を維持しつつ、明示的な深さ推定を回避し、微分幾何学的制約によって構造と動きの先行を組み込む。
その結果、我々のフレームワーク(E-MoFlow)は、完全に教師なしのパラダイムの下で暗黙の正規化によるエゴモーションと光フロー推定を統一する。
実験は、一般的な6-DoF運動シナリオに対する汎用性を示し、教師なし手法の最先端性能を実現し、教師なし手法でさえ競合することを示した。
関連論文リスト
- Motion-Aware Generative Frame Interpolation [23.380470636851022]
フローベースのフレーム法は、推定中間フローを通しての運動安定性を保証するが、複雑な動き領域で深刻なアーティファクトを導入することが多い。
大規模な事前学習ビデオ生成モデルによって強化された最近の生成的アプローチは、複雑なシーンの処理において有望であることを示している。
本研究では、中間フロー誘導と生成能力を相乗化して忠実度を高める動き認識生成フレーム(MoG)を提案する。
論文 参考訳(メタデータ) (2025-01-07T11:03:43Z) - Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Motion-Aware Video Frame Interpolation [49.49668436390514]
我々は、連続するフレームから中間光の流れを直接推定する動き対応ビデオフレーム補間(MA-VFI)ネットワークを導入する。
受容場が異なる入力フレームからグローバルな意味関係と空間的詳細を抽出するだけでなく、必要な計算コストと複雑さを効果的に削減する。
論文 参考訳(メタデータ) (2024-02-05T11:00:14Z) - EMR-MSF: Self-Supervised Recurrent Monocular Scene Flow Exploiting
Ego-Motion Rigidity [13.02735046166494]
自己監督型単分子シーンフロー推定は、単純で経済的なセンサーの設置に注目が集まっている。
本稿では,教師あり学習の範囲内でのネットワークアーキテクチャ設計の利点を活かして,EMR-MSFという優れたモデルを提案する。
KITTIのシーンフローベンチマークでは,最先端の自己監督単分子法のSF-all測定値が44%向上した。
論文 参考訳(メタデータ) (2023-09-04T00:30:06Z) - Unsupervised Learning Optical Flow in Multi-frame Dynamic Environment
Using Temporal Dynamic Modeling [7.111443975103329]
本稿では,動的シーンの複数フレーム列からの光フロー推定について検討する。
隣接フレームの動作先を用いて、閉鎖領域のより信頼性の高い監視を行う。
KITTI 2012、KITTI 2015、Sintel Clean、Sintel Finalデータセットの実験は、我々の手法の有効性を実証している。
論文 参考訳(メタデータ) (2023-04-14T14:32:02Z) - Motion-inductive Self-supervised Object Discovery in Videos [99.35664705038728]
本稿では,連続的なRGBフレームの処理モデルを提案し,層状表現を用いて任意のフレーム間の光の流れを推定する。
3つの公開ビデオセグメンテーションデータセットにおいて,従来の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-10-01T08:38:28Z) - Self-Supervised Learning of Non-Rigid Residual Flow and Ego-Motion [63.18340058854517]
動的3次元シーンに対する非剛性残留流とエゴ運動流の連成推定によるエンドツーエンドのシーンフロー学習法を提案する。
我々は、点クラウドシーケンスの時間的一貫性性に基づいて、自己監督的な信号で教師付きフレームワークを拡張した。
論文 参考訳(メタデータ) (2020-09-22T11:39:19Z) - What Matters in Unsupervised Optical Flow [51.45112526506455]
教師なし光流における鍵成分の集合を比較し解析する。
教師なしフローモデルに対する新しい改良点を多数構築する。
本稿では,従来の最先端技術よりもはるかに優れた非教師なしフロー技術を提案する。
論文 参考訳(メタデータ) (2020-06-08T19:36:26Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。