論文の概要: Inertia-Informed Orientation Priors for Event-Based Optical Flow Estimation
- arxiv url: http://arxiv.org/abs/2511.12961v1
- Date: Mon, 17 Nov 2025 04:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 14:36:24.656745
- Title: Inertia-Informed Orientation Priors for Event-Based Optical Flow Estimation
- Title(参考訳): イベントベース光フロー推定のための慣性インフォームド配向優先法
- Authors: Pritam P. Karmokar, William J. Beksi,
- Abstract要約: イベントカメラはシーン内の動きを直接エンコードする。
イベントベース光学フローを推定する学習ベースおよびモデルベース手法が多数存在する。
本稿では,空間的に視覚的かつスパースな動作手段を結合した,生物学的に高密度なハイブリッドCMを提案する。
- 参考スコア(独自算出の注目度): 7.36599004748324
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Event cameras, by virtue of their working principle, directly encode motion within a scene. Many learning-based and model-based methods exist that estimate event-based optical flow, however the temporally dense yet spatially sparse nature of events poses significant challenges. To address these issues, contrast maximization (CM) is a prominent model-based optimization methodology that estimates the motion trajectories of events within an event volume by optimally warping them. Since its introduction, the CM framework has undergone a series of refinements by the computer vision community. Nonetheless, it remains a highly non-convex optimization problem. In this paper, we introduce a novel biologically-inspired hybrid CM method for event-based optical flow estimation that couples visual and inertial motion cues. Concretely, we propose the use of orientation maps, derived from camera 3D velocities, as priors to guide the CM process. The orientation maps provide directional guidance and constrain the space of estimated motion trajectories. We show that this orientation-guided formulation leads to improved robustness and convergence in event-based optical flow estimation. The evaluation of our approach on the MVSEC, DSEC, and ECD datasets yields superior accuracy scores over the state of the art.
- Abstract(参考訳): イベントカメラは、その動作原理により、シーン内の動きを直接エンコードする。
事象に基づく光学フローを推定する学習ベースおよびモデルベース手法は数多く存在するが、時間的に密度が高く、空間的に疎らな事象の性質は重大な課題である。
これらの問題に対処するため、コントラスト最大化(CM)は、イベントボリューム内の事象の運動軌跡を最適にワープすることによって推定する顕著なモデルベース最適化手法である。
CMフレームワークの導入以来、CMフレームワークはコンピュータビジョンコミュニティによって一連の改良がなされてきた。
それでも、これは非常に非凸最適化の問題である。
本稿では,視覚と慣性運動を結合したイベントベース光フロー推定のための,生物学的に着想を得たハイブリッドCM手法を提案する。
具体的には,カメラの3次元速度から導出した配向マップを,CMプロセスの導出に先立って用いることを提案する。
向きの地図は方向指示を与え、推定された運動軌跡の空間を制約する。
この配向誘導型定式化により、イベントベース光流推定におけるロバスト性や収束性が向上することを示す。
MVSEC, DSEC, ECDデータセットに対する我々のアプローチの評価は, 最先端の精度よりも優れている。
関連論文リスト
- E-MoFlow: Learning Egomotion and Optical Flow from Event Data via Implicit Regularization [38.46024197872764]
オプティカルフローと6-DoFエゴモーションの推定は、通常独立して対処されてきた。
ニューロモルフィック・ビジョンでは、ロバストなデータアソシエーションが欠如しているため、この2つの問題を別々に解決することは不十分な課題である。
本研究では,暗黙の空間的時間的・幾何学的正則化を通じて,運動と光の流れを協調的に最適化する,教師なしのフレームワークを提案する。
論文 参考訳(メタデータ) (2025-10-14T17:33:44Z) - Motion Segmentation and Egomotion Estimation from Event-Based Normal Flow [8.869407907066005]
本稿では,イベントベース正規流を用いた動きのセグメンテーションとエゴモーション推定のための頑健なフレームワークを提案する。
提案手法は, 希薄かつ高時間分解能なイベントデータを利用して, 通常の流れ, シーン構造, 慣性測定の幾何学的制約を取り入れたものである。
論文 参考訳(メタデータ) (2025-07-19T06:11:09Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Secrets of Edge-Informed Contrast Maximization for Event-Based Vision [6.735928398631445]
イベントカメラは、高速非同期イベントの形で画像平面内の強度勾配(エッジ)の動きをキャプチャする。
コントラストヒストグラム(CM)は、この効果を逆転させ、鋭い空間構造を生成できる最適化フレームワークである。
CMをユニモーダル(イベントのみ)からバイモーダル(イベントとエッジ)に拡張する新しいハイブリッドアプローチを提案する。
論文 参考訳(メタデータ) (2024-09-22T22:22:26Z) - Motion-prior Contrast Maximization for Dense Continuous-Time Motion Estimation [34.529280562470746]
コントラスト最大化フレームワークと非直線運動を組み合わせた新たな自己監督的損失を画素レベルの軌跡の形で導入する。
連続時間運動の高密度推定では, 合成学習モデルのゼロショット性能を29%向上する。
論文 参考訳(メタデータ) (2024-07-15T15:18:28Z) - Globally Optimal Event-Based Divergence Estimation for Ventral Landing [55.29096494880328]
イベントセンシングはバイオインスパイアされた飛行誘導と制御システムの主要なコンポーネントである。
本研究では, イベントカメラを用いた腹側着陸時の表面との接触時間予測について検討する。
これは、着陸時に発生する事象の流れから放射光の流れの速度である発散(逆TTC)を推定することで達成される。
我々のコアコントリビューションは、イベントベースの発散推定のための新しいコントラスト最大化定式化と、コントラストを正確に最大化し、最適な発散値を求めるブランチ・アンド・バウンドアルゴリズムである。
論文 参考訳(メタデータ) (2022-09-27T06:00:52Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - PCA Event-Based Otical Flow for Visual Odometry [0.0]
本稿では,イベントベース光流量推定問題に対する主成分分析手法を提案する。
提案手法の最良の変種は,ビジュアルオドメトリーのリアルタイムコンテキストを対象とし,最先端実装と比較して約2倍高速であることを示す。
論文 参考訳(メタデータ) (2021-05-08T18:30:44Z) - Optical Flow Estimation from a Single Motion-blurred Image [66.2061278123057]
画像内の動きのぼかしは、基本的なコンピュータビジョンの問題に実用的な関心を持つ可能性があります。
本研究では,単一動画像からの光流れをエンドツーエンドで推定する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2021-03-04T12:45:18Z) - Joint Unsupervised Learning of Optical Flow and Egomotion with Bi-Level
Optimization [59.9673626329892]
エピポーラ幾何を用いた光学フローとカメラモーションのグローバルな関係を利用する。
我々は暗黙の微分を用いて、その実装とは無関係に低レベルの幾何最適化層を通してバックプロパゲーションを可能にする。
論文 参考訳(メタデータ) (2020-02-26T22:28:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。