論文の概要: EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation
- arxiv url: http://arxiv.org/abs/2503.11371v1
- Date: Fri, 14 Mar 2025 13:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-17 13:07:06.615069
- Title: EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation
- Title(参考訳): EMoTive:3次元運動推定のためのイベント誘導軌道モデリング
- Authors: Zengyu Wan, Wei Zhai, Yang Cao, Zhengjun Zha,
- Abstract要約: イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
- 参考スコア(独自算出の注目度): 59.33052312107478
- License:
- Abstract: Visual 3D motion estimation aims to infer the motion of 2D pixels in 3D space based on visual cues. The key challenge arises from depth variation induced spatio-temporal motion inconsistencies, disrupting the assumptions of local spatial or temporal motion smoothness in previous motion estimation frameworks. In contrast, event cameras offer new possibilities for 3D motion estimation through continuous adaptive pixel-level responses to scene changes. This paper presents EMoTive, a novel event-based framework that models spatio-temporal trajectories via event-guided non-uniform parametric curves, effectively characterizing locally heterogeneous spatio-temporal motion. Specifically, we first introduce Event Kymograph - an event projection method that leverages a continuous temporal projection kernel and decouples spatial observations to encode fine-grained temporal evolution explicitly. For motion representation, we introduce a density-aware adaptation mechanism to fuse spatial and temporal features under event guidance, coupled with a non-uniform rational curve parameterization framework to adaptively model heterogeneous trajectories. The final 3D motion estimation is achieved through multi-temporal sampling of parametric trajectories, yielding optical flow and depth motion fields. To facilitate evaluation, we introduce CarlaEvent3D, a multi-dynamic synthetic dataset for comprehensive validation. Extensive experiments on both this dataset and a real-world benchmark demonstrate the effectiveness of the proposed method.
- Abstract(参考訳): 視覚的3次元運動推定は、視覚的手がかりに基づいて3次元空間における2次元ピクセルの運動を推定することを目的としている。
重要な課題は、深度変化によって引き起こされた時空間運動の不整合から生じ、従来の動き推定フレームワークにおける局所的な空間的あるいは時間的動きの滑らかさの仮定を妨害する。
対照的に、イベントカメラはシーン変化に対する連続的適応画素レベル応答による3次元運動推定の新しい可能性を提供する。
本稿では,事象誘導型非一様パラメトリック曲線を用いて時空間軌道をモデル化し,局所的不均一な時空間運動を効果的に特徴付けるイベントベースフレームワークであるEMoTiveを提案する。
具体的には、連続時間プロジェクションカーネルを活用するイベントプロジェクション手法であるEvent Kymographを導入し、空間観測を分離して、きめ細かい時間進化を明示的に符号化する。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入し,不均一な軌跡を適応的にモデル化する不均一な有理曲線パラメータ化フレームワークを併用する。
最終的な3次元運動推定は、パラメトリック軌道の多時間サンプリングによって達成され、光学的流れと深度運動場が得られる。
評価を容易にするために,包括的検証のためのマルチダイナミック合成データセットであるCarlaEvent3Dを紹介する。
このデータセットと実世界のベンチマークの両方において、提案手法の有効性を実証した。
関連論文リスト
- Event-Based Tracking Any Point with Motion-Augmented Temporal Consistency [58.719310295870024]
本稿では,任意の点を追跡するイベントベースのフレームワークを提案する。
出来事の空間的空間性や動きの感度によって引き起こされる課題に対処する。
競合モデルパラメータによる処理を150%高速化する。
論文 参考訳(メタデータ) (2024-12-02T09:13:29Z) - Future Does Matter: Boosting 3D Object Detection with Temporal Motion Estimation in Point Cloud Sequences [25.74000325019015]
クロスフレーム動作予測情報を用いた時空間特徴学習を容易にするために,新しいLiDAR 3Dオブジェクト検出フレームワークLiSTMを導入する。
我々は,本フレームワークが優れた3次元検出性能を実現することを示すため,アグリゲーションとnuScenesデータセットの実験を行った。
論文 参考訳(メタデータ) (2024-09-06T16:29:04Z) - Degrees of Freedom Matter: Inferring Dynamics from Point Trajectories [28.701879490459675]
ニューラルネットワークによってパラメータ化された暗黙の運動場を学習し、同一領域内の新規点の動きを予測することを目的とする。
我々は、SIRENが提供する固有正則化を活用し、入力層を変更して時間的に滑らかな運動場を生成する。
実験では, 未知点軌道の予測におけるモデルの性能評価と, 変形を伴う時間メッシュアライメントへの応用について検討した。
論文 参考訳(メタデータ) (2024-06-05T21:02:10Z) - Event-based Structure-from-Orbit [23.97673114572094]
ロボット工学や視覚に基づくナビゲーションの応用には、静的カメラの前で円形または回転する物体の3次元認識が必要である。
静的なイベントカメラから観測された高速回転物体の3次元構造を再構成するイベントベース構造(eSf)を提案する。
論文 参考訳(メタデータ) (2024-05-10T03:02:03Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Detecting Moving Objects Using a Novel Optical-Flow-Based
Range-Independent Invariant [0.0]
本稿では,時間的瞬間や3次元の点の範囲,カメラの速度によらず,一貫した2次元不変画像を出力する光フロー変換を提案する。
新しい領域では、予め定義されたルックアップ画像の値から逸脱した3D点の投影を、静止した3D環境に対する移動として明確に識別することができる。
論文 参考訳(メタデータ) (2023-10-14T17:42:19Z) - Asynchronous Optimisation for Event-based Visual Odometry [53.59879499700895]
イベントカメラは、低レイテンシと高ダイナミックレンジのために、ロボット知覚の新しい可能性を開く。
イベントベースビジュアル・オドメトリー(VO)に焦点をあてる
動作最適化のバックエンドとして非同期構造を提案する。
論文 参考訳(メタデータ) (2022-03-02T11:28:47Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Motion Deblurring with Real Events [50.441934496692376]
本稿では,イベントベースの動作を自己教師型で記述するエンド・ツー・エンドの学習フレームワークを提案する。
実世界のイベントは、データ不整合によるパフォーマンス劣化を軽減するために利用される。
論文 参考訳(メタデータ) (2021-09-28T13:11:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。