論文の概要: Continuous-Time SO(3) Forecasting with Savitzky--Golay Neural Controlled Differential Equations
- arxiv url: http://arxiv.org/abs/2506.06780v1
- Date: Sat, 07 Jun 2025 12:41:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.476985
- Title: Continuous-Time SO(3) Forecasting with Savitzky--Golay Neural Controlled Differential Equations
- Title(参考訳): Savitzky-Golay Neural Controled Differential Equations を用いた連続時間SO(3)予測
- Authors: Lennart Bastian, Mohammad Rashed, Nassir Navab, Tolga Birdal,
- Abstract要約: この研究は、$SO(3)$で連続時間回転オブジェクトの力学をモデル化することを提案する。
単純化された動作仮定に依存する既存の手法とは異なり、本手法は下層の物体軌道の一般的な潜在力学系を学習する。
実世界のデータに対する実験結果から、既存の手法と比較して魅力的な予測能力が示された。
- 参考スコア(独自算出の注目度): 51.510040541600176
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Tracking and forecasting the rotation of objects is fundamental in computer vision and robotics, yet SO(3) extrapolation remains challenging as (1) sensor observations can be noisy and sparse, (2) motion patterns can be governed by complex dynamics, and (3) application settings can demand long-term forecasting. This work proposes modeling continuous-time rotational object dynamics on $SO(3)$ using Neural Controlled Differential Equations guided by Savitzky-Golay paths. Unlike existing methods that rely on simplified motion assumptions, our method learns a general latent dynamical system of the underlying object trajectory while respecting the geometric structure of rotations. Experimental results on real-world data demonstrate compelling forecasting capabilities compared to existing approaches.
- Abstract(参考訳): 物体の回転の追跡と予測はコンピュータビジョンやロボティクスにおいて基本的だが,(1) センサ観測はノイズやスパース,(2) 動作パターンは複雑なダイナミクスによって制御され,(3) アプリケーション設定は長期的な予測を必要とするため,外挿は依然として困難である。
本研究では、サヴィツキー・ゴレイ経路で導かれるニューラル制御微分方程式を用いて、SO(3)$の連続時間回転オブジェクトのモデリングを提案する。
簡易な運動仮定に依存する既存の手法とは異なり,本手法は回転の幾何学的構造を尊重しながら,基礎となる物体軌道の一般的な潜在力学系を学習する。
実世界のデータに対する実験結果から、既存の手法と比較して魅力的な予測能力が示された。
関連論文リスト
- EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Tracking control of latent dynamic systems with application to spacecraft attitude control [0.0]
インテリジェントな宇宙船や宇宙ロボットが複雑な環境でタスクを行う場合、制御可能な変数は直接利用できない。
これらの観測の力学は非常に複雑であるが、それらの背後にあるメカニズムは単純かもしれない。
潜在力学系の制御には、強化学習に基づく手法は、サンプルの非効率性や一般化の問題に悩まされる。
論文 参考訳(メタデータ) (2024-12-09T09:49:15Z) - 3D Multi-Object Tracking with Semi-Supervised GRU-Kalman Filter [6.13623925528906]
3D Multi-Object Tracking (MOT)は、自律運転やロボットセンシングのようなインテリジェントなシステムに不可欠である。
本稿では,学習可能なカルマンフィルタを移動モジュールに導入するGRUベースのMOT法を提案する。
このアプローチは、データ駆動学習を通じてオブジェクトの動き特性を学習することができ、手動モデル設計やモデルエラーを回避することができる。
論文 参考訳(メタデータ) (2024-11-13T08:34:07Z) - Automated Discovery of Operable Dynamics from Videos [4.690264156292023]
本稿では,システムダイナミクスの低次元かつ操作可能な表現を自動的に検出するフレームワークを提案する。
結果は、自動科学的発見を前進させるデータ駆動アプローチの可能性を強調します。
論文 参考訳(メタデータ) (2024-10-14T03:37:02Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Learning Continuous System Dynamics from Irregularly-Sampled Partial
Observations [33.63818978256567]
グラフ構造を持つ多エージェント動的システムをモデル化するための潜在常微分方程式生成モデルLG-ODEを提案する。
高次元軌跡の埋め込みと連続潜伏系力学を同時に学習することができる。
我々のモデルは、教師なしの方法で初期状態を推論できるグラフニューラルネットワークによってパラメータ化された新しいエンコーダを採用している。
論文 参考訳(メタデータ) (2020-11-08T01:02:22Z) - Stochastically forced ensemble dynamic mode decomposition for
forecasting and analysis of near-periodic systems [65.44033635330604]
本稿では,観測力学を強制線形系としてモデル化した新しい負荷予測手法を提案する。
固有線型力学の利用は、解釈可能性やパーシモニーの観点から、多くの望ましい性質を提供することを示す。
電力グリッドからの負荷データを用いたテストケースの結果が提示される。
論文 参考訳(メタデータ) (2020-10-08T20:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。