論文の概要: Vision-based Discovery of Nonlinear Dynamics for 3D Moving Target
- arxiv url: http://arxiv.org/abs/2404.17865v1
- Date: Sat, 27 Apr 2024 11:13:55 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 18:51:42.873814
- Title: Vision-based Discovery of Nonlinear Dynamics for 3D Moving Target
- Title(参考訳): 3次元移動目標のための視覚に基づく非線形ダイナミクスの発見
- Authors: Zitong Zhang, Yang Liu, Hao Sun,
- Abstract要約: 本稿では,カメラセットが記録した生のビデオを通して,3次元移動目標に対する非線形力学の制御方程式を自動的に発見するための視覚的アプローチを提案する。
このフレームワークは、例えばビデオ内のノイズ、データ不足の原因となるターゲットの不正確な追跡など、測定データに関連する課題を効果的に処理することができる。
- 参考スコア(独自算出の注目度): 11.102585080028945
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Data-driven discovery of governing equations has kindled significant interests in many science and engineering areas. Existing studies primarily focus on uncovering equations that govern nonlinear dynamics based on direct measurement of the system states (e.g., trajectories). Limited efforts have been placed on distilling governing laws of dynamics directly from videos for moving targets in a 3D space. To this end, we propose a vision-based approach to automatically uncover governing equations of nonlinear dynamics for 3D moving targets via raw videos recorded by a set of cameras. The approach is composed of three key blocks: (1) a target tracking module that extracts plane pixel motions of the moving target in each video, (2) a Rodrigues' rotation formula-based coordinate transformation learning module that reconstructs the 3D coordinates with respect to a predefined reference point, and (3) a spline-enhanced library-based sparse regressor that uncovers the underlying governing law of dynamics. This framework is capable of effectively handling the challenges associated with measurement data, e.g., noise in the video, imprecise tracking of the target that causes data missing, etc. The efficacy of our method has been demonstrated through multiple sets of synthetic videos considering different nonlinear dynamics.
- Abstract(参考訳): データ駆動による支配方程式の発見は多くの科学や工学分野において大きな関心を集めてきた。
現存する研究は主に、系の状態(例えば軌道)の直接測定に基づいて非線形力学を支配下に置く方程式を明らかにすることに焦点を当てている。
3D空間でターゲットを動かすためのビデオから直接、ダイナミックスの規制法則を蒸留するための限定的な努力がなされている。
そこで本研究では,カメラによって記録された生のビデオを通して,3次元移動目標に対する非線形力学の制御方程式を自動的に発見するビジョンベース手法を提案する。
本手法は,(1)動画中の移動対象の平面画素運動を抽出する目標追従モジュール,(2)予め定義された基準点に対して3次元座標を再構成するロドリゲス回転公式に基づく座標変換学習モジュール,(3)ダイナミックスの基本法則を明らかにするスプライン強化ライブラリベースのスパース回帰器の3つのキーブロックから構成される。
このフレームワークは、計測データ、例えばビデオのノイズ、データの欠落の原因となるターゲットの不正確な追跡などに関連する課題を効果的に処理することができる。
本手法の有効性は, 異なる非線形ダイナミクスを考慮した合成ビデオの複数セットを用いて実証されている。
関連論文リスト
- Dynamic Scene Understanding through Object-Centric Voxelization and Neural Rendering [57.895846642868904]
オブジェクト中心学習が可能な動的シーンのための3次元生成モデルDynaVol-Sを提案する。
ボキセル化は、個々の空間的位置において、物体ごとの占有確率を推定する。
提案手法は2次元セマンティックな特徴を統合して3次元セマンティック・グリッドを作成し,複数の不整合ボクセル・グリッドを通してシーンを表現する。
論文 参考訳(メタデータ) (2024-07-30T15:33:58Z) - DO3D: Self-supervised Learning of Decomposed Object-aware 3D Motion and
Depth from Monocular Videos [76.01906393673897]
本研究では,モノクラービデオから3次元運動と深度を協調的に学習する自己教師手法を提案する。
本システムでは,深度を推定する深度推定モジュールと,エゴモーションと3次元物体の動きを推定する新しい分解対象3次元運動推定モジュールを備える。
我々のモデルは評価されたすべての設定において優れたパフォーマンスを提供する。
論文 参考訳(メタデータ) (2024-03-09T12:22:46Z) - AutoDecoding Latent 3D Diffusion Models [95.7279510847827]
本稿では,3次元オートデコーダをコアとした静的・明瞭な3次元アセットの生成に対して,新しいアプローチを提案する。
3D Autodecoderフレームワークは、ターゲットデータセットから学んだプロパティを潜時空間に埋め込む。
次に、適切な中間体積潜在空間を特定し、ロバストな正規化と非正規化演算を導入する。
論文 参考訳(メタデータ) (2023-07-07T17:59:14Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - Uncovering Closed-form Governing Equations of Nonlinear Dynamics from
Videos [8.546520029145853]
本稿では,動画中の移動物体の力学を規定する方程式の数学的構造を明らかにするために,新しいエンドツーエンドの非教師なしディープラーニングフレームワークを提案する。
このようなアーキテクチャは,(1)移動物体の低次元空間/画素座標を学習するエンコーダ・デコーダネットワーク,(2)抽出された空間/画素座標と動的の潜在物理状態とのマッピングを生成する学習可能な空間-物理変換コンポーネント,(3)学習された物理状態の擬似閉形式支配方程式を明らかにする数値積分器ベースのスパース回帰モジュールからなる。
論文 参考訳(メタデータ) (2021-06-09T02:50:11Z) - Monocular Quasi-Dense 3D Object Tracking [99.51683944057191]
周囲の物体の将来の位置を予測し、自律運転などの多くのアプリケーションで観測者の行動を計画するためには、信頼性と正確な3D追跡フレームワークが不可欠である。
移動プラットフォーム上で撮影された2次元画像のシーケンスから,移動物体を時間とともに効果的に関連付け,その全3次元バウンディングボックス情報を推定するフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-12T15:30:02Z) - Exploring Deep 3D Spatial Encodings for Large-Scale 3D Scene
Understanding [19.134536179555102]
生の3次元点雲の空間的特徴を非方向性グラフモデルに符号化することで,CNNに基づくアプローチの限界を克服する代替手法を提案する。
提案手法は、訓練時間とモデル安定性を改善して、最先端の精度で達成し、さらなる研究の可能性を示す。
論文 参考訳(メタデータ) (2020-11-29T12:56:19Z) - Kinematic 3D Object Detection in Monocular Video [123.7119180923524]
運動運動を注意深く利用して3次元位置決めの精度を向上させるモノクロ映像を用いた3次元物体検出法を提案する。
我々は、KITTI自動運転データセット内のモノクロ3次元物体検出とバードアイビュータスクの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-07-19T01:15:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。