論文の概要: Kinematics of motion tracking using computer vision
- arxiv url: http://arxiv.org/abs/2008.00813v1
- Date: Sun, 19 Jul 2020 18:02:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-09 00:42:50.907500
- Title: Kinematics of motion tracking using computer vision
- Title(参考訳): コンピュータビジョンを用いた運動追跡の運動学
- Authors: Jos\'e L. Escalona
- Abstract要約: 本稿では,コンピュータビジョンで使用される手法と命名法を,マルチボディ・システム・ダイナミクスで使用されるものに適応させる。
ここで示される方程式は、例えば、選択された物体の運動追跡によって駆動される逆力学多体シミュレーションに利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper describes the kinematics of the motion tracking of a rigid body
using video recording. The novelty of the paper is on the adaptation of the
methods and nomenclature used in Computer Vision to those used in Multibody
System Dynamics. That way, the equations presented here can be used, for
example, for inverse-dynamics multibody simulations driven by the motion
tracking of selected bodies. This paper also adapts the well-known Zhang
calibration method to the presented nomenclature.
- Abstract(参考訳): 本稿では,ビデオ記録を用いた剛体運動追跡の運動特性について述べる。
この論文の目新しさは、コンピュータビジョンで使用される手法と命名法を、マルチボディシステムダイナミクスで使われるものに適用することにある。
このようにして、ここで示される方程式は、例えば、選択された体の運動追跡によって駆動される逆力学多体シミュレーションに利用できる。
本論文では,Zhangキャリブレーション法を提案命名法に適用する。
関連論文リスト
- Sync4D: Video Guided Controllable Dynamics for Physics-Based 4D Generation [47.203483017875726]
そこで我々は, カジュアルにキャプチャした参照ビデオを用いて, 3次元ガウシアンにおける制御可能なダイナミックスを作成する新しい手法を提案する。
提案手法は,参照ビデオから様々なカテゴリで生成された様々な3Dガウスにオブジェクトの動きを転送する。
本手法は, 形状整合性と時間的整合性の両方を維持しながら, 特異かつ高品質な運動伝達を提供する。
論文 参考訳(メタデータ) (2024-05-27T05:49:12Z) - Customizing Motion in Text-to-Video Diffusion Models [79.4121510826141]
動作をカスタマイズしたテキスト・ビデオ・ジェネレーション・モデルを構築するためのアプローチを提案する。
入力として特定の動きを示すビデオサンプルを活用することで,入力動作パターンを多種多様なテキスト特定シナリオに対して学習し,一般化する。
論文 参考訳(メタデータ) (2023-12-07T18:59:03Z) - S.T.A.R.-Track: Latent Motion Models for End-to-End 3D Object Tracking with Adaptive Spatio-Temporal Appearance Representations [10.46571824050325]
トラッキング・バイ・アテンションのパラダイムに従って,3次元トラッキングのためのオブジェクト中心のトランスフォーマーベースのフレームワークを提案する。
そこで我々はS.T.A.R.-Trackを提案する。これは新しい潜伏運動モデル(LMM)を用いてオブジェクトクエリを調整し、潜伏空間における視方向や照明条件の変化を考慮に入れている。
論文 参考訳(メタデータ) (2023-06-30T12:22:41Z) - MotionTrack: Learning Motion Predictor for Multiple Object Tracking [68.68339102749358]
本研究では,学習可能なモーション予測器を中心に,新しいモーショントラッカーであるMotionTrackを紹介する。
実験結果から、MotionTrackはDancetrackやSportsMOTといったデータセット上での最先端のパフォーマンスを示す。
論文 参考訳(メタデータ) (2023-06-05T04:24:11Z) - NeMF: Neural Motion Fields for Kinematic Animation [6.570955948572252]
巨大な運動空間を時間とともに連続関数として表現するため、Neural Motion Fields (NeMF) と呼ぶ。
我々はニューラルネットワークを用いて、この関数をさまざまな動きの集合として学習する。
私たちは、その汎用性を証明するために、多様な人間の動きデータセットと四重組データセットでモデルをトレーニングします。
論文 参考訳(メタデータ) (2022-06-04T05:53:27Z) - MoCaNet: Motion Retargeting in-the-wild via Canonicalization Networks [77.56526918859345]
そこで本研究では,制御された環境から3次元動作タスクを実現する新しいフレームワークを提案する。
モーションキャプチャシステムや3D再構成手順を使わずに、2Dモノクロ映像のキャラクタから3Dキャラクタへの体動を可能にする。
論文 参考訳(メタデータ) (2021-12-19T07:52:05Z) - Event-based Motion Segmentation with Spatio-Temporal Graph Cuts [51.17064599766138]
イベントベースカメラで取得したオブジェクトを独立に識別する手法を開発した。
この方法は、予想される移動物体の数を事前に決定することなく、技術状態よりも同等以上の性能を発揮する。
論文 参考訳(メタデータ) (2020-12-16T04:06:02Z) - Developing Motion Code Embedding for Action Recognition in Videos [5.400294730456784]
動きのベクトル化表現である動き符号(motion codes)と呼ばれる動き埋め込み戦略を提案する。
我々は、視覚的特徴と意味的特徴を組み合わせたディープニューラルネットワークモデルを開発し、運動分類学で見られる特徴を特定し、動画をモーションコードに埋め込みました。
機械学習タスクの機能としての動作符号の可能性を示すために,抽出した特徴を現在の動作認識モデルに統合した。
論文 参考訳(メタデータ) (2020-12-10T03:49:23Z) - A Motion Taxonomy for Manipulation Embedding [8.651301326454496]
本稿では,運動分類学を用いた動作埋め込みについて検討する。
モーションコードは、接触型や軌道のような機械的特性を捉えている。
動作符号は操作の現実と密に一致した距離を保っていることを示す。
論文 参考訳(メタデータ) (2020-07-13T21:14:26Z) - AutoTrajectory: Label-free Trajectory Extraction and Prediction from
Videos using Dynamic Points [92.91569287889203]
軌道抽出と予測のための新しいラベルなしアルゴリズムAutoTrajectoryを提案する。
動画中の移動物体をよりよく捉えるために,ダイナミックポイントを導入する。
ビデオ内の歩行者などの移動物体を表すインスタンスポイントに動的ポイントを集約する。
論文 参考訳(メタデータ) (2020-07-11T08:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。