論文の概要: A New Spatio-Temporal Loss Function for 3D Motion Reconstruction and
Extended Temporal Metrics for Motion Evaluation
- arxiv url: http://arxiv.org/abs/2210.08562v1
- Date: Sun, 16 Oct 2022 15:23:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 19:18:08.818666
- Title: A New Spatio-Temporal Loss Function for 3D Motion Reconstruction and
Extended Temporal Metrics for Motion Evaluation
- Title(参考訳): 3次元運動再構成のための新しい時空間損失関数と運動評価のための拡張時間指標
- Authors: Mansour Tchenegnon and Sylvie Gibet and Thibaut Le Naour
- Abstract要約: グラフとしての運動のラプラシアン表現に基づいて、ラプラシアン損失と呼ばれる新しい損失関数を提案する。
この損失関数は、ビデオから3次元の人間のポーズ推定を通じて、モーション再構成のためのトレーニングモデルに使用されることを意図している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose a new loss function that we call Laplacian loss, based on
spatio-temporal Laplacian representation of the motion as a graph. This loss
function is intended to be used in training models for motion reconstruction
through 3D human pose estimation from videos. It compares the differential
coordinates of the joints obtained from the graph representation of the ground
truth against the one of the estimation. We design a fully convolutional
temporal network for motion reconstruction to achieve better temporal
consistency of estimation. We use this generic model to study the impact of our
proposed loss function on the benchmarks provided by Human3.6M. We also make
use of various motion descriptors such as velocity, acceleration to make a
thorough evaluation of the temporal consistency while comparing the results to
some of the state-of-the-art solutions.
- Abstract(参考訳): グラフとして運動の時空間ラプラシアン表現に基づいて、ラプラシアン損失と呼ばれる新しい損失関数を提案する。
この損失関数は、ビデオからの3次元ポーズ推定による動作再構成のトレーニングモデルに使用されることを意図している。
これは、基底真理のグラフ表現から得られるジョイントの微分座標と、推定されたジョイントの座標を比較している。
推定の時間的一貫性を向上すべく,完全畳み込み型時間ネットワークを設計・構築する。
この汎用モデルを用いて,提案する損失関数がヒューマン3.6mのベンチマークに与える影響について検討した。
また,速度や加速度といった様々な動き記述子を用いて,時間的一貫性を徹底的に評価し,その結果を最先端のソリューションと比較した。
関連論文リスト
- Occlusion-Aware 3D Motion Interpretation for Abnormal Behavior Detection [10.782354892545651]
我々は,メッシュ頂点とヒト関節の3次元座標をモノクロビデオから再構成し,運動異常を識別するOAD2Dを提案する。
動作特徴の定量化にVQVAEを用いるM2Tモデルと組み合わせることで、異常姿勢推定を再構成する。
本研究は, 重度・自己閉塞性に対する異常行動検出のロバスト性を示すものである。
論文 参考訳(メタデータ) (2024-07-23T18:41:16Z) - RoHM: Robust Human Motion Reconstruction via Diffusion [58.63706638272891]
RoHMは、モノクロRGB(-D)ビデオから頑健な3次元人間の動きを復元するためのアプローチである。
ノイズと閉鎖された入力データに条件付けし、一貫した大域座標で完全な可塑性運動を再構成した。
本手法は,テスト時に高速でありながら,定性的かつ定量的に最先端の手法より優れる。
論文 参考訳(メタデータ) (2024-01-16T18:57:50Z) - Unsupervised 3D Pose Estimation with Non-Rigid Structure-from-Motion
Modeling [83.76377808476039]
本研究では,人間のポーズの変形をモデル化し,それに伴う拡散に基づく動きを事前に設計する手法を提案する。
動作中の3次元人間の骨格を復元する作業は3次元基準骨格の推定に分割する。
混合時空間NASfMformerを用いて、各フレームの3次元基準骨格と骨格変形を2次元観測シーケンスから同時に推定する。
論文 参考訳(メタデータ) (2023-08-18T16:41:57Z) - OcclusionFusion: Occlusion-aware Motion Estimation for Real-time Dynamic
3D Reconstruction [14.130915525776055]
RGBDに基づくリアルタイム動的3次元再構成は、フレーム間運動推定の不正確さに悩まされる。
オクルージョンフュージョン(OcclusionFusion, OcclusionFusion)は、オクルージョンを意識した3次元運動を計算し、再構成を誘導する手法である。
本手法は,既存の単一ビューベースリアルタイム手法よりも大きなマージンで性能を向上する。
論文 参考訳(メタデータ) (2022-03-15T15:09:01Z) - 3D Skeleton-based Human Motion Prediction with Manifold-Aware GAN [3.1313293632309827]
本研究では,3次元骨格を用いた人体動作予測の新しい手法を提案する。
我々は,人間の運動の時間的および空間的依存を捉える,多様体を意識したワッサーシュタイン生成逆数モデルを構築した。
CMU MoCapとHuman 3.6Mデータセットで実験が行われた。
論文 参考訳(メタデータ) (2022-03-01T20:49:13Z) - Neural Computed Tomography [1.7188280334580197]
一連のプロジェクションの取得時の運動は、CT再構成において重要な運動アーティファクトにつながる可能性がある。
動作成果物から解放された時間分解画像を生成するための新しい再構成フレームワークであるNeuralCTを提案する。
論文 参考訳(メタデータ) (2022-01-17T18:50:58Z) - Motion-from-Blur: 3D Shape and Motion Estimation of Motion-blurred
Objects in Videos [115.71874459429381]
本研究では,映像から3次元の運動,3次元の形状,および高度に動きやすい物体の外観を同時推定する手法を提案する。
提案手法は, 高速移動物体の劣化と3次元再構成において, 従来の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-29T11:25:14Z) - Shape from Blur: Recovering Textured 3D Shape and Motion of Fast Moving
Objects [115.71874459429381]
本研究では, 物体の3次元形状, テクスチャ, 動きを単一動画像から共同で再構成する新しい課題について述べる。
従来の手法では2次元画像領域でのみ遅延問題に対処するが、3次元領域における全ての物体特性の厳密なモデリングは任意の物体の動きの正確な記述を可能にする。
論文 参考訳(メタデータ) (2021-06-16T13:18:08Z) - Consistency Guided Scene Flow Estimation [159.24395181068218]
CGSFは立体映像からの3次元シーン構造と動きの同時再構成のための自己教師型フレームワークである。
提案モデルでは,課題の画像の相違やシーンフローを確実に予測できることを示す。
最先端技術よりも優れた一般化を実現し、目に見えない領域に迅速かつ堅牢に適応する。
論文 参考訳(メタデータ) (2020-06-19T17:28:07Z) - Motion Guided 3D Pose Estimation from Videos [81.14443206968444]
本研究では,2次元ポーズから1次元の人物ポーズ推定を行う問題に対して,運動損失と呼ばれる新たな損失関数を提案する。
運動損失の計算では、ペアワイズ・モーション・エンコーディング(ペアワイズ・モーション・エンコーディング)と呼ばれる単純なキーポイント・モーションの表現が導入された。
UGCN(U-shaped GCN)と呼ばれる新しいグラフ畳み込みネットワークアーキテクチャを設計し,短期および長期の動作情報の両方をキャプチャする。
論文 参考訳(メタデータ) (2020-04-29T06:59:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。