論文の概要: Forecasting Actions and Characteristic 3D Poses
- arxiv url: http://arxiv.org/abs/2211.14309v1
- Date: Fri, 25 Nov 2022 18:59:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 15:34:20.900764
- Title: Forecasting Actions and Characteristic 3D Poses
- Title(参考訳): 予測行動と特徴的3次元ポーズ
- Authors: Christian Diller, Thomas Funkhouser, Angela Dai
- Abstract要約: 我々は、これらのアクションを特徴付ける3Dポーズとともに、将来のアクションのシーケンスを共同で予測する。
実験では,関節動作の相補的性質と特徴的3次元ポーズ予測を実証した。
- 参考スコア(独自算出の注目度): 23.235485676578392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose to model longer-term future human behavior by jointly predicting
action labels and 3D characteristic poses (3D poses representative of the
associated actions). While previous work has considered action and 3D pose
forecasting separately, we observe that the nature of the two tasks is coupled,
and thus we predict them together. Starting from an input 2D video observation,
we jointly predict a future sequence of actions along with 3D poses
characterizing these actions. Since coupled action labels and 3D pose
annotations are difficult and expensive to acquire for videos of complex action
sequences, we train our approach with action labels and 2D pose supervision
from two existing action video datasets, in tandem with an adversarial loss
that encourages likely 3D predicted poses. Our experiments demonstrate the
complementary nature of joint action and characteristic 3D pose prediction: our
joint approach outperforms each task treated individually, enables robust
longer-term sequence prediction, and outperforms alternative approaches to
forecast actions and characteristic 3D poses.
- Abstract(参考訳): 本研究では,アクションラベルと3次元特徴ポーズ(3Dポーズ)を協調的に予測し,より長期的な人間の行動のモデル化を提案する。
従来の作業ではアクションと3Dポーズが別々に予測されているが,2つのタスクの性質が結合していることが観察され,一緒に予測される。
入力された2dビデオ観察から、これらのアクションを特徴付ける3dポーズと共に、将来のアクションシーケンスを共同で予測する。
複合アクションラベルと3dポーズアノテーションは複雑なアクションシーケンスの動画を取得するのが困難で費用がかかるため、既存の2つのアクションビデオデータセットからアクションラベルと2dポーズの監督をトレーニングし、3dの予測されたポーズを奨励する敵対的損失と組み合わされる。
共同動作の相補的性質と特徴的3次元ポーズ予測を実証し, 共同作業は各タスクを個々に比較し, より堅牢な長期シーケンス予測を可能にし, 行動予測と特徴的3次元ポーズに対する代替アプローチよりも優れていることを示す。
関連論文リスト
- UPose3D: Uncertainty-Aware 3D Human Pose Estimation with Cross-View and Temporal Cues [55.69339788566899]
UPose3Dは多視点人間のポーズ推定のための新しいアプローチである。
直接的な3Dアノテーションを必要とせずに、堅牢性と柔軟性を向上させる。
論文 参考訳(メタデータ) (2024-04-23T00:18:00Z) - Social-Transmotion: Promptable Human Trajectory Prediction [65.80068316170613]
Social-Transmotionは、多種多様な視覚的手がかりを利用して人間の行動を予測する、汎用トランスフォーマーベースのモデルである。
提案手法は,JTA,JRDB,歩行者,道路交通のサイクリスト,ETH-UCYなど,複数のデータセットで検証されている。
論文 参考訳(メタデータ) (2023-12-26T18:56:49Z) - A generic diffusion-based approach for 3D human pose prediction in the
wild [68.00961210467479]
3D人間のポーズ予測、すなわち、過去の観察されたポーズのシーケンスが与えられた後の人間の3Dポーズのシーケンスを予測することは、困難な時間課題である。
本稿では,不完全な要素(予測や観測に関係しない)をノイズとして扱える統一的な定式化法を提案し,それらを認知し,妥当なポーズを予測する条件拡散モデルを提案する。
本研究は,4つの標準データセットについて検討し,現状よりも大幅に改善された。
論文 参考訳(メタデータ) (2022-10-11T17:59:54Z) - Occluded Human Body Capture with Self-Supervised Spatial-Temporal Motion
Prior [7.157324258813676]
私たちは、トレーニングとテストの両方に使用できる最初の3Dクローズドモーションデータセット(OcMotion)を構築します。
次に、空間時間層は、関節レベルの相関を学習するために設計される。
実験結果から,提案手法は,映像から高精度で一貫性のある人間の動きを生成できることが示唆された。
論文 参考訳(メタデータ) (2022-07-12T08:15:11Z) - Uncertainty-Aware Adaptation for Self-Supervised 3D Human Pose
Estimation [70.32536356351706]
本稿では、2つの出力ヘッドを2つの異なる構成にサブスクライブする共通のディープネットワークバックボーンを構成するMPP-Netを紹介する。
ポーズと関節のレベルで予測の不確実性を定量化するための適切な尺度を導出する。
本稿では,提案手法の総合評価を行い,ベンチマークデータセット上での最先端性能を示す。
論文 参考訳(メタデータ) (2022-03-29T07:14:58Z) - 3D Skeleton-based Human Motion Prediction with Manifold-Aware GAN [3.1313293632309827]
本研究では,3次元骨格を用いた人体動作予測の新しい手法を提案する。
我々は,人間の運動の時間的および空間的依存を捉える,多様体を意識したワッサーシュタイン生成逆数モデルを構築した。
CMU MoCapとHuman 3.6Mデータセットで実験が行われた。
論文 参考訳(メタデータ) (2022-03-01T20:49:13Z) - Multi-Scale Networks for 3D Human Pose Estimation with Inference Stage
Optimization [33.02708860641971]
モノクロビデオから3Dのポーズを推定することは、まだまだ難しい課題だ。
既存の多くのメソッドは、対象の人が他のオブジェクトに干渉されたり、トレーニングデータのスケールや速度に対して動きが速すぎたり、遅くなったりすると低下する。
頑健な3次元ポーズ推定のための時間的ネットワークを提案する。
論文 参考訳(メタデータ) (2020-10-13T15:24:28Z) - Unsupervised Cross-Modal Alignment for Multi-Person 3D Pose Estimation [52.94078950641959]
マルチパーソン・ヒューマン・ポーズ推定のためのデプロイフレンドリーで高速なボトムアップ・フレームワークを提案する。
我々は,人物の位置を対応する3Dポーズ表現と統一する,多人数の3Dポーズのニューラル表現を採用する。
ペア化された2Dまたは3Dポーズアノテーションが利用できない実用的な配置パラダイムを提案する。
論文 参考訳(メタデータ) (2020-08-04T07:54:25Z) - Cascaded deep monocular 3D human pose estimation with evolutionary
training data [76.3478675752847]
深層表現学習は単眼の3次元ポーズ推定において顕著な精度を達成した。
本稿では,大量のトレーニングデータに対してスケーラブルな新しいデータ拡張手法を提案する。
本手法は,先行知識に触発された階層的人体表現と合成に基づいて,未知の3次元人体骨格を合成する。
論文 参考訳(メタデータ) (2020-06-14T03:09:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。