論文の概要: Adversarial Attention for Human Motion Synthesis
- arxiv url: http://arxiv.org/abs/2204.11751v1
- Date: Mon, 25 Apr 2022 16:12:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-26 14:12:27.943938
- Title: Adversarial Attention for Human Motion Synthesis
- Title(参考訳): 人間の運動合成に対する敵対的注意
- Authors: Matthew Malek-Podjaski, Fani Deligianni
- Abstract要約: 本稿では,エンド・ツー・エンドトレーニングを用いた注意型確率的深層対角モデルの適用により,人間の動作合成を制御可能な新しい手法を提案する。
我々は, 対角的注意力を用いて, 短距離地平線と短距離地平線の両面に人工的な人間の動きを生成できることを実証した。
- 参考スコア(独自算出の注目度): 3.9378507882929563
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Analysing human motions is a core topic of interest for many disciplines,
from Human-Computer Interaction, to entertainment, Virtual Reality and
healthcare. Deep learning has achieved impressive results in capturing human
pose in real-time. On the other hand, due to high inter-subject variability,
human motion analysis models often suffer from not being able to generalise to
data from unseen subjects due to very limited specialised datasets available in
fields such as healthcare. However, acquiring human motion datasets is highly
time-consuming, challenging, and expensive. Hence, human motion synthesis is a
crucial research problem within deep learning and computer vision. We present a
novel method for controllable human motion synthesis by applying
attention-based probabilistic deep adversarial models with end-to-end training.
We show that we can generate synthetic human motion over both short- and
long-time horizons through the use of adversarial attention. Furthermore, we
show that we can improve the classification performance of deep learning models
in cases where there is inadequate real data, by supplementing existing
datasets with synthetic motions.
- Abstract(参考訳): 人間の動きを分析することは、人間とコンピュータの相互作用からエンターテイメント、バーチャルリアリティ、ヘルスケアに至るまで、多くの分野にとって重要なトピックである。
ディープラーニングは、人間のポーズをリアルタイムで捉えることで素晴らしい成果を上げている。
一方、物体間変動が大きいため、ヒトの運動分析モデルは、医療などの分野で利用可能な非常に限定的なデータセットのため、見えない被験者のデータに一般化できないことが多い。
しかし、人間の動きのデータセットを取得するのは非常に時間がかかり、難しく、高価です。
したがって、人間の動き合成は深層学習とコンピュータビジョンにおける重要な研究課題である。
本稿では,エンド・ツー・エンドトレーニングを用いた注意型確率的深層対角モデルの適用により,人間の動作合成を制御可能な新しい手法を提案する。
我々は, 対角的注意力を用いて, 短時間・長時間の地平線上での合成人間の動きを生成することができることを示す。
さらに,既存のデータセットを合成動作で補完することにより,実データに不適切な場合のディープラーニングモデルの分類性能を向上させることができることを示した。
関連論文リスト
- Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - SynH2R: Synthesizing Hand-Object Motions for Learning Human-to-Robot
Handovers [37.49601724575655]
視覚に基づく人間とロボットのハンドオーバは、人間とロボットのインタラクションにおいて重要かつ困難なタスクである。
本稿では,ロボットの訓練に適した人間のつかみ動作を生成するためのフレームワークを提案する。
これにより、以前の作業よりも100倍多くのオブジェクトで、総合的なトレーニングとテストデータを生成することができます。
論文 参考訳(メタデータ) (2023-11-09T18:57:02Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - DisCo: Disentangled Control for Realistic Human Dance Generation [125.85046815185866]
ダンス合成の合成性を改善するために,不整合制御をもつ新しいモデルアーキテクチャであるdisCOを導入する。
DisCcは、さまざまな外観と柔軟な動きを持つ高品質な人間のダンス画像やビデオを生成することができる。
論文 参考訳(メタデータ) (2023-06-30T17:37:48Z) - Modelling Human Visual Motion Processing with Trainable Motion Energy
Sensing and a Self-attention Network [1.9458156037869137]
本稿では,生体とコンピュータの視覚モデルとのギャップを埋めることで,人間の動作知覚のイメージ計算可能なモデルを提案する。
このモデルアーキテクチャは、生体視覚システムにおける運動知覚のコア構造であるV1-MTの計算を捉えることを目的としている。
サイリコ神経生理学では、我々のモデルの単位応答は、運動プーリングやスピードチューニングに関する哺乳類の神経記録に類似していることが明らかになっている。
論文 参考訳(メタデータ) (2023-05-16T04:16:07Z) - Deep state-space modeling for explainable representation, analysis, and
generation of professional human poses [0.0]
本稿では,人間の動作を説明可能な表現にするための3つの新しい手法を紹介する。
トレーニングされたモデルは、専門家のフルボディのデキスタリティ分析に使用される。
論文 参考訳(メタデータ) (2023-04-13T08:13:10Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - GIMO: Gaze-Informed Human Motion Prediction in Context [75.52839760700833]
本研究では、高品質なボディポーズシーケンス、シーンスキャン、目視によるエゴ中心のビューを提供する大規模な人体動作データセットを提案する。
私たちのデータ収集は特定のシーンに縛られません。
視線の全可能性を実現するために,視線と運動枝の双方向通信を可能にする新しいネットワークアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-04-20T13:17:39Z) - A Review of Deep Learning Techniques for Markerless Human Motion on
Synthetic Datasets [0.0]
近年,人間の姿勢推定がコンピュータビジョンコミュニティで注目を集めている。
2次元画像のみに基づくアニメーションの骨格を予測できるモデルを提案する。
実装プロセスは、独自のデータセットにDeepLabCutを使用して、多くの必要なステップを実行する。
論文 参考訳(メタデータ) (2022-01-07T15:42:50Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。