論文の概要: AnimGAN: A Spatiotemporally-Conditioned Generative Adversarial Network
for Character Animation
- arxiv url: http://arxiv.org/abs/2005.11489v1
- Date: Sat, 23 May 2020 07:47:46 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-30 03:46:58.219642
- Title: AnimGAN: A Spatiotemporally-Conditioned Generative Adversarial Network
for Character Animation
- Title(参考訳): AnimGAN: 文字アニメーションのための時空間制約付き生成逆数ネットワーク
- Authors: Maryam Sadat Mirzaei, Kourosh Meshgi, Etienne Frigo, Toyoaki Nishida
- Abstract要約: 我々は,意味論とダイナミクスの観点から,与えられたシーケンスに類似したシーケンスを生成する,時間条件付きGANを提案する。
このシステムは、ジェスチャー、表現、アクションの大規模なデータセットに基づいてエンドツーエンドにトレーニングされる。
実験により,従来の条件付きGANと比較して,ユーザの期待に合致する現実的で意味論的に関連するヒューマノイド配列を生成できることがわかった。
- 参考スコア(独自算出の注目度): 1.452875650827562
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Producing realistic character animations is one of the essential tasks in
human-AI interactions. Considered as a sequence of poses of a humanoid, the
task can be considered as a sequence generation problem with spatiotemporal
smoothness and realism constraints. Additionally, we wish to control the
behavior of AI agents by giving them what to do and, more specifically, how to
do it. We proposed a spatiotemporally-conditioned GAN that generates a sequence
that is similar to a given sequence in terms of semantics and spatiotemporal
dynamics. Using LSTM-based generator and graph ConvNet discriminator, this
system is trained end-to-end on a large gathered dataset of gestures,
expressions, and actions. Experiments showed that compared to traditional
conditional GAN, our method creates plausible, realistic, and semantically
relevant humanoid animation sequences that match user expectations.
- Abstract(参考訳): リアルなキャラクターアニメーションを作成することは、人間とAIの相互作用において不可欠なタスクの1つである。
ヒューマノイドのポーズのシーケンスと見なされるこのタスクは、時空間の滑らかさとリアリズムの制約を伴うシーケンス生成問題と見なすことができる。
さらに、私たちはAIエージェントの行動を制御するために、何をすべきか、具体的にはどのように行うべきかを彼らに与えたいと考えています。
我々は,時空間条件付きGANを提案し,意味論や時空間力学の観点から,与えられたシーケンスに類似したシーケンスを生成する。
LSTMベースのジェネレータとグラフConvNet識別器を用いて、このシステムはジェスチャー、表現、アクションの大規模なデータセット上でエンドツーエンドに訓練される。
実験により,従来の条件付きGANと比較して,ユーザ期待に合致する有意で現実的で,意味的に関連するヒューマノイドアニメーションシーケンスを生成することができた。
関連論文リスト
- Shape Conditioned Human Motion Generation with Diffusion Model [0.0]
本研究では,メッシュ形式での運動系列生成を可能にする形状条件付き運動拡散モデル(SMD)を提案する。
また、スペクトル領域内の時間的依存関係を活用するためのスペクトル・テンポラルオートエンコーダ(STAE)を提案する。
論文 参考訳(メタデータ) (2024-05-10T19:06:41Z) - Scaling Up Dynamic Human-Scene Interaction Modeling [58.032368564071895]
TRUMANSは、現在利用可能な最も包括的なモーションキャプチャーHSIデータセットである。
人体全体の動きや部分レベルの物体の動きを複雑に捉えます。
本研究では,任意の長さのHSI配列を効率的に生成する拡散型自己回帰モデルを提案する。
論文 参考訳(メタデータ) (2024-03-13T15:45:04Z) - SG-Bot: Object Rearrangement via Coarse-to-Fine Robotic Imagination on Scene Graphs [81.15889805560333]
本稿では,新しいアレンジメントフレームワークであるSG-Botを紹介する。
SG-Botは軽量でリアルタイムでユーザ制御可能な特性を実証する。
実験の結果、SG-Botはライバルよりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2023-09-21T15:54:33Z) - Multiscale Residual Learning of Graph Convolutional Sequence Chunks for
Human Motion Prediction [23.212848643552395]
時間的および空間的依存関係の学習による人間の動作予測のための新しい手法を提案する。
提案手法は,動作予測のためのシーケンス情報を効果的にモデル化し,他の手法よりも優れ,新しい最先端の手法を設定できる。
論文 参考訳(メタデータ) (2023-08-31T15:23:33Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Executing your Commands via Motion Diffusion in Latent Space [51.64652463205012]
本研究では,動作遅延に基づく拡散モデル(MLD)を提案し,条件付き入力に対応する鮮明な動き列を生成する。
我々のMDDは、広範囲な人体運動生成タスクにおいて、最先端の手法よりも大幅に改善されている。
論文 参考訳(メタデータ) (2022-12-08T03:07:00Z) - TEACH: Temporal Action Composition for 3D Humans [50.97135662063117]
自然言語の一連の記述を前提として,テキストに意味的に対応する3次元の人間の動作を生成する。
特に、我々のゴールは一連のアクションの合成を可能にすることであり、これは時間的アクション合成と呼ばれる。
論文 参考訳(メタデータ) (2022-09-09T00:33:40Z) - Action-Conditioned 3D Human Motion Synthesis with Transformer VAE [44.523477804533364]
我々は、現実的で多様な人間の動き系列の行動条件生成の問題に取り組む。
動作シーケンスを完了または拡張する手法とは対照的に、このタスクは初期ポーズやシーケンスを必要としない。
生成的変分オートエンコーダを訓練することにより、人間の動きに対する行動認識の潜在表現を学ぶ。
論文 参考訳(メタデータ) (2021-04-12T17:40:27Z) - A Spatial-Temporal Attentive Network with Spatial Continuity for
Trajectory Prediction [74.00750936752418]
空間連続性をもつ空間時間減衰ネットワーク(STAN-SC)という新しいモデルを提案する。
まず、最も有用かつ重要な情報を探るために、空間的時間的注意機構を提示する。
第2に、生成軌道の空間的連続性を維持するために、シーケンスと瞬間状態情報に基づく共同特徴系列を実行する。
論文 参考訳(メタデータ) (2020-03-13T04:35:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。