論文の概要: Computational Choreography using Human Motion Synthesis
- arxiv url: http://arxiv.org/abs/2210.04366v1
- Date: Sun, 9 Oct 2022 22:46:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-11 14:20:49.776838
- Title: Computational Choreography using Human Motion Synthesis
- Title(参考訳): 人間の動き合成を用いた計算コレオグラフィー
- Authors: Patrick Perrine, Trevor Kirkby
- Abstract要約: 深層ニューラルネットワークを用いた芸術的人間の動作の合成について検討する。
舞踊の動きを予測するために学習モデルを適用するという、より伝統的な応用の可能性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Should deep learning models be trained to analyze human performance art? To
help answer this question, we explore an application of deep neural networks to
synthesize artistic human motion. Problem tasks in human motion synthesis can
include predicting the motions of humans in-the-wild, as well as generating new
sequences of motions based on said predictions. We will discuss the potential
of a less traditional application, where learning models are applied to
predicting dance movements. There have been notable, recent efforts to analyze
dance movements in a computational light, such as the Everybody Dance Now (EDN)
learning model and a recent Cal Poly master's thesis, Take The Lead (TTL). We
have effectively combined these two works along with our own deep neural
network to produce a new system for dance motion prediction, image-to-image
translation, and video generation.
- Abstract(参考訳): ディープラーニングモデルは人間のパフォーマンスアートを分析するために訓練されるべきか?
この質問に答えるために、ディープニューラルネットワークの芸術的人間の動きを合成する応用を探求する。
人間の運動合成における問題課題は、人間の動きの予測や、その予測に基づく新しい動きのシーケンスの生成などである。
ダンス動作の予測に学習モデルを適用するという,より伝統的な応用の可能性について論じる。
例えば、Everybody Dance Now(EDN)学習モデルや、最近のCal Polyの修士論文であるTake The Lead(TTL)などである。
われわれはこの2つの作業と独自のディープニューラルネットワークを効果的に組み合わせて、ダンスの動き予測、画像から画像への変換、ビデオ生成のための新しいシステムを開発した。
関連論文リスト
- Universal Humanoid Motion Representations for Physics-Based Control [74.53927919796139]
本稿では、ヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現について述べる。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - MILD: Multimodal Interactive Latent Dynamics for Learning Human-Robot
Interaction [34.978017200500005]
我々は,HRI(Human-Robot Interactions)の問題に対処するために,MILD(Multimodal Interactive Latent Dynamics)を提案する。
変分オートエンコーダ(VAE)の潜時空間における相互作用エージェントの結合分布をモデル化するために,Hidden Semi-Markov Models (HSMMs) を用いて実演から相互作用ダイナミクスを学習する。
MILDは、観察されたエージェント(人間の)軌道に条件付けされたときに、制御されたエージェント(ロボット)に対してより正確な軌道を生成する。
論文 参考訳(メタデータ) (2022-10-22T11:25:11Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - HumanNeRF: Generalizable Neural Human Radiance Field from Sparse Inputs [35.77939325296057]
最近のニューラルヒューマン表現は高品質なマルチビューレンダリングを生成することができるが、高密度なマルチビュー入力と高価なトレーニングが必要である。
我々は、動的人間の高忠実度自由視点合成のための、一般化可能なニューラル表現であるHumanNeRFを提案する。
論文 参考訳(メタデータ) (2021-12-06T05:22:09Z) - Non-local Graph Convolutional Network for joint Activity Recognition and
Motion Prediction [2.580765958706854]
3次元骨格に基づく運動予測と行動認識は、人間の行動分析における2つの中間課題である。
本稿では, グラフ畳み込みニューラルネットワークとリカレントニューラルネットワークを併用した, 共同動作予測と活動認識のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:07:10Z) - Few-shot Neural Human Performance Rendering from Sparse RGBD Videos [40.20382131461408]
人間の活動に対する最近のニューラルレンダリングアプローチは、目覚ましいビューレンダリング結果を達成するが、それでもインプットビューの厳密なトレーニングに依存している。
本稿では、RGBD入力のみからFNHR(s fewshot Neural rendering approach)を提案し、光ビュー自由視点結果を生成する。
論文 参考訳(メタデータ) (2021-07-14T06:28:16Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A compact sequence encoding scheme for online human activity recognition
in HRI applications [0.8397702677752039]
本稿では,時間的動作を効率よくコンパクトな表現に変換する新しいアクションシーケンス符号化方式を提案する。
この表現は、軽量畳み込みニューラルネットワークの入力として使用することができる。
実験により、提案したパイプラインは、堅牢なエンドツーエンドのオンラインアクション認識スキームを提供できることが示された。
論文 参考訳(メタデータ) (2020-12-01T22:33:09Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。