論文の概要: Computational Choreography using Human Motion Synthesis
- arxiv url: http://arxiv.org/abs/2210.04366v2
- Date: Tue, 21 Mar 2023 03:52:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-24 02:53:20.106087
- Title: Computational Choreography using Human Motion Synthesis
- Title(参考訳): 人間の動き合成を用いた計算コレオグラフィー
- Authors: Patrick Perrine, Trevor Kirkby
- Abstract要約: 深層ニューラルネットワークを用いた芸術的人間の動作の合成について検討する。
舞踊の動きを予測するために学習モデルを適用するという、より伝統的な応用の可能性について論じる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Should deep learning models be trained to analyze human performance art? To
help answer this question, we explore an application of deep neural networks to
synthesize artistic human motion. Problem tasks in human motion synthesis can
include predicting the motions of humans in-the-wild, as well as generating new
sequences of motions based on said predictions. We will discuss the potential
of a less traditional application, where learning models are applied to
predicting dance movements. There have been notable, recent efforts to analyze
dance movements in a computational light, such as the Everybody Dance Now (EDN)
learning model and a Cal Poly master's thesis, Take The Lead (TTL). We have
effectively combined these two works along with our own deep neural network to
produce a new system for dance motion prediction, image-to-image translation,
and video generation.
- Abstract(参考訳): ディープラーニングモデルは人間のパフォーマンスアートを分析するために訓練されるべきか?
この質問に答えるために、ディープニューラルネットワークの芸術的人間の動きを合成する応用を探求する。
人間の運動合成における問題課題は、人間の動きの予測や、その予測に基づく新しい動きのシーケンスの生成などである。
ダンス動作の予測に学習モデルを適用するという,より伝統的な応用の可能性について論じる。
例えば、Everybody Dance Now(EDN)学習モデルや、Cal Polyの修士論文であるTake The Lead(TTL)などである。
われわれはこの2つの作業と独自のディープニューラルネットワークを効果的に組み合わせて、ダンスの動き予測、画像から画像への変換、ビデオ生成のための新しいシステムを開発した。
関連論文リスト
- RTify: Aligning Deep Neural Networks with Human Behavioral Decisions [10.510746720313303]
霊長類視覚の現在のニューラルネットワークモデルは、行動精度の全体的なレベルを複製することに焦点を当てている。
我々は、リカレントニューラルネットワークの時間的ダイナミクスを人間の反応時間(RT)に合わせることを学ぶことによって、人間の行動選択のダイナミクスをモデル化する新しい計算フレームワークを導入する。
本稿では,この近似を用いて「理想オブザーバ」RNNモデルを最適化し,人間データなしで速度と精度の最適なトレードオフを実現できることを示す。
論文 参考訳(メタデータ) (2024-11-06T03:04:05Z) - PPLNs: Parametric Piecewise Linear Networks for Event-Based Temporal Modeling and Beyond [25.2310477913357]
時間的視覚推定のためのPPLN(Parametric Piecewise Linear Networks)を提案する。
PPLNは、生物学的神経行動を制御する神経型原理に動機付けられ、イベントカメラが捉えたデータを処理するのに理想的である。
論文 参考訳(メタデータ) (2024-09-29T20:45:51Z) - neuROSym: Deployment and Evaluation of a ROS-based Neuro-Symbolic Model for Human Motion Prediction [4.008958683836471]
NeuroSyMは空間的相互作用の表現のための定性的軌道計算にコンテキストを組み込むことに成功した。
実際のシナリオでロボットをデプロイするためのROパッケージであるneuROSymを提供するために,オリジナルアーキテクチャを拡張した。
我々は,これらのモデルであるNeuroSyMとベースラインSGANを,人間の動作パターンが異なる2つのシナリオで評価した。
論文 参考訳(メタデータ) (2024-06-24T11:13:06Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.47045863999061]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Non-local Graph Convolutional Network for joint Activity Recognition and
Motion Prediction [2.580765958706854]
3次元骨格に基づく運動予測と行動認識は、人間の行動分析における2つの中間課題である。
本稿では, グラフ畳み込みニューラルネットワークとリカレントニューラルネットワークを併用した, 共同動作予測と活動認識のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:07:10Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A compact sequence encoding scheme for online human activity recognition
in HRI applications [0.8397702677752039]
本稿では,時間的動作を効率よくコンパクトな表現に変換する新しいアクションシーケンス符号化方式を提案する。
この表現は、軽量畳み込みニューラルネットワークの入力として使用することができる。
実験により、提案したパイプラインは、堅牢なエンドツーエンドのオンラインアクション認識スキームを提供できることが示された。
論文 参考訳(メタデータ) (2020-12-01T22:33:09Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。