論文の概要: KP-RNN: A Deep Learning Pipeline for Human Motion Prediction and
Synthesis of Performance Art
- arxiv url: http://arxiv.org/abs/2210.04366v3
- Date: Thu, 2 Nov 2023 05:51:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-03 18:37:09.614443
- Title: KP-RNN: A Deep Learning Pipeline for Human Motion Prediction and
Synthesis of Performance Art
- Title(参考訳): KP-RNN:人間の動作予測とパフォーマンスアートの合成のためのディープラーニングパイプライン
- Authors: Patrick Perrine, Trevor Kirkby
- Abstract要約: 我々は、既存の画像処理と生成パイプラインと容易に統合できるニューラルネットワーク、KP-RNNを予測するための新しいアプローチを提供する。
我々は、KP-RNNの動作予測の有効性を実証するために、新しい人間の動作データセットであるTake The Leadと、モーション生成パイプラインであるEverybody Dance Nowシステムを用いている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Digitally synthesizing human motion is an inherently complex process, which
can create obstacles in application areas such as virtual reality. We offer a
new approach for predicting human motion, KP-RNN, a neural network which can
integrate easily with existing image processing and generation pipelines. We
utilize a new human motion dataset of performance art, Take The Lead, as well
as the motion generation pipeline, the Everybody Dance Now system, to
demonstrate the effectiveness of KP-RNN's motion predictions. We have found
that our neural network can predict human dance movements effectively, which
serves as a baseline result for future works using the Take The Lead dataset.
Since KP-RNN can work alongside a system such as Everybody Dance Now, we argue
that our approach could inspire new methods for rendering human avatar
animation. This work also serves to benefit the visualization of performance
art in digital platforms by utilizing accessible neural networks.
- Abstract(参考訳): 人間の動きをデジタルに合成することは本質的に複雑なプロセスであり、仮想現実のような応用分野の障害を生じさせる。
我々は、既存の画像処理と生成パイプラインと容易に統合できるニューラルネットワーク、KP-RNNを予測するための新しいアプローチを提供する。
我々は、KP-RNNの動作予測の有効性を実証するために、新しい人間の動作データセットであるTake The Leadと、モーション生成パイプラインであるEverybody Dance Nowシステムを用いている。
私たちのニューラルネットワークは、人間のダンスの動きを効果的に予測できることがわかりました。
KP-RNNは、Everybody Dance Nowのようなシステムと連携できるため、我々のアプローチは人間のアバターアニメーションをレンダリングするための新しい方法に刺激を与える可能性がある。
この作業は、アクセス可能なニューラルネットワークを利用することで、デジタルプラットフォームのパフォーマンスアートの可視化にも役立ちます。
関連論文リスト
- RTify: Aligning Deep Neural Networks with Human Behavioral Decisions [10.510746720313303]
霊長類視覚の現在のニューラルネットワークモデルは、行動精度の全体的なレベルを複製することに焦点を当てている。
我々は、リカレントニューラルネットワークの時間的ダイナミクスを人間の反応時間(RT)に合わせることを学ぶことによって、人間の行動選択のダイナミクスをモデル化する新しい計算フレームワークを導入する。
本稿では,この近似を用いて「理想オブザーバ」RNNモデルを最適化し,人間データなしで速度と精度の最適なトレードオフを実現できることを示す。
論文 参考訳(メタデータ) (2024-11-06T03:04:05Z) - PPLNs: Parametric Piecewise Linear Networks for Event-Based Temporal Modeling and Beyond [25.2310477913357]
時間的視覚推定のためのPPLN(Parametric Piecewise Linear Networks)を提案する。
PPLNは、生物学的神経行動を制御する神経型原理に動機付けられ、イベントカメラが捉えたデータを処理するのに理想的である。
論文 参考訳(メタデータ) (2024-09-29T20:45:51Z) - neuROSym: Deployment and Evaluation of a ROS-based Neuro-Symbolic Model for Human Motion Prediction [4.008958683836471]
NeuroSyMは空間的相互作用の表現のための定性的軌道計算にコンテキストを組み込むことに成功した。
実際のシナリオでロボットをデプロイするためのROパッケージであるneuROSymを提供するために,オリジナルアーキテクチャを拡張した。
我々は,これらのモデルであるNeuroSyMとベースラインSGANを,人間の動作パターンが異なる2つのシナリオで評価した。
論文 参考訳(メタデータ) (2024-06-24T11:13:06Z) - RealDex: Towards Human-like Grasping for Robotic Dexterous Hand [64.47045863999061]
本稿では,人間の行動パターンを取り入れた手の動きを正確に把握する先駆的データセットであるRealDexを紹介する。
RealDexは、現実のシナリオにおける認識、認識、操作を自動化するためのヒューマノイドロボットを進化させる上で、大きな可能性を秘めている。
論文 参考訳(メタデータ) (2024-02-21T14:59:46Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Non-local Graph Convolutional Network for joint Activity Recognition and
Motion Prediction [2.580765958706854]
3次元骨格に基づく運動予測と行動認識は、人間の行動分析における2つの中間課題である。
本稿では, グラフ畳み込みニューラルネットワークとリカレントニューラルネットワークを併用した, 共同動作予測と活動認識のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T14:07:10Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Where is my hand? Deep hand segmentation for visual self-recognition in
humanoid robots [129.46920552019247]
本稿では、画像からロボットの手を切り離すための畳み込みニューラルネットワーク(CNN)を提案する。
ヒューマノイドロボットVizzyの手のセグメンテーションのために,Mask-RCNNネットワークを微調整した。
論文 参考訳(メタデータ) (2021-02-09T10:34:32Z) - A compact sequence encoding scheme for online human activity recognition
in HRI applications [0.8397702677752039]
本稿では,時間的動作を効率よくコンパクトな表現に変換する新しいアクションシーケンス符号化方式を提案する。
この表現は、軽量畳み込みニューラルネットワークの入力として使用することができる。
実験により、提案したパイプラインは、堅牢なエンドツーエンドのオンラインアクション認識スキームを提供できることが示された。
論文 参考訳(メタデータ) (2020-12-01T22:33:09Z) - UniCon: Universal Neural Controller For Physics-based Character Motion [70.45421551688332]
大規模動作データセットから学習することで,異なるスタイルで数千の動作を習得する物理ベースのユニバーサルニューラルコントローラ(UniCon)を提案する。
UniConは、キーボード駆動制御をサポートし、ロコモーションとアクロバティックスキルの大きなプールから引き出されたモーションシーケンスを作成し、ビデオで撮影した人を物理ベースの仮想アバターにテレポートする。
論文 参考訳(メタデータ) (2020-11-30T18:51:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。