論文の概要: Motion Generation Review: Exploring Deep Learning for Lifelike Animation with Manifold
- arxiv url: http://arxiv.org/abs/2412.10458v1
- Date: Thu, 12 Dec 2024 08:27:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 13:54:29.892828
- Title: Motion Generation Review: Exploring Deep Learning for Lifelike Animation with Manifold
- Title(参考訳): モーションジェネレーションのレビュー:マニフォールドによる人生のようなアニメーションのための深層学習
- Authors: Jiayi Zhao, Dongdong Weng, Qiuxin Du, Zeyu Tian,
- Abstract要約: 人間のモーション生成は、ゲーム、バーチャルリアリティ、人間とコンピュータの相互作用で広く使われている人間の身体のポーズの自然なシーケンスを作成することを含む。
これまでの研究は、動き、音楽、テキスト、シーンの背景といった信号に基づいて、モーション生成に重点を置いてきた。
マンデラ学習は、データ次元を減らし、効果的な動きのサブスペースをキャプチャすることで解決策を提供する。
- 参考スコア(独自算出の注目度): 4.853986914715961
- License:
- Abstract: Human motion generation involves creating natural sequences of human body poses, widely used in gaming, virtual reality, and human-computer interaction. It aims to produce lifelike virtual characters with realistic movements, enhancing virtual agents and immersive experiences. While previous work has focused on motion generation based on signals like movement, music, text, or scene background, the complexity of human motion and its relationships with these signals often results in unsatisfactory outputs. Manifold learning offers a solution by reducing data dimensionality and capturing subspaces of effective motion. In this review, we present a comprehensive overview of manifold applications in human motion generation, one of the first in this domain. We explore methods for extracting manifolds from unstructured data, their application in motion generation, and discuss their advantages and future directions. This survey aims to provide a broad perspective on the field and stimulate new approaches to ongoing challenges.
- Abstract(参考訳): 人間のモーション生成は、ゲーム、バーチャルリアリティ、人間とコンピュータの相互作用で広く使われている人間の身体のポーズの自然なシーケンスを作成することを含む。
現実的な動き、バーチャルエージェントの強化、没入感のある体験を生み出すことを目的としている。
これまでの研究は、動き、音楽、テキスト、シーン背景といった信号に基づくモーション生成に焦点を合わせてきたが、人間の動きの複雑さとこれらの信号との関係は、しばしば満足のいく出力をもたらす。
マニフォールド学習(Manifold learning)は、データ次元を減らし、効果的な動きのサブスペースをキャプチャすることで、ソリューションを提供する。
本稿では,この領域における最初のヒトの運動生成における多様体の応用について概観する。
本研究では,非構造データから多様体を抽出する手法とその運動生成への応用について検討し,その利点と今後の方向性について論じる。
この調査は、この分野の幅広い視点を提供し、進行中の課題に対する新たなアプローチを刺激することを目的としている。
関連論文リスト
- Move-in-2D: 2D-Conditioned Human Motion Generation [54.067588636155115]
そこで我々は,シーンイメージに条件付けされた人間の動作シーケンスを生成する新しい手法であるMove-in-2Dを提案する。
本手法はシーンイメージとテキストプロンプトの両方を入力として受け入れ,シーンに合わせた動作シーケンスを生成する。
論文 参考訳(メタデータ) (2024-12-17T18:58:07Z) - FreeMotion: MoCap-Free Human Motion Synthesis with Multimodal Large Language Models [19.09048969615117]
MLLMをベースとしたユーザ制御信号として自然言語命令を用いたオープンなヒューマンモーション合成について検討する。
本手法は,多くの下流タスクにおいて,一般的な人間の動作合成を実現することができる。
論文 参考訳(メタデータ) (2024-06-15T21:10:37Z) - Universal Humanoid Motion Representations for Physics-Based Control [71.46142106079292]
物理学に基づくヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現を提案する。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Object Motion Guided Human Motion Synthesis [22.08240141115053]
大規模物体の操作におけるフルボディ人体動作合成の問題点について検討する。
条件付き拡散フレームワークであるOMOMO(Object Motion Guided Human Motion synthesis)を提案する。
我々は、操作対象物にスマートフォンを装着するだけで、全身の人間の操作動作をキャプチャする新しいシステムを開発した。
論文 参考訳(メタデータ) (2023-09-28T08:22:00Z) - Human Motion Generation: A Survey [67.38982546213371]
人間の動き生成は、自然の人間のポーズシーケンスを生成し、現実世界の応用に大きな可能性を示すことを目的としている。
この分野のほとんどの研究は、テキスト、オーディオ、シーンコンテキストなどの条件信号に基づいて人間の動きを生成することに焦点を当てている。
本稿では,人間の動作生成に関する総合的な文献レビューを紹介する。
論文 参考訳(メタデータ) (2023-07-20T14:15:20Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Scene-aware Generative Network for Human Motion Synthesis [125.21079898942347]
シーンと人間の動きの相互作用を考慮した新しい枠組みを提案する。
人間の動きの不確実性を考慮すると、このタスクを生成タスクとして定式化する。
我々は、人間の動きと文脈シーンとの整合性を強制するための識別器を備えた、GANに基づく学習アプローチを導出する。
論文 参考訳(メタデータ) (2021-05-31T09:05:50Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。