論文の概要: Stochastic Scene-Aware Motion Prediction
- arxiv url: http://arxiv.org/abs/2108.08284v1
- Date: Wed, 18 Aug 2021 17:56:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-19 14:35:54.503383
- Title: Stochastic Scene-Aware Motion Prediction
- Title(参考訳): 確率的シーン認識運動予測
- Authors: Mohamed Hassan, Duygu Ceylan, Ruben Villegas, Jun Saito, Jimei Yang,
Yi Zhou, Michael Black
- Abstract要約: 本稿では,対象物に対して所定の動作を行う異なるスタイルをモデル化する,データ駆動合成動作法を提案する。
SAMP (Scene Aware Motion Prediction) と呼ばれる本手法は, 様々なジオメトリ対象を対象とし, キャラクタが散らばったシーンで移動できるように一般化する。
- 参考スコア(独自算出の注目度): 41.6104600038666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A long-standing goal in computer vision is to capture, model, and
realistically synthesize human behavior. Specifically, by learning from data,
our goal is to enable virtual humans to navigate within cluttered indoor scenes
and naturally interact with objects. Such embodied behavior has applications in
virtual reality, computer games, and robotics, while synthesized behavior can
be used as a source of training data. This is challenging because real human
motion is diverse and adapts to the scene. For example, a person can sit or lie
on a sofa in many places and with varying styles. It is necessary to model this
diversity when synthesizing virtual humans that realistically perform
human-scene interactions. We present a novel data-driven, stochastic motion
synthesis method that models different styles of performing a given action with
a target object. Our method, called SAMP, for Scene-Aware Motion Prediction,
generalizes to target objects of various geometries while enabling the
character to navigate in cluttered scenes. To train our method, we collected
MoCap data covering various sitting, lying down, walking, and running styles.
We demonstrate our method on complex indoor scenes and achieve superior
performance compared to existing solutions. Our code and data are available for
research at https://samp.is.tue.mpg.de.
- Abstract(参考訳): コンピュータビジョンにおける長年の目標は、人間の行動を捉え、モデル化し、リアルに合成することである。
特に、データから学習することで、私たちの目標は、乱雑な屋内シーンの中を仮想人間がナビゲートし、自然にオブジェクトと対話できるようにすることです。
このような実施行動は、バーチャルリアリティ、コンピュータゲーム、ロボット工学に応用され、合成行動はトレーニングデータのソースとして使用できる。
実際の人間の動きは多様で、シーンに適応するため、これは難しい。
例えば、様々な場所でソファーに座ったり、横になったりすることができる。
人間とシーンの相互作用を現実的に行う仮想人間を合成する場合、この多様性をモデル化する必要がある。
本稿では,対象物に対して所定の動作を行う異なるスタイルをモデル化する,データ駆動型確率運動合成手法を提案する。
SAMP(Scene-Aware Motion Prediction, SAMP)と呼ばれる本手法では, 様々なジオメトリ対象を対象とし, キャラクタが散らばったシーンで移動できるようにする。
提案手法をトレーニングするために,さまざまな座位,横転,歩行,ランニングスタイルをカバーするMoCapデータを収集した。
複雑な屋内シーンにおける手法を実証し,既存のソリューションと比較して優れた性能を実現する。
私たちのコードとデータは、https://samp.is.tue.mpg.deで調査できます。
関連論文リスト
- Massively Multi-Person 3D Human Motion Forecasting with Scene Context [13.197408989895102]
本研究では、長期(10秒)の人間の動きを予測するために、シーン認識型ソーシャルトランスフォーマーモデル(SAST)を提案する。
我々は、時間的畳み込みエンコーダ・デコーダアーキテクチャとTransformerベースのボトルネックを組み合わせることで、動きとシーン情報を効率的に組み合わせることができる。
我々のモデルは、さまざまなメトリクスやユーザスタディにおいて、リアリズムや多様性の観点から、他のアプローチよりも優れています。
論文 参考訳(メタデータ) (2024-09-18T17:58:51Z) - SynPlay: Importing Real-world Diversity for a Synthetic Human Dataset [19.32308498024933]
SynPlay(シンセティック・プレイグラウンド)は,人間の外見の多様性を現実世界にもたらすことを目的とした,新しい人工人間データセットである。
これまでの作品では見られなかった多様性のレベルを達成するために、現実的な人間の動きとポーズという2つの要素に焦点を当てる。
モデルトレーニングにSynPlayを使用することで,人間の検出とセグメンテーションのための既存の合成データセットよりも精度が向上することを示す。
論文 参考訳(メタデータ) (2024-08-21T17:58:49Z) - Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - QuestEnvSim: Environment-Aware Simulated Motion Tracking from Sparse
Sensors [69.75711933065378]
ヘッドセットとコントローラーのポーズは,高度に制約された環境においても,現実的なフルボディのポーズを生成可能であることを示す。
本稿では,環境表現,接触報酬,シーンランダム化の3つの特徴について論じる。
論文 参考訳(メタデータ) (2023-06-09T04:40:38Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - Synthesizing Physical Character-Scene Interactions [64.26035523518846]
仮想キャラクタとその周辺環境間のこのような相互作用を合成する必要がある。
本稿では,逆模倣学習と強化学習を用いて物理シミュレーション文字を学習するシステムを提案する。
我々のアプローチは、物理学に基づくキャラクターモーション生成を広い適用性に一歩近づいた。
論文 参考訳(メタデータ) (2023-02-02T05:21:32Z) - IMoS: Intent-Driven Full-Body Motion Synthesis for Human-Object
Interactions [69.95820880360345]
そこで本研究では,仮想人物の全身動作を3Dオブジェクトで合成する最初のフレームワークを提案する。
本システムでは,オブジェクトと仮想文字の関連意図を入力テキストとして記述する。
その結果, 80%以上のシナリオにおいて, 合成された全身運動は参加者よりリアルに見えることがわかった。
論文 参考訳(メタデータ) (2022-12-14T23:59:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。