論文の概要: CIRCLE: Capture In Rich Contextual Environments
- arxiv url: http://arxiv.org/abs/2303.17912v1
- Date: Fri, 31 Mar 2023 09:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:42:46.434066
- Title: CIRCLE: Capture In Rich Contextual Environments
- Title(参考訳): CIRCLE: リッチなコンテキスト環境のキャプチャ
- Authors: Joao Pedro Araujo, Jiaman Li, Karthik Vetrivel, Rishi Agarwal, Deepak
Gopinath, Jiajun Wu, Alexander Clegg, C. Karen Liu
- Abstract要約: そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
- 参考スコア(独自算出の注目度): 69.97976304918149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Synthesizing 3D human motion in a contextual, ecological environment is
important for simulating realistic activities people perform in the real world.
However, conventional optics-based motion capture systems are not suited for
simultaneously capturing human movements and complex scenes. The lack of rich
contextual 3D human motion datasets presents a roadblock to creating
high-quality generative human motion models. We propose a novel motion
acquisition system in which the actor perceives and operates in a highly
contextual virtual world while being motion captured in the real world. Our
system enables rapid collection of high-quality human motion in highly diverse
scenes, without the concern of occlusion or the need for physical scene
construction in the real world. We present CIRCLE, a dataset containing 10
hours of full-body reaching motion from 5 subjects across nine scenes, paired
with ego-centric information of the environment represented in various forms,
such as RGBD videos. We use this dataset to train a model that generates human
motion conditioned on scene information. Leveraging our dataset, the model
learns to use ego-centric scene information to achieve nontrivial reaching
tasks in the context of complex 3D scenes. To download the data please visit
https://stanford-tml.github.io/circle_dataset/.
- Abstract(参考訳): 環境環境下での3次元人間の動きの合成は、人々が現実世界で行う現実的な活動をシミュレートする上で重要である。
しかし、従来の光学式モーションキャプチャシステムは、人間の動きと複雑なシーンを同時に捉えるには向いていない。
リッチなコンテキストによる人間のモーションデータセットの欠如は、高品質な生成人間のモーションモデルを作成するための障害となる。
本稿では,実世界の動きを捉えながら,高度にコンテクストな仮想空間を知覚し,操作する新たな動き獲得システムを提案する。
本システムにより,実世界の物理的なシーン構築を必要とせずに,高度に多様なシーンにおける高品質な人間の動きの迅速な収集が可能となった。
今回紹介するcircleは,5人の被験者から10時間のフルボディ到達動作を含むデータセットで,rgbdビデオなど,さまざまな形式で表現された環境のエゴセントリックな情報と組み合わせたものだ。
このデータセットを使用して,シーン情報に基づくヒューマンモーションを生成するモデルをトレーニングする。
データセットを活用することで、複雑な3Dシーンのコンテキストにおいて、エゴ中心のシーン情報を使用して、非自明な到達タスクを達成することができる。
データのダウンロードはhttps://stanford-tml.github.io/circle_dataset/を参照。
関連論文リスト
- Generating Human Interaction Motions in Scenes with Text Control [66.74298145999909]
本稿では,デノナイズ拡散モデルに基づくテキスト制御されたシーン認識動作生成手法TeSMoを提案する。
我々のアプローチは、シーンに依存しないテキスト-モーション拡散モデルの事前学習から始まります。
トレーニングを容易にするため,シーン内に注釈付きナビゲーションと対話動作を組み込む。
論文 参考訳(メタデータ) (2024-04-16T16:04:38Z) - LaserHuman: Language-guided Scene-aware Human Motion Generation in Free Environment [27.38638713080283]
我々は,Scene-Text-to-Motion研究に革命をもたらすために設計された,先駆的なデータセットであるLaserHumanを紹介する。
LaserHumanは、本物の人間の動きを3D環境に含めることで際立っている。
本稿では,既存のデータセット上での最先端性能を実現するための多条件拡散モデルを提案する。
論文 参考訳(メタデータ) (2024-03-20T05:11:10Z) - ParaHome: Parameterizing Everyday Home Activities Towards 3D Generative
Modeling of Human-Object Interactions [11.32229757116179]
そこで我々は,人間と物体の動的3次元運動を,共通のホーム環境内で捉えるために設計されたParaHomeシステムを紹介した。
ParaHomeシステムを利用することで、人間と物体の相互作用の大規模なデータセットを収集する。
論文 参考訳(メタデータ) (2024-01-18T18:59:58Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - Synthesizing Diverse Human Motions in 3D Indoor Scenes [16.948649870341782]
そこで本研究では,仮想人間による3次元屋内シーンの映像化手法を提案する。
既存のアプローチは、キャプチャーされた人間の動きと、それらが相互作用する3Dシーンを含むトレーニングシーケンスに依存している。
仮想人間が3Dシーンをナビゲートし、現実的かつ自律的にオブジェクトと対話できる強化学習ベースのアプローチを提案する。
論文 参考訳(メタデータ) (2023-05-21T09:22:24Z) - HUMANISE: Language-conditioned Human Motion Generation in 3D Scenes [54.61610144668777]
本稿では,3次元シーンで3次元人間の動きを生成できる新しいシーン・アンド・ランゲージ・コンディショニング・ジェネレーション・モデルを提案する。
実験により,我々のモデルは3次元シーンにおいて多様で意味的に一貫した人間の動きを生成できることを示した。
論文 参考訳(メタデータ) (2022-10-18T10:14:11Z) - HSPACE: Synthetic Parametric Humans Animated in Complex Environments [67.8628917474705]
我々は、複雑な屋内および屋外環境に置かれたアニメーション人間による大規模な写真リアルデータセット、Human-SPACEを構築した。
年齢、性別、比率、民族性の異なる数百の個人と数百の動きとシーンを組み合わせて、100万フレームを超える最初のデータセットを生成します。
アセットは大規模に自動生成され、既存のリアルタイムレンダリングやゲームエンジンと互換性がある。
論文 参考訳(メタデータ) (2021-12-23T22:27:55Z) - Stochastic Scene-Aware Motion Prediction [41.6104600038666]
本稿では,対象物に対して所定の動作を行う異なるスタイルをモデル化する,データ駆動合成動作法を提案する。
SAMP (Scene Aware Motion Prediction) と呼ばれる本手法は, 様々なジオメトリ対象を対象とし, キャラクタが散らばったシーンで移動できるように一般化する。
論文 参考訳(メタデータ) (2021-08-18T17:56:17Z) - iGibson, a Simulation Environment for Interactive Tasks in Large
Realistic Scenes [54.04456391489063]
iGibsonは、大規模な現実的なシーンにおける対話的なタスクのためのロボットソリューションを開発するための、新しいシミュレーション環境である。
私たちの環境には、厳密で明瞭な物体が密集した15のインタラクティブなホームサイズシーンが含まれています。
iGibsonの機能はナビゲーションエージェントの一般化を可能にし、人間-iGibsonインターフェースと統合されたモーションプランナーは、単純な人間の実演行動の効率的な模倣学習を促進する。
論文 参考訳(メタデータ) (2020-12-05T02:14:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。