論文の概要: Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset
- arxiv url: http://arxiv.org/abs/2510.16258v1
- Date: Fri, 17 Oct 2025 23:06:36 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 00:56:38.921234
- Title: Embody 3D: A Large-scale Multimodal Motion and Behavior Dataset
- Title(参考訳): Embody 3D: 大規模マルチモーダルモーションと行動データセット
- Authors: Claire McLean, Makenzie Meendering, Tristan Swartz, Orri Gabbay, Alexandra Olsen, Rachel Jacobs, Nicholas Rosen, Philippe de Bree, Tony Garcia, Gadsden Merrill, Jake Sandakly, Julia Buffalini, Neham Jain, Steven Krenn, Moneish Kumar, Dejan Markovic, Evonne Ng, Fabian Prada, Andrew Saba, Siwei Zhang, Vasu Agrawal, Tim Godisart, Alexander Richard, Michael Zollhoefer,
- Abstract要約: Embody 3Dは、439人の参加者から収集された500時間分の3Dモーションデータからなるマルチモーダルデータセットである。
データセットには、誘発された動き、手の動き、移動を含む、幅広い個人動作データが含まれている。
我々は,手の動きの追跡や身体形状,テキストアノテーション,参加者毎に別々の音声トラックなど,追跡された人間の動作を提供する。
- 参考スコア(独自算出の注目度): 64.37557018733408
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Codec Avatars Lab at Meta introduces Embody 3D, a multimodal dataset of 500 individual hours of 3D motion data from 439 participants collected in a multi-camera collection stage, amounting to over 54 million frames of tracked 3D motion. The dataset features a wide range of single-person motion data, including prompted motions, hand gestures, and locomotion; as well as multi-person behavioral and conversational data like discussions, conversations in different emotional states, collaborative activities, and co-living scenarios in an apartment-like space. We provide tracked human motion including hand tracking and body shape, text annotations, and a separate audio track for each participant.
- Abstract(参考訳): Codec Avatars Lab at Metaは、多カメラで収集された439人の参加者から500時間分の3Dモーションデータを収集したマルチモーダルデータセットであるEmbody 3Dを紹介した。
このデータセットは、刺激的な動き、手の動き、移動を含む幅広い個人の動きデータと、議論、異なる感情状態における会話、共同活動、アパートのような空間における共同生活シナリオといった、多人数の行動と会話のデータを備えている。
我々は,手の動きの追跡や身体形状,テキストアノテーション,参加者毎に別々の音声トラックなど,追跡された人間の動作を提供する。
関連論文リスト
- InterPose: Learning to Generate Human-Object Interactions from Large-Scale Web Videos [35.49253697710172]
自動動作抽出パイプラインを提案し,それを用いて対話に富んだ人間の動作を収集する。
新しいデータセットInterPoseは、人間の3D動作の73.8Kシーケンスと、人間と物体の相互作用を持つ45.8Kビデオから自動的に得られる対応するテキストキャプションを含んでいる。
論文 参考訳(メタデータ) (2025-08-31T09:38:59Z) - HOT3D: Hand and Object Tracking in 3D from Egocentric Multi-View Videos [9.513100627302755]
データセットには833分(3.7M+画像)以上の記録があり、19人の被験者が33の多様な剛体物体と相互作用している。
記録には、エゴセントリックなマルチビューRGB/モノクロ画像、目視信号、シーンポイント雲、カメラ、手、オブジェクトの3Dポーズを含む複数の同期データストリームが含まれている。
実験では,3次元ハンドトラッキング,モデルベース6DoFオブジェクトポーズ推定,未知のインハンドオブジェクトの3次元持ち上げという3つの一般的なタスクに対して,マルチビュー・エゴセントリックデータの有効性を実証した。
論文 参考訳(メタデータ) (2024-11-28T14:09:42Z) - Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild [66.34146236875822]
ニメリアデータセット(Nymeria dataset)は、複数のマルチモーダル・エゴセントリックなデバイスで野生で収集された、大規模で多様な、多彩な注釈付けされた人間のモーションデータセットである。
合計で399Kmを走行し、50か所にわたる264人の参加者から毎日300時間の録音を1200件記録している。
動作言語記述は、語彙サイズ6545の8.64万語で310.5K文を提供する。
論文 参考訳(メタデータ) (2024-06-14T10:23:53Z) - ParaHome: Parameterizing Everyday Home Activities Towards 3D Generative Modeling of Human-Object Interactions [10.364340631868322]
そこで我々は,人間と物体の動的3次元運動を,共通のホーム環境内で捉えるために設計したParaHomeシステムを紹介した。
我々のシステムは70台のRGBカメラとIMUベースのボディスーツやハンドモーションキャプチャーグローブなどのウェアラブルモーションキャプチャー装置を備えた多視点セットアップを備えている。
ParaHomeシステムを利用することで、38人の参加者とともに、207回のキャプチャで486分間のシーケンスを含む、新たな人間とオブジェクトのインタラクションデータセットを収集する。
論文 参考訳(メタデータ) (2024-01-18T18:59:58Z) - MultiPLY: A Multisensory Object-Centric Embodied Large Language Model in
3D World [55.878173953175356]
マルチ感覚を具現化した大規模言語モデルであるMultiPLYを提案する。
まず,500kデータからなる大規模マルチセンサインタラクションデータセットであるMultisensory Universeを収集する。
我々は,MultiPLYが多種多様な実施タスクを通じて,ベースラインを大きなマージンで上回ることを示す。
論文 参考訳(メタデータ) (2024-01-16T18:59:45Z) - Revisit Human-Scene Interaction via Space Occupancy [55.67657438543008]
HSI(Human-Scene Interaction)の生成は、さまざまな下流タスクに不可欠な課題である。
本研究では,シーンとのインタラクションが,抽象的な物理的視点からシーンの空間占有と本質的に相互作用していることを論じる。
純粋な動きシーケンスを、見えないシーン占有と相互作用する人間の記録として扱うことで、動きのみのデータを大規模にペア化された人間-占有相互作用データベースに集約することができる。
論文 参考訳(メタデータ) (2023-12-05T12:03:00Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。