論文の概要: MoVi: A Large Multipurpose Motion and Video Dataset
- arxiv url: http://arxiv.org/abs/2003.01888v1
- Date: Wed, 4 Mar 2020 04:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:59:51.152282
- Title: MoVi: A Large Multipurpose Motion and Video Dataset
- Title(参考訳): MoVi: 大規模な多目的モーションとビデオデータセット
- Authors: Saeed Ghorbani, Kimia Mahdaviani, Anne Thaler, Konrad Kording, Douglas
James Cook, Gunnar Blohm, Nikolaus F. Troje
- Abstract要約: 我々は、新しい人間のモーション・アンド・ビデオデータセットであるMoViを導入し、公開しました。
女性60名、男性30名、常連20名、スポーツ1名、自徴1名である。
私たちのデータセットには、合計9時間のモーションキャプチャーデータと、4つの異なる視点からの17時間のビデオデータと6.6時間のIMUデータが含まれています。
- 参考スコア(独自算出の注目度): 2.1473872586625298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human movements are both an area of intense study and the basis of many
applications such as character animation. For many applications, it is crucial
to identify movements from videos or analyze datasets of movements. Here we
introduce a new human Motion and Video dataset MoVi, which we make available
publicly. It contains 60 female and 30 male actors performing a collection of
20 predefined everyday actions and sports movements, and one self-chosen
movement. In five capture rounds, the same actors and movements were recorded
using different hardware systems, including an optical motion capture system,
video cameras, and inertial measurement units (IMU). For some of the capture
rounds, the actors were recorded when wearing natural clothing, for the other
rounds they wore minimal clothing. In total, our dataset contains 9 hours of
motion capture data, 17 hours of video data from 4 different points of view
(including one hand-held camera), and 6.6 hours of IMU data. In this paper, we
describe how the dataset was collected and post-processed; We present
state-of-the-art estimates of skeletal motions and full-body shape deformations
associated with skeletal motion. We discuss examples for potential studies this
dataset could enable.
- Abstract(参考訳): 人間の動きは激しい研究の領域であり、キャラクターアニメーションのような多くの応用の基礎でもある。
多くのアプリケーションでは、動画からの動きを特定したり、動きのデータセットを分析することが重要です。
ここでは、新しいヒューマンモーションとビデオのデータセットであるMoViを紹介します。
60人の女性と30人の男性俳優が、あらかじめ定義された20の日常的な行動とスポーツ運動の収集を行い、また1人の自選運動を行う。
5回の捕獲ラウンドでは、光学式モーションキャプチャシステム、ビデオカメラ、慣性測定ユニット(imu)など、異なるハードウェアシステムを使用して同じアクターと動きが記録された。
捕獲ラウンドの一部では、俳優が自然服を着ているときに録音され、他のラウンドは最小限の服を着ていた。
私たちのデータセットには、9時間のモーションキャプチャーデータと、4つの異なる視点(ハンドヘルドカメラを含む)からの17時間のビデオデータと6.6時間のIMUデータが含まれています。
本稿では,データセットの収集と後処理について述べるとともに,骨格運動に伴う骨格運動と全身形状変形の最先端推定について述べる。
このデータセットが実現可能な潜在的研究の例について論じる。
関連論文リスト
- Motion Prompting: Controlling Video Generation with Motion Trajectories [57.049252242807874]
スパースもしくは高密度なビデオ軌跡を条件とした映像生成モデルを訓練する。
ハイレベルなユーザリクエストを,詳細なセミセンスな動作プロンプトに変換する。
我々は、カメラや物体の動き制御、画像との「相互作用」、動画転送、画像編集など、様々な応用を通してアプローチを実証する。
論文 参考訳(メタデータ) (2024-12-03T18:59:56Z) - Motion Modes: What Could Happen Next? [45.24111039863531]
現在のビデオ生成モデルは、しばしばカメラの動きや他のシーンの変化とオブジェクトの動きを絡ませる。
我々は、事前訓練された画像間ジェネレータの潜伏分布を探索する、トレーニング不要なアプローチであるMotion Modesを紹介する。
我々は、物体とカメラの動きを歪ませるように設計されたエネルギー関数で導かれたフロージェネレータを用いてこれを実現する。
論文 参考訳(メタデータ) (2024-11-29T01:51:08Z) - ViMo: Generating Motions from Casual Videos [34.19904765033005]
ビデオから動画へ生成する新しいフレームワーク(ViMo)を提案する。
ViMoは、未完成のビデオコンテンツの膨大な量を生かして、多種多様な3Dモーションを作り出すことができる。
実験結果から、高速な動き、様々な視点、あるいは頻繁なオクルージョンが存在するビデオであっても、提案モデルが自然な動きを生成できることを示した。
論文 参考訳(メタデータ) (2024-08-13T03:57:35Z) - HumanVid: Demystifying Training Data for Camera-controllable Human Image Animation [64.37874983401221]
人間の画像アニメーションに適した,最初の大規模高品質データセットであるHumanVidを紹介する。
実世界のデータについては、インターネットから大量の実世界のビデオをコンパイルします。
合成データとして,10K3Dアバターを収集し,体形,肌のテクスチャ,衣服などの既存の資産を利用した。
論文 参考訳(メタデータ) (2024-07-24T17:15:58Z) - Nymeria: A Massive Collection of Multimodal Egocentric Daily Motion in the Wild [66.34146236875822]
ニメリアデータセット(Nymeria dataset)は、複数のマルチモーダル・エゴセントリックなデバイスで野生で収集された、大規模で多様な、多彩な注釈付けされた人間のモーションデータセットである。
合計で399Kmを走行し、50か所にわたる264人の参加者から毎日300時間の録音を1200件記録している。
動作言語記述は、語彙サイズ6545の8.64万語で310.5K文を提供する。
論文 参考訳(メタデータ) (2024-06-14T10:23:53Z) - Pose-to-Motion: Cross-Domain Motion Retargeting with Pose Prior [48.104051952928465]
現在の学習に基づく動き合成法は、広範囲な動きデータセットに依存する。
ポーズデータは作成が容易で、画像から抽出することもできるため、よりアクセスしやすい。
提案手法は,他のキャラクタの既存のモーションキャプチャーデータセットから動きを転送することで,データのみをポーズするキャラクタに対する可塑性モーションを生成する。
論文 参考訳(メタデータ) (2023-10-31T08:13:00Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - 4DHumanOutfit: a multi-subject 4D dataset of human motion sequences in
varying outfits exhibiting large displacements [19.538122092286894]
4DHumanOutfitは、さまざまなアクター、衣装、動きの、高密度にサンプリングされた時間的4D人間のデータのデータセットを提示する。
データセットは、アイデンティティ、衣装、動きを伴う3つの軸に沿って4次元のモーションシーケンスを含むデータのキューブとして見ることができます。
このリッチデータセットは、デジタルヒューマンの処理と作成に多くの潜在的な応用がある。
論文 参考訳(メタデータ) (2023-06-12T19:59:27Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。