論文の概要: MoVi: A Large Multipurpose Motion and Video Dataset
- arxiv url: http://arxiv.org/abs/2003.01888v1
- Date: Wed, 4 Mar 2020 04:43:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-26 12:59:51.152282
- Title: MoVi: A Large Multipurpose Motion and Video Dataset
- Title(参考訳): MoVi: 大規模な多目的モーションとビデオデータセット
- Authors: Saeed Ghorbani, Kimia Mahdaviani, Anne Thaler, Konrad Kording, Douglas
James Cook, Gunnar Blohm, Nikolaus F. Troje
- Abstract要約: 我々は、新しい人間のモーション・アンド・ビデオデータセットであるMoViを導入し、公開しました。
女性60名、男性30名、常連20名、スポーツ1名、自徴1名である。
私たちのデータセットには、合計9時間のモーションキャプチャーデータと、4つの異なる視点からの17時間のビデオデータと6.6時間のIMUデータが含まれています。
- 参考スコア(独自算出の注目度): 2.1473872586625298
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Human movements are both an area of intense study and the basis of many
applications such as character animation. For many applications, it is crucial
to identify movements from videos or analyze datasets of movements. Here we
introduce a new human Motion and Video dataset MoVi, which we make available
publicly. It contains 60 female and 30 male actors performing a collection of
20 predefined everyday actions and sports movements, and one self-chosen
movement. In five capture rounds, the same actors and movements were recorded
using different hardware systems, including an optical motion capture system,
video cameras, and inertial measurement units (IMU). For some of the capture
rounds, the actors were recorded when wearing natural clothing, for the other
rounds they wore minimal clothing. In total, our dataset contains 9 hours of
motion capture data, 17 hours of video data from 4 different points of view
(including one hand-held camera), and 6.6 hours of IMU data. In this paper, we
describe how the dataset was collected and post-processed; We present
state-of-the-art estimates of skeletal motions and full-body shape deformations
associated with skeletal motion. We discuss examples for potential studies this
dataset could enable.
- Abstract(参考訳): 人間の動きは激しい研究の領域であり、キャラクターアニメーションのような多くの応用の基礎でもある。
多くのアプリケーションでは、動画からの動きを特定したり、動きのデータセットを分析することが重要です。
ここでは、新しいヒューマンモーションとビデオのデータセットであるMoViを紹介します。
60人の女性と30人の男性俳優が、あらかじめ定義された20の日常的な行動とスポーツ運動の収集を行い、また1人の自選運動を行う。
5回の捕獲ラウンドでは、光学式モーションキャプチャシステム、ビデオカメラ、慣性測定ユニット(imu)など、異なるハードウェアシステムを使用して同じアクターと動きが記録された。
捕獲ラウンドの一部では、俳優が自然服を着ているときに録音され、他のラウンドは最小限の服を着ていた。
私たちのデータセットには、9時間のモーションキャプチャーデータと、4つの異なる視点(ハンドヘルドカメラを含む)からの17時間のビデオデータと6.6時間のIMUデータが含まれています。
本稿では,データセットの収集と後処理について述べるとともに,骨格運動に伴う骨格運動と全身形状変形の最先端推定について述べる。
このデータセットが実現可能な潜在的研究の例について論じる。
関連論文リスト
- Pose-to-Motion: Cross-Domain Motion Retargeting with Pose Prior [48.104051952928465]
現在の学習に基づく動き合成法は、広範囲な動きデータセットに依存する。
ポーズデータは作成が容易で、画像から抽出することもできるため、よりアクセスしやすい。
提案手法は,他のキャラクタの既存のモーションキャプチャーデータセットから動きを転送することで,データのみをポーズするキャラクタに対する可塑性モーションを生成する。
論文 参考訳(メタデータ) (2023-10-31T08:13:00Z) - Universal Humanoid Motion Representations for Physics-Based Control [74.53927919796139]
本稿では、ヒューマノイド制御のための総合的な運動スキルを含む普遍的な運動表現について述べる。
まず、大きな非構造運動データセットから人間の動きをすべて模倣できる動き模倣機を学習する。
次に、模倣者から直接スキルを蒸留することで、動作表現を作成します。
論文 参考訳(メタデータ) (2023-10-06T20:48:43Z) - Physics-based Motion Retargeting from Sparse Inputs [73.94570049637717]
商用AR/VR製品はヘッドセットとコントローラーのみで構成されており、ユーザーのポーズのセンサーデータは非常に限られている。
本研究では, 多様な形態のキャラクタに対して, 粗い人間のセンサデータからリアルタイムに動きをターゲットする手法を提案する。
アバターのポーズは、下半身のセンサー情報がないにもかかわらず、驚くほどよくユーザと一致していることを示す。
論文 参考訳(メタデータ) (2023-07-04T21:57:05Z) - 4DHumanOutfit: a multi-subject 4D dataset of human motion sequences in
varying outfits exhibiting large displacements [19.538122092286894]
4DHumanOutfitは、さまざまなアクター、衣装、動きの、高密度にサンプリングされた時間的4D人間のデータのデータセットを提示する。
データセットは、アイデンティティ、衣装、動きを伴う3つの軸に沿って4次元のモーションシーケンスを含むデータのキューブとして見ることができます。
このリッチデータセットは、デジタルヒューマンの処理と作成に多くの潜在的な応用がある。
論文 参考訳(メタデータ) (2023-06-12T19:59:27Z) - CIRCLE: Capture In Rich Contextual Environments [69.97976304918149]
そこで我々は,アクターが仮想世界において知覚し,操作する新たな動き獲得システムを提案する。
9つのシーンにわたる5人の被験者から10時間のフルボディ到達動作を含むデータセットであるCIRCLEを提示する。
このデータセットを用いて、シーン情報に基づいて人間の動きを生成するモデルを訓練する。
論文 参考訳(メタデータ) (2023-03-31T09:18:12Z) - Multimodal video and IMU kinematic dataset on daily life activities
using affordable devices (VIDIMU) [0.0]
本データセットの目的は,日常活動の認識と運動解析のために,手頃な価格の患者総運動追跡ソリューションへの道を開くことである。
i)選択した運動の臨床的関連性、(ii)安価なビデオとカスタムセンサーの併用、(iii)3Dボディのポーズ追跡とモーション再構成のマルチモーダルデータ処理のための最先端ツールの実装。
論文 参考訳(メタデータ) (2023-03-27T14:05:49Z) - EVIMO2: An Event Camera Dataset for Motion Segmentation, Optical Flow,
Structure from Motion, and Visual Inertial Odometry in Indoor Scenes with
Monocular or Stereo Algorithms [10.058432912712396]
データセットは640$times$480のイベントカメラから41分のデータと、2080$times$1552のクラシックカラーカメラで構成されている。
データセットの173のシーケンスは3つのカテゴリに分けられる。
いくつかのシーケンスは、従来のカメラが故障した低照度環境で記録された。
論文 参考訳(メタデータ) (2022-05-06T20:09:18Z) - Learning Motion Priors for 4D Human Body Capture in 3D Scenes [81.54377747405812]
LEMO: LEMO: LEARING Human Motion priors for 4D human body capture。
提案手法では, 連続して復元されたポーズによって現れるジッタを減少させる新規な動きを事前に導入する。
また, 接触摩擦項と, 物体ごとの自己監督訓練により得られる接触認識運動充填剤を設計した。
パイプラインでは、高品質な4D人体撮影、スムーズな動きの再構築、身体とシーンの相互作用を実演しています。
論文 参考訳(メタデータ) (2021-08-23T20:47:09Z) - Human in Events: A Large-Scale Benchmark for Human-centric Video
Analysis in Complex Events [106.19047816743988]
我々は、Human-in-Events(Human-in-Events)またはHiEve(HiEve)という、包括的なアノテーションを備えた新しい大規模データセットを提案する。
これには、複雑なイベントにおけるアクションインスタンスの最大数(>56k)と、長時間続くトラジェクトリの最大数(>1M)が含まれている。
多様なアノテーションに基づいて、アクション認識とポーズ推定のための2つのシンプルなベースラインを提示する。
論文 参考訳(メタデータ) (2020-05-09T18:24:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。