論文の概要: VersatileGait: A Large-Scale Synthetic Gait Dataset Towards in-the-Wild
Simulation
- arxiv url: http://arxiv.org/abs/2105.14421v1
- Date: Sun, 30 May 2021 03:39:53 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-01 17:14:31.572807
- Title: VersatileGait: A Large-Scale Synthetic Gait Dataset Towards in-the-Wild
Simulation
- Title(参考訳): VersatileGait:Wildシミュレーションに向けた大規模合成ゲイトデータセット
- Authors: Pengyi Zhang, Huanzhang Dou, Wenhu Zhang, Yuhan Zhao, Songyuan Li,
Zequn Qin, Xi Li
- Abstract要約: 我々は、制御可能なコンピュータシミュレーションの助けを借りて、大規模な歩行データセットを構築した。
多様な属性を持つ多数の文字を生成し、様々なタイプの歩行スタイルでそれらを強化する。
その結果、100万以上のシルエット配列を持つVersatileGaitと呼ばれる、Wildの歩行データセットが得られた。
- 参考スコア(独自算出の注目度): 11.492806346057156
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gait recognition has a rapid development in recent years. However, gait
recognition in the wild is not well explored yet. An obvious reason could be
ascribed to the lack of diverse training data from the perspective of intrinsic
and extrinsic factors. To remedy this problem, we propose to construct a
large-scale gait dataset with the help of controllable computer simulation. In
detail, to diversify the intrinsic factors of gait, we generate numerous
characters with diverse attributes and empower them with various types of
walking styles. To diversify the extrinsic factors of gait, we build a
complicated scene with a dense camera layout. Finally, we design an automated
generation toolkit under Unity3D for simulating the walking scenario and
capturing the gait data automatically. As a result, we obtain an in-the-wild
gait dataset, called VersatileGait, which has more than one million silhouette
sequences of 10,000 subjects with diverse scenarios. VersatileGait possesses
several nice properties, including huge dataset size, diverse pedestrian
attributes, complicated camera layout, high-quality annotations, small domain
gap with the real one, good scalability for new demands, and no privacy issues.
Based on VersatileGait, we propose series of experiments and applications for
both research exploration of gait in the wild and practical applications. Our
dataset and its corresponding generation toolkit will be publicly available for
further studies.
- Abstract(参考訳): 近年,歩行認識が急速に進展している。
しかし、野生での歩行認識はまだ十分に研究されていない。
明らかな理由は、本質的および外生的要因の観点からの多様なトレーニングデータが欠如していることにある。
この問題を解決するために,制御可能なコンピュータシミュレーションを用いて大規模歩行データセットを構築することを提案する。
詳しくは,歩行の本質的要因を多様化するために,多様な属性を持つ多数のキャラクターを生成し,様々なタイプの歩行スタイルを付与する。
歩行の外部要因を多様化するために,高密度カメラレイアウトの複雑なシーンを構築する。
最後に、歩行シナリオをシミュレーションし、歩行データを自動キャプチャする自動生成ツールキットをUnity3Dで設計する。
その結果,多種多様なシナリオを持つ1万件の被験者のシルエット配列を100万件以上持つVersatileGaitという,Wildの歩行データセットが得られた。
versatilegaitには、巨大なデータセットサイズ、多様な歩行者属性、複雑なカメラレイアウト、高品質なアノテーション、実際のドメイン間隙、新しい要求に対する優れたスケーラビリティ、プライバシ問題のない、いくつかの優れた特性があります。
versatilegaitを基盤として,野生の歩行研究と実用研究の両面において,一連の実験と応用を提案する。
我々のデータセットとその生成ツールキットは、さらなる研究のために公開されます。
関連論文リスト
- A Multitask Deep Learning Model for Classification and Regression of Hyperspectral Images: Application to the large-scale dataset [44.94304541427113]
ハイパースペクトル画像上で複数の分類タスクと回帰タスクを同時に行うマルチタスク深層学習モデルを提案する。
我々は、TAIGAと呼ばれる大規模なハイパースペクトルデータセットに対するアプローチを検証した。
結果の総合的定性的および定量的分析により,提案手法が他の最先端手法よりも有意に優れていることを示す。
論文 参考訳(メタデータ) (2024-07-23T11:14:54Z) - TRoVE: Transforming Road Scene Datasets into Photorealistic Virtual
Environments [84.6017003787244]
本研究では、シミュレーションデータセットに存在する困難とドメインギャップに対処する合成データ生成パイプラインを提案する。
既存のデータセットからアノテーションや視覚的手がかりを利用すれば、自動マルチモーダルデータ生成が容易になることを示す。
論文 参考訳(メタデータ) (2022-08-16T20:46:08Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Scene-Aware
Ambidextrous Bin Picking via Physics-based Metaverse Synthesis [72.85526892440251]
本稿では,物理に基づくメタバース合成により構築した大規模写真リアリスティックビンピックデータセットであるMetaGraspNetを紹介する。
提案データセットは,82種類の記事に対して217kのRGBD画像を含み,オブジェクト検出,アモーダル認識,キーポイント検出,操作順序,および並列ジャウと真空グリップパー用のアンビデクストグリップラベルの完全なアノテーションを備える。
また,2.3k以上の完全アノテートされた高品質なRGBD画像からなる実際のデータセットを5段階の難易度と,異なるオブジェクトおよびレイアウト特性を評価するための見えないオブジェクトセットに分割する。
論文 参考訳(メタデータ) (2022-08-08T08:15:34Z) - MetaGraspNet: A Large-Scale Benchmark Dataset for Vision-driven Robotic
Grasping via Physics-based Metaverse Synthesis [78.26022688167133]
本稿では,物理に基づくメタバース合成による視覚駆動型ロボットグルーピングのための大規模ベンチマークデータセットを提案する。
提案するデータセットには,10万の画像と25種類のオブジェクトが含まれている。
また,オブジェクト検出とセグメンテーション性能を評価するためのデータセットとともに,新しいレイアウト重み付け性能指標を提案する。
論文 参考訳(メタデータ) (2021-12-29T17:23:24Z) - Towards Optimal Strategies for Training Self-Driving Perception Models
in Simulation [98.51313127382937]
合成ドメインのみにおけるラベルの使用に焦点を当てる。
提案手法では,ニューラル不変表現の学習方法と,シミュレータからデータをサンプリングする方法に関する理論的にインスピレーションを得た視点を導入する。
マルチセンサーデータを用いた鳥眼視車両分割作業におけるアプローチについて紹介する。
論文 参考訳(メタデータ) (2021-11-15T18:37:43Z) - Diverse Complexity Measures for Dataset Curation in Self-driving [80.55417232642124]
トラフィックシーンの面白さを定量化する多様な基準を活用した新たなデータ選択手法を提案する。
実験の結果,提案するキュレーションパイプラインは,より汎用的で高いパフォーマンスをもたらすデータセットを選択できることが判明した。
論文 参考訳(メタデータ) (2021-01-16T23:45:02Z) - VersatileGait: A Large-Scale Synthetic Gait Dataset with
Fine-GrainedAttributes and Complicated Scenarios [16.26581300428201]
本稿では,ゲームエンジンによる大規模な合成歩行データセット(VersatileGait)の自動生成を提案する。
VersatileGaitデータセットは、さまざまな複雑なシナリオできめ細かい属性を持つ11,000人の約100万のシルエットシーケンスで構成されています。
広範な実験により,提案手法の歩容認識における有用性とその応用性が実証された。
論文 参考訳(メタデータ) (2021-01-05T07:45:12Z) - TAO: A Large-Scale Benchmark for Tracking Any Object [95.87310116010185]
オブジェクトのデータセットの追跡は2,907本の高解像度ビデオで構成され、平均で30分の長さの多様な環境でキャプチャされる。
ビデオの任意の時点で移動するオブジェクトにアノテータにラベルを付け、ファクトラムの後に名前を付けるように求めます。
我々の語彙は、既存の追跡データセットと著しく大きく、質的に異なる。
論文 参考訳(メタデータ) (2020-05-20T21:07:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。