論文の概要: PeopleSansPeople: A Synthetic Data Generator for Human-Centric Computer
Vision
- arxiv url: http://arxiv.org/abs/2112.09290v1
- Date: Fri, 17 Dec 2021 02:33:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-20 13:19:36.617228
- Title: PeopleSansPeople: A Synthetic Data Generator for Human-Centric Computer
Vision
- Title(参考訳): PeopleSansPeople:人間中心のコンピュータビジョンのための合成データジェネレータ
- Authors: Salehe Erfanian Ebadi, You-Cyuan Jhang, Alex Zook, Saurav Dhakad, Adam
Crespi, Pete Parisi, Steven Borkman, Jonathan Hogins, Sujoy Ganguly
- Abstract要約: 我々は人間中心の合成データ生成装置 PeopleSansPeople をリリースする。
シミュレーション可能な3Dアセット、パラメータ化照明とカメラシステム、および2Dおよび3Dバウンディングボックス、インスタンスとセマンティックセグメンテーション、COCOポーズラベルを生成する。
- 参考スコア(独自算出の注目度): 3.5694949627557846
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, person detection and human pose estimation have made great
strides, helped by large-scale labeled datasets. However, these datasets had no
guarantees or analysis of human activities, poses, or context diversity.
Additionally, privacy, legal, safety, and ethical concerns may limit the
ability to collect more human data. An emerging alternative to real-world data
that alleviates some of these issues is synthetic data. However, creation of
synthetic data generators is incredibly challenging and prevents researchers
from exploring their usefulness. Therefore, we release a human-centric
synthetic data generator PeopleSansPeople which contains simulation-ready 3D
human assets, a parameterized lighting and camera system, and generates 2D and
3D bounding box, instance and semantic segmentation, and COCO pose labels.
Using PeopleSansPeople, we performed benchmark synthetic data training using a
Detectron2 Keypoint R-CNN variant [1]. We found that pre-training a network
using synthetic data and fine-tuning on target real-world data (few-shot
transfer to limited subsets of COCO-person train [2]) resulted in a keypoint AP
of $60.37 \pm 0.48$ (COCO test-dev2017) outperforming models trained with the
same real data alone (keypoint AP of $55.80$) and pre-trained with ImageNet
(keypoint AP of $57.50$). This freely-available data generator should enable a
wide range of research into the emerging field of simulation to real transfer
learning in the critical area of human-centric computer vision.
- Abstract(参考訳): 近年、人検出と人間のポーズ推定は、大規模ラベル付きデータセットによって大きく進歩している。
しかし、これらのデータセットには人間の活動、ポーズ、文脈の多様性の保証や分析はありませんでした。
さらに、プライバシー、法的、安全、倫理的な懸念は、より多くの人間データを収集する能力を制限する可能性がある。
現実のデータに代わる新たな選択肢として、合成データがある。
しかし、合成データジェネレータの作成は非常に困難であり、研究者がその有用性を探ることができない。
そこで我々は,シミュレーション可能な3次元人的資産,パラメタライズドライティングとカメラシステム,2Dおよび3Dバウンディングボックス,インスタンスとセマンティックセグメンテーション,COCOポーズラベルを含む,人間中心の合成データ生成装置PeopleSansPeopleをリリースした。
我々はpeoplesanspeopleを用いて detectionron2 keypoint r-cnn variant [1] を用いてベンチマーク合成データトレーニングを行った。
その結果, 合成データを用いてネットワークを事前トレーニングし, ターゲットの実世界データ(COCO-人列車[2]の限定サブセットへのショット転送)を微調整すると, キーポイントAPが60.37 \pm 0.48$ (COCO test-dev2017) となり, 同じ実データでトレーニングされたモデル(keypoint APが55.80$) とImageNet(keypoint APが57.50$) で事前トレーニングされたモデルよりも優れていた。
このフリーで利用可能なデータ生成装置は、人間中心のコンピュータビジョンの重要な領域において、シミュレーションの分野から実際の移動学習まで、幅広い研究を可能にする。
関連論文リスト
- From Gaming to Research: GTA V for Synthetic Data Generation for Robotics and Navigations [2.7383830691749163]
ビデオゲームGrand Theft Auto V(GTA V)の仮想環境を利用した合成データセットを提案する。
我々は,GTA Vから得られた合成データが実世界のデータと質的に比較できることを示した。
論文 参考訳(メタデータ) (2025-02-17T20:22:52Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - Synthetic data, real errors: how (not) to publish and use synthetic data [86.65594304109567]
生成過程が下流MLタスクにどのように影響するかを示す。
本稿では、生成プロセスモデルパラメータの後方分布を近似するために、Deep Generative Ensemble (DGE)を導入する。
論文 参考訳(メタデータ) (2023-05-16T07:30:29Z) - Synthetic Data-based Detection of Zebras in Drone Imagery [0.8249180979158817]
本稿では,人工データのみを用いて動物探知機を訓練する手法を提案する。
データセットには、RGB、深さ、骨格関節位置、ポーズ、形状、各被験者のインスタンスセグメンテーションが含まれる。
学習中に人工データのみを用いてゼブラを検出できることを示す。
論文 参考訳(メタデータ) (2023-04-30T09:24:31Z) - SynBody: Synthetic Dataset with Layered Human Models for 3D Human
Perception and Modeling [93.60731530276911]
我々は3つの魅力的な特徴を持つ新しい合成データセット、SynBodyを紹介した。
データセットは、正確な3Dアノテーションを備えた1.2Mイメージで構成され、1万の人体モデル、1,187のアクション、さまざまな視点をカバーしている。
論文 参考訳(メタデータ) (2023-03-30T13:30:12Z) - A New Benchmark: On the Utility of Synthetic Data with Blender for Bare
Supervised Learning and Downstream Domain Adaptation [42.2398858786125]
コンピュータビジョンにおけるディープラーニングは、大規模ラベル付きトレーニングデータの価格で大きな成功を収めた。
制御不能なデータ収集プロセスは、望ましくない重複が存在する可能性のある非IIDトレーニングおよびテストデータを生成する。
これを回避するために、ドメインランダム化による3Dレンダリングによる合成データを生成する方法がある。
論文 参考訳(メタデータ) (2023-03-16T09:03:52Z) - Video-based Pose-Estimation Data as Source for Transfer Learning in
Human Activity Recognition [71.91734471596433]
オンボディデバイスを用いたヒューマンアクティビティ認識(HAR)は、制約のない環境での特定の人間の行動を特定する。
これまでの研究は、トランスファーラーニングが、少ないデータでシナリオに対処するための良い戦略であることを実証した。
本稿では,人為的位置推定を目的としたデータセットを伝達学習の情報源として用いることを提案する。
論文 参考訳(メタデータ) (2022-12-02T18:19:36Z) - GIPSO: Geometrically Informed Propagation for Online Adaptation in 3D
LiDAR Segmentation [60.07812405063708]
3Dポイントクラウドセマンティックセグメンテーションは、自動運転に基本である。
文学におけるほとんどのアプローチは、動的シーンを扱う際に、ドメインシフトをどのように扱うかという重要な側面を無視している。
本稿では,本研究分野における最先端技術について述べる。
論文 参考訳(メタデータ) (2022-07-20T09:06:07Z) - Hands-Up: Leveraging Synthetic Data for Hands-On-Wheel Detection [0.38233569758620045]
この研究は、ドライバモニタリングシステムのトレーニングに合成フォトリアリスティックインキャビンデータを使用することを実証する。
プラットフォームでエラー解析を行い、欠落したエッジケースを生成することで、パフォーマンスが向上することを示す。
これは、人間中心の合成データが現実世界にうまく一般化する能力を示している。
論文 参考訳(メタデータ) (2022-05-31T23:34:12Z) - StyleGAN-Human: A Data-Centric Odyssey of Human Generation [96.7080874757475]
この研究は、データ中心の観点から、"データエンジニアリング"における複数の重要な側面を調査します。
さまざまなポーズやテクスチャを抽出した230万以上のサンプルで、大規模な人間の画像データセットを収集し、注釈付けします。
本稿では,データサイズ,データ分布,データアライメントといった,スタイルGANに基づく人為的生成のためのデータ工学における3つの重要な要素について精査する。
論文 参考訳(メタデータ) (2022-04-25T17:55:08Z) - Fake It Till You Make It: Face analysis in the wild using synthetic data
alone [9.081019005437309]
合成データだけで顔関連コンピュータビジョンを野生で実行可能であることを示す。
本稿では、手続き的に生成された3次元顔モデルと手作り資産の包括的ライブラリを組み合わせることで、前例のないリアリズムによるトレーニング画像のレンダリングを行う方法について述べる。
論文 参考訳(メタデータ) (2021-09-30T13:07:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。