論文の概要: Fake It Till You Make It: Face analysis in the wild using synthetic data
alone
- arxiv url: http://arxiv.org/abs/2109.15102v1
- Date: Thu, 30 Sep 2021 13:07:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-01 14:50:57.777544
- Title: Fake It Till You Make It: Face analysis in the wild using synthetic data
alone
- Title(参考訳): 作り出すまで偽物:合成データだけで野生の顔分析
- Authors: Erroll Wood, Tadas Baltru\v{s}aitis, Charlie Hewitt, Sebastian
Dziadzio, Matthew Johnson, Virginia Estellers, Thomas J. Cashman, Jamie
Shotton
- Abstract要約: 合成データだけで顔関連コンピュータビジョンを野生で実行可能であることを示す。
本稿では、手続き的に生成された3次元顔モデルと手作り資産の包括的ライブラリを組み合わせることで、前例のないリアリズムによるトレーニング画像のレンダリングを行う方法について述べる。
- 参考スコア(独自算出の注目度): 9.081019005437309
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: We demonstrate that it is possible to perform face-related computer vision in
the wild using synthetic data alone. The community has long enjoyed the
benefits of synthesizing training data with graphics, but the domain gap
between real and synthetic data has remained a problem, especially for human
faces. Researchers have tried to bridge this gap with data mixing, domain
adaptation, and domain-adversarial training, but we show that it is possible to
synthesize data with minimal domain gap, so that models trained on synthetic
data generalize to real in-the-wild datasets. We describe how to combine a
procedurally-generated parametric 3D face model with a comprehensive library of
hand-crafted assets to render training images with unprecedented realism and
diversity. We train machine learning systems for face-related tasks such as
landmark localization and face parsing, showing that synthetic data can both
match real data in accuracy as well as open up new approaches where manual
labelling would be impossible.
- Abstract(参考訳): 本研究では,合成データだけで顔関連コンピュータビジョンを野生で実行できることを実証する。
コミュニティは長年、トレーニングデータをグラフィックで合成するメリットを享受してきたが、リアルデータと合成データのドメイン間ギャップは、特に人間の顔では問題となっている。
研究者は、このギャップをデータ混合、ドメイン適応、ドメイン敵訓練で橋渡ししようとしたが、最小のドメインギャップでデータを合成することは可能であり、合成データで訓練されたモデルは実際のインザワイルドデータセットに一般化できることを示した。
本稿では、手続き的に生成されたパラメトリックな3次元顔モデルと手作り資産の包括的ライブラリを組み合わせることで、前例のないリアリズムと多様性を持つトレーニング画像をレンダリングする方法について述べる。
我々は、ランドマークのローカライゼーションや顔解析などの顔関連タスクのための機械学習システムを訓練し、合成データが実際のデータと精度で一致できることと、手動ラベリングが不可能な新しいアプローチを開放できることを示します。
関連論文リスト
- Unveiling Synthetic Faces: How Synthetic Datasets Can Expose Real Identities [22.8742248559748]
6つの最先端の合成顔認識データセットにおいて、元の実データからのサンプルが漏洩していることを示す。
本論文は,ジェネレータモデルのトレーニングデータから生成した合成顔認証データセットへの漏洩を示す最初の研究である。
論文 参考訳(メタデータ) (2024-10-31T15:17:14Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - Massively Annotated Datasets for Assessment of Synthetic and Real Data in Face Recognition [0.2775636978045794]
実データと合成データを用いて学習したモデルの性能のドリフトについて検討する。
属性集合上の実データと合成データセットの差について検討する。
興味深いことに、我々は実際のサンプルが合成分布を説明するのに十分であるにもかかわらず、その逆はもはや真実ではないことを検証した。
論文 参考訳(メタデータ) (2024-04-23T17:10:49Z) - SDFR: Synthetic Data for Face Recognition Competition [51.9134406629509]
大規模な顔認識データセットは、インターネットをクロールして個人の同意なしに収集し、法的、倫理的、プライバシー上の懸念を提起する。
近年、ウェブクローリングされた顔認識データセットにおける懸念を軽減するために、合成顔認識データセットの生成が提案されている。
本稿では,第18回IEEE International Conference on Automatic Face and Gesture Recognition (FG 2024)と共同で開催されているSynthetic Data for Face Recognition (SDFR)コンペティションの概要を紹介する。
SDFRコンペティションは2つのタスクに分けられ、参加者は新しい合成データセットまたは/または既存のデータセットを使用して顔認識システムを訓練することができる。
論文 参考訳(メタデータ) (2024-04-06T10:30:31Z) - Learning Human Action Recognition Representations Without Real Humans [66.61527869763819]
そこで本研究では,仮想人間を含む合成データを用いて,実世界の映像を活用してモデルを事前学習するベンチマークを提案する。
次に、このデータに基づいて学習した表現を、下流行動認識ベンチマークの様々なセットに転送可能であるかを評価する。
私たちのアプローチは、以前のベースラインを最大5%上回ります。
論文 参考訳(メタデータ) (2023-11-10T18:38:14Z) - SynthDistill: Face Recognition with Knowledge Distillation from
Synthetic Data [8.026313049094146]
最先端の顔認識ネットワークは計算コストが高く、モバイルアプリケーションでは利用できないことが多い。
本稿では,教師の事前学習した顔認識モデルの知識を合成データを用いて抽出し,軽量な顔認識モデルを訓練するための新しい枠組みを提案する。
我々は、識別ラベルのない合成顔画像を用いて、合成データセットのクラス内変動生成における問題を緩和する。
論文 参考訳(メタデータ) (2023-08-28T19:15:27Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Procedural Humans for Computer Vision [1.9550079119934403]
顔と身体のパラメトリックなモデルを構築し,このモデルに基づいて人間の現実的な画像を生成する。
本研究は,Wood et al. のパイプライン上に構築し,人体全体の合成画像を生成することにより,全体を含むように拡張可能であることを示す。
論文 参考訳(メタデータ) (2023-01-03T15:44:48Z) - Towards 3D Scene Understanding by Referring Synthetic Models [65.74211112607315]
メソッドは通常、実際のシーンスキャンにおける過剰なアノテーションを緩和する。
合成モデルは、合成特徴の実際のシーンカテゴリを、統一された特徴空間にどのように依存するかを考察する。
実験の結果,ScanNet S3DISデータセットの平均mAPは46.08%,学習データセットは55.49%であった。
論文 参考訳(メタデータ) (2022-03-20T13:06:15Z) - Scene Synthesis via Uncertainty-Driven Attribute Synchronization [52.31834816911887]
本稿では,3次元シーンの多様な特徴パターンを捉えるニューラルシーン合成手法を提案する。
提案手法は,ニューラルネットワークと従来のシーン合成手法の双方の長所を結合する。
論文 参考訳(メタデータ) (2021-08-30T19:45:07Z) - Synthetic Data for Model Selection [2.4499092754102874]
合成データはモデル選択に有用であることを示す。
そこで本研究では,実領域に適合する合成誤差推定をキャリブレーションする新しい手法を提案する。
論文 参考訳(メタデータ) (2021-05-03T09:52:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。