論文の概要: SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data
- arxiv url: http://arxiv.org/abs/2410.09865v1
- Date: Sun, 13 Oct 2024 14:58:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-10-30 04:32:54.086846
- Title: SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data
- Title(参考訳): SynFER: 表情認識を合成データで強化する
- Authors: Xilin He, Cheng Luo, Xiaole Xian, Bing Li, Siyang Song, Muhammad Haris Khan, Weicheng Xie, Linlin Shen, Zongyuan Ge,
- Abstract要約: ハイレベルなテキスト記述に基づく表情画像データの合成のための新しいフレームワークであるSynFERを紹介する。
本稿では,表情ラベルの修正を支援するために,生成プロセスと擬似ラベル生成手法を提案する。
提案手法は,AffectNetトレーニングセットサイズに相当する合成データのみを用いてトレーニングを行う場合,AffectNetの67.23%の分類精度を実現する。
- 参考スコア(独自算出の注目度): 44.304022773272415
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Facial expression datasets remain limited in scale due to privacy concerns, the subjectivity of annotations, and the labor-intensive nature of data collection. This limitation poses a significant challenge for developing modern deep learning-based facial expression analysis models, particularly foundation models, that rely on large-scale data for optimal performance. To tackle the overarching and complex challenge, we introduce SynFER (Synthesis of Facial Expressions with Refined Control), a novel framework for synthesizing facial expression image data based on high-level textual descriptions as well as more fine-grained and precise control through facial action units. To ensure the quality and reliability of the synthetic data, we propose a semantic guidance technique to steer the generation process and a pseudo-label generator to help rectify the facial expression labels for the synthetic images. To demonstrate the generation fidelity and the effectiveness of the synthetic data from SynFER, we conduct extensive experiments on representation learning using both synthetic data and real-world data. Experiment results validate the efficacy of the proposed approach and the synthetic data. Notably, our approach achieves a 67.23% classification accuracy on AffectNet when training solely with synthetic data equivalent to the AffectNet training set size, which increases to 69.84% when scaling up to five times the original size. Our code will be made publicly available.
- Abstract(参考訳): 顔の表情データセットは、プライバシの懸念、アノテーションの主観性、データ収集の労働集約性により、規模が限られている。
この制限は、最適なパフォーマンスのために大規模データに依存する、現代のディープラーニングベースの表情分析モデル、特に基礎モデルを開発する上で大きな課題となる。
この課題に対処するために,ハイレベルなテキスト記述に基づく表情画像データの合成フレームワークであるSynFER(Synthesis of Facial Expressions with Refined Control)を導入する。
合成データの質と信頼性を確保するため,合成画像の表情ラベルの修正を支援するために,生成プロセスと擬似ラベル生成装置を操る意味指導手法を提案する。
そこで我々は,合成データと実世界のデータの両方を用いた表現学習に関する広範な実験を行った。
実験結果は,提案手法の有効性と合成データの有効性を検証した。
特に,AffectNetのトレーニングセットサイズに相当する合成データのみを用いてトレーニングすると,AffectNetの67.23%の分類精度が達成され,元の5倍までスケールアップすると69.84%に向上する。
私たちのコードは公開されます。
関連論文リスト
- Synthetic Image Learning: Preserving Performance and Preventing Membership Inference Attacks [5.0243930429558885]
本稿では,下流分類器の学習のための合成データの生成と利用を最適化するパイプラインである知識リサイクル(KR)を紹介する。
このパイプラインの核心は生成的知識蒸留(GKD)であり、情報の品質と有用性を大幅に向上させる技術が提案されている。
その結果、実データと合成データでトレーニングされたモデルと、実データでトレーニングされたモデルとの性能差が著しく低下した。
論文 参考訳(メタデータ) (2024-07-22T10:31:07Z) - Best Practices and Lessons Learned on Synthetic Data [83.63271573197026]
AIモデルの成功は、大規模で多様な、高品質なデータセットの可用性に依存している。
合成データは、現実世界のパターンを模倣する人工データを生成することによって、有望なソリューションとして現れてきた。
論文 参考訳(メタデータ) (2024-04-11T06:34:17Z) - If It's Not Enough, Make It So: Reducing Authentic Data Demand in Face Recognition through Synthetic Faces [16.977459035497162]
大規模な顔データセットは、主にWebベースのイメージから作成され、明示的なユーザの同意が欠如している。
本稿では,合成顔データを用いて効果的な顔認識モデルの訓練を行う方法について検討する。
論文 参考訳(メタデータ) (2024-04-04T15:45:25Z) - Training Robust Deep Physiological Measurement Models with Synthetic
Video-based Data [11.31971398273479]
合成生理的信号とそれに対応する顔画像に現実の雑音を加える方法を提案する。
その結果,MAEの平均値は6.9から2.0に減少した。
論文 参考訳(メタデータ) (2023-11-09T13:55:45Z) - TarGEN: Targeted Data Generation with Large Language Models [51.87504111286201]
TarGENは、高品質な合成データセットを生成するための、多段階のプロンプト戦略である。
我々は,LLMが不正確なラベル付きインスタンスを修正できるようにする自己補正法により,TarGENを増強する。
合成データセットを元のデータセットと比較した包括的な分析により、データセットの複雑さと多様性の類似または高いレベルが明らかになる。
論文 参考訳(メタデータ) (2023-10-27T03:32:17Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - SynthDistill: Face Recognition with Knowledge Distillation from
Synthetic Data [8.026313049094146]
最先端の顔認識ネットワークは計算コストが高く、モバイルアプリケーションでは利用できないことが多い。
本稿では,教師の事前学習した顔認識モデルの知識を合成データを用いて抽出し,軽量な顔認識モデルを訓練するための新しい枠組みを提案する。
我々は、識別ラベルのない合成顔画像を用いて、合成データセットのクラス内変動生成における問題を緩和する。
論文 参考訳(メタデータ) (2023-08-28T19:15:27Z) - ContraNeRF: Generalizable Neural Radiance Fields for Synthetic-to-real
Novel View Synthesis via Contrastive Learning [102.46382882098847]
まず,合成から現実への新規な視点合成における合成データの影響について検討した。
本稿では,幾何制約を伴う多視点一貫した特徴を学習するために,幾何対応のコントラスト学習を導入することを提案する。
提案手法は,PSNR,SSIM,LPIPSの点で,既存の一般化可能な新規ビュー合成手法よりも高い画質で精細な画像を描画することができる。
論文 参考訳(メタデータ) (2023-03-20T12:06:14Z) - Delving into High-Quality Synthetic Face Occlusion Segmentation Datasets [83.749895930242]
そこで本研究では,高品質な自然主義的合成隠蔽顔を製造するための2つの手法を提案する。
両手法の有効性とロバスト性を実証的に示す。
我々は,RealOccとRealOcc-Wildという,微細なアノテーションを付加した高精細な実世界の顔データセットを2つ提示する。
論文 参考訳(メタデータ) (2022-05-12T17:03:57Z) - On the use of automatically generated synthetic image datasets for
benchmarking face recognition [2.0196229393131726]
GAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
現実的な顔画像を合成するためのGAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
合成データセットのベンチマーク結果は、良い置換であり、多くの場合、実際のデータセットのベンチマークと同様のエラー率とシステムランキングを提供する。
論文 参考訳(メタデータ) (2021-06-08T09:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。