論文の概要: SynthASpoof: Developing Face Presentation Attack Detection Based on
Privacy-friendly Synthetic Data
- arxiv url: http://arxiv.org/abs/2303.02660v1
- Date: Sun, 5 Mar 2023 12:35:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-07 18:24:23.110553
- Title: SynthASpoof: Developing Face Presentation Attack Detection Based on
Privacy-friendly Synthetic Data
- Title(参考訳): synthaspoof: プライバシフレンドリな合成データに基づく顔提示攻撃検出の開発
- Authors: Meiling Fang and Marco Huber and Naser Damer
- Abstract要約: この研究は、大規模なPAD開発データセットとして、SynthASpoofと名付けられた、最初の合成ベースの顔PADデータセットを提示する。
フェースパドの開発にSynthaspoofを用いることが可能であることを示す実験結果を得た。
本研究は,限られた訓練データの多様性を高めるために,合成データのサプリメントとしての有用性を示す。
- 参考スコア(独自算出の注目度): 6.218678900574128
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recently, significant progress has been made in face presentation attack
detection (PAD), which aims to secure face recognition systems against
presentation attacks, owing to the availability of several face PAD datasets.
However, all available datasets are based on privacy and legally-sensitive
authentic biometric data with a limited number of subjects. To target these
legal and technical challenges, this work presents the first synthetic-based
face PAD dataset, named SynthASpoof, as a large-scale PAD development dataset.
The bona fide samples in SynthASpoof are synthetically generated and the attack
samples are collected by presenting such synthetic data to capture systems in a
real attack scenario. The experimental results demonstrate the feasibility of
using SynthASpoof for the development of face PAD. Moreover, we boost the
performance of such a solution by incorporating the domain generalization tool
MixStyle into the PAD solutions. Additionally, we showed the viability of using
synthetic data as a supplement to enrich the diversity of limited authentic
training data and consistently enhance PAD performances. The SynthASpoof
dataset, containing 25,000 bona fide and 78,800 attack samples, the
implementation, and the pre-trained weights are made publicly available.
- Abstract(参考訳): 近年,複数の顔PADデータセットが利用可能であることから,顔認識システムによる提示攻撃に対する防御を目的とした顔提示攻撃検出(PAD)が大幅に進歩している。
しかし、すべての利用可能なデータセットは、限られた数の被験者を持つプライバシーと法的に敏感な認証バイオメトリックデータに基づいている。
これらの法的および技術的な課題をターゲットにするため、本研究は大規模パッド開発データセットとしてsynthaspoofと呼ばれる最初の合成ベースのフェイスパッドデータセットを提示する。
synthaspoof中のbonafideサンプルを合成生成し、そのような合成データを提示して攻撃サンプルを収集し、実際の攻撃シナリオでシステムをキャプチャする。
フェースパドの開発にSynthaspoofを用いることが可能であることを示す実験結果を得た。
さらに、ドメイン一般化ツールMixStyleをPADソリューションに組み込むことで、そのようなソリューションの性能を向上させる。
さらに,限られた訓練データの多様性を高め,PAD性能を継続的に向上するために,合成データを利用したサプリメントの有効性を示した。
25,000のボナフィドと78,800の攻撃サンプルを含むSynthASpoofデータセットの実装と事前訓練された重量が公開されている。
関連論文リスト
- SynFER: Towards Boosting Facial Expression Recognition with Synthetic Data [44.304022773272415]
ハイレベルなテキスト記述に基づく表情画像データの合成のための新しいフレームワークであるSynFERを紹介する。
本稿では,表情ラベルの修正を支援するために,生成プロセスと擬似ラベル生成手法を提案する。
提案手法は,AffectNetトレーニングセットサイズに相当する合成データのみを用いてトレーニングを行う場合,AffectNetの67.23%の分類精度を実現する。
論文 参考訳(メタデータ) (2024-10-13T14:58:21Z) - Second Edition FRCSyn Challenge at CVPR 2024: Face Recognition Challenge in the Era of Synthetic Data [104.45155847778584]
本稿では,合成データ時代における第2回顔認識チャレンジの概要について述べる。
FRCSynは、現在の技術的制限に対処するために、顔認識における合成データの使用について調査することを目的としている。
論文 参考訳(メタデータ) (2024-04-16T08:15:10Z) - SDFR: Synthetic Data for Face Recognition Competition [51.9134406629509]
大規模な顔認識データセットは、インターネットをクロールして個人の同意なしに収集し、法的、倫理的、プライバシー上の懸念を提起する。
近年、ウェブクローリングされた顔認識データセットにおける懸念を軽減するために、合成顔認識データセットの生成が提案されている。
本稿では,第18回IEEE International Conference on Automatic Face and Gesture Recognition (FG 2024)と共同で開催されているSynthetic Data for Face Recognition (SDFR)コンペティションの概要を紹介する。
SDFRコンペティションは2つのタスクに分けられ、参加者は新しい合成データセットまたは/または既存のデータセットを使用して顔認識システムを訓練することができる。
論文 参考訳(メタデータ) (2024-04-06T10:30:31Z) - Reimagining Synthetic Tabular Data Generation through Data-Centric AI: A
Comprehensive Benchmark [56.8042116967334]
合成データは、機械学習モデルのトレーニングの代替となる。
合成データが現実世界データの複雑なニュアンスを反映することを保証することは、難しい作業です。
本稿では,データ中心型AI技術の統合による合成データ生成プロセスのガイドの可能性について検討する。
論文 参考訳(メタデータ) (2023-10-25T20:32:02Z) - Statistical properties and privacy guarantees of an original
distance-based fully synthetic data generation method [0.0]
この研究は、多段階のフレームワークを用いて、公開リリース可能な合成データを生成する技術的実現可能性を示す。
新たな多段階合成データ生成フレームワークを用いて生成したデータの質を評価することで,Open-CESPイニシアチブの技術的,概念的健全性を実証した。
論文 参考訳(メタデータ) (2023-10-10T12:29:57Z) - Synthetic is all you need: removing the auxiliary data assumption for
membership inference attacks against synthetic data [9.061271587514215]
この仮定をどのように取り除くかを示し、MIAを合成データのみを用いて実行できるようにする。
その結果,MIAは実世界の2つのデータセットと2つの合成データジェネレータでまだ成功していることがわかった。
論文 参考訳(メタデータ) (2023-07-04T13:16:03Z) - Wild Face Anti-Spoofing Challenge 2023: Benchmark and Results [73.98594459933008]
顔認証システム(FAS)は、顔認識システムの完全性を保護するための重要なメカニズムである。
この制限は、公開可能なFASデータセットの不足と多様性の欠如に起因する可能性がある。
制約のない環境で収集された大規模で多様なFASデータセットであるWild Face Anti-Spoofingデータセットを紹介した。
論文 参考訳(メタデータ) (2023-04-12T10:29:42Z) - Delving into High-Quality Synthetic Face Occlusion Segmentation Datasets [83.749895930242]
そこで本研究では,高品質な自然主義的合成隠蔽顔を製造するための2つの手法を提案する。
両手法の有効性とロバスト性を実証的に示す。
我々は,RealOccとRealOcc-Wildという,微細なアノテーションを付加した高精細な実世界の顔データセットを2つ提示する。
論文 参考訳(メタデータ) (2022-05-12T17:03:57Z) - CAFE: Learning to Condense Dataset by Aligning Features [72.99394941348757]
本稿ではCAFE(Aligning features)によるCondenseデータセットの新しいスキームを提案する。
このアプローチの核心は、さまざまなスケールにわたる実データと合成データから機能を整合させる効果的な戦略です。
提案したCAFEを様々なデータセットで検証し,概ね最先端技術であることを示す。
論文 参考訳(メタデータ) (2022-03-03T05:58:49Z) - On the use of automatically generated synthetic image datasets for
benchmarking face recognition [2.0196229393131726]
GAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
現実的な顔画像を合成するためのGAN(Generative Adversarial Networks)の最近の進歩は、実際のデータセットを合成データセットで置き換える経路を提供する。
合成データセットのベンチマーク結果は、良い置換であり、多くの場合、実際のデータセットのベンチマークと同様のエラー率とシステムランキングを提供する。
論文 参考訳(メタデータ) (2021-06-08T09:54:02Z) - Holdout-Based Fidelity and Privacy Assessment of Mixed-Type Synthetic
Data [0.0]
aiベースのデータ合成はここ数年で急速に進歩しており、プライバシを尊重するデータ共有を可能にするという約束がますます認識されている。
我々は,合成データソリューションの信頼性とプライバシリスクを定量化するための,ホールドアウトに基づく実証的評価フレームワークを紹介し,実証する。
論文 参考訳(メタデータ) (2021-04-01T17:30:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。