論文の概要: Fairness in Face Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2209.09035v1
- Date: Mon, 19 Sep 2022 14:12:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-20 18:38:07.732123
- Title: Fairness in Face Presentation Attack Detection
- Title(参考訳): 顔提示攻撃検出の公正性
- Authors: Meiling Fang and Wufei Yang and Arjan Kuijper and Vitomir Struc and
Naser Damer
- Abstract要約: 顔提示攻撃検出(PAD)は、顔認識(FR)アプリケーションを提示攻撃から保護するために重要である。
顔PADの公平性は、主に適切な注釈付きデータがないため、未調査の問題である。
本研究では,属性関連情報ではなく,識別・セマンティック情報を破壊し,攻撃手段をマイニングするためのガイドモデルを構築することを目的としたデータ拡張手法であるFairSWAPを提案する。
- 参考スコア(独自算出の注目度): 14.924908841982214
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face presentation attack detection (PAD) is critical to secure face
recognition (FR) applications from presentation attacks. FR performance has
been shown to be unfair to certain demographic and non-demographic groups.
However, the fairness of face PAD is an understudied issue, mainly due to the
lack of appropriately annotated data. To address this issue, this work first
presents a Combined Attribute Annotated PAD Dataset (CAAD-PAD) by combining
several well-known PAD datasets where we provide seven human-annotated
attribute labels. This work then comprehensively analyses the fairness of a set
of face PADs and its relation to the nature of training data and the
Operational Decision Threshold Assignment (ODTA) on different data groups by
studying four face PAD approaches on our CAAD-PAD. To simultaneously represent
both the PAD fairness and the absolute PAD performance, we introduce a novel
metric, namely the Accuracy Balanced Fairness (ABF). Extensive experiments on
CAAD-PAD show that the training data and ODTA induce unfairness on gender,
occlusion, and other attribute groups. Based on these analyses, we propose a
data augmentation method, FairSWAP, which aims to disrupt the identity/semantic
information and guide models to mine attack cues rather than attribute-related
information. Detailed experimental results demonstrate that FairSWAP generally
enhances both the PAD performance and the fairness of face PAD.
- Abstract(参考訳): 顔提示攻撃検出(PAD)は、顔認識(FR)アプリケーションを提示攻撃から保護するために重要である。
FRのパフォーマンスは、特定の人口集団や非人口集団に対して不公平であることが示されている。
しかしながら、顔PADの公平性は、主に適切な注釈付きデータがないため、未調査の問題である。
この問題に対処するため、本研究では、まず、よく知られたPADデータセットを組み合わせて、7つの属性ラベルを提供する、CAAD-PAD(Combined Attribute Annotated PAD Dataset)を提示する。
そこで本研究は,CAAD-PADの4つの顔PADアプローチを研究することにより,顔PADの公正さとトレーニングデータの性質,および異なるデータ群上の操作決定閾値割り当て(ODTA)との関係を包括的に分析する。
PADフェアネスと絶対PADパフォーマンスの両方を同時に表現するために,新しい指標,すなわち精度バランスフェアネス(ABF)を導入する。
CAAD-PADに関する大規模な実験は、トレーニングデータとODTAが性、排他、その他の属性グループに不公平をもたらすことを示している。
これらの分析に基づいて,属性関連情報ではなく,識別・セマンティックな情報を破壊し,攻撃手段を案内するデータ拡張手法であるFairSWAPを提案する。
より詳細な実験結果から、FairSWAPは一般的にPAD性能と顔PADの公平性を向上することが示された。
関連論文リスト
- Fairness Under Cover: Evaluating the Impact of Occlusions on Demographic Bias in Facial Recognition [0.0]
BUPT-BalancedおよびBUPT-GlobalFaceデータセット上で訓練した顔認識モデルの性能評価を行った。
そこで本研究では,異なる集団間でのモデル性能にどの程度のオクルージョンが影響するかを定量化する,新しい指標である顔閉塞インパクト比(FOIR)を提案する。
論文 参考訳(メタデータ) (2024-08-19T17:34:19Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。