論文の概要: Fairness in Face Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2209.09035v3
- Date: Thu, 19 Oct 2023 09:23:40 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-20 11:43:36.133389
- Title: Fairness in Face Presentation Attack Detection
- Title(参考訳): 顔提示攻撃検出の公正性
- Authors: Meiling Fang and Wufei Yang and Arjan Kuijper and Vitomir Struc and
Naser Damer
- Abstract要約: 顔認識アルゴリズムは、特定の人口集団や非人口集団に対する差別行動を示すことが証明されている。
FRにおけるフェアネス研究の増加にもかかわらず、顔提示攻撃検出の公正さは見過ごされている。
- 参考スコア(独自算出の注目度): 14.995906718043809
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Face recognition (FR) algorithms have been proven to exhibit discriminatory
behaviors against certain demographic and non-demographic groups, raising
ethical and legal concerns regarding their deployment in real-world scenarios.
Despite the growing number of fairness studies in FR, the fairness of face
presentation attack detection (PAD) has been overlooked, mainly due to the lack
of appropriately annotated data. To avoid and mitigate the potential negative
impact of such behavior, it is essential to assess the fairness in face PAD and
develop fair PAD models. To enable fairness analysis in face PAD, we present a
Combined Attribute Annotated PAD Dataset (CAAD-PAD), offering seven
human-annotated attribute labels. Then, we comprehensively analyze the fairness
of PAD and its relation to the nature of the training data and the Operational
Decision Threshold Assignment (ODTA) through a set of face PAD solutions.
Additionally, we propose a novel metric, the Accuracy Balanced Fairness (ABF),
that jointly represents both the PAD fairness and the absolute PAD performance.
The experimental results pointed out that female and faces with occluding
features (e.g. eyeglasses, beard, etc.) are relatively less protected than male
and non-occlusion groups by all PAD solutions. To alleviate this observed
unfairness, we propose a plug-and-play data augmentation method, FairSWAP, to
disrupt the identity/semantic information and encourage models to mine the
attack clues. The extensive experimental results indicate that FairSWAP leads
to better-performing and fairer face PADs in 10 out of 12 investigated cases.
- Abstract(参考訳): 顔認識(FR)アルゴリズムは、特定の人口集団や非人口集団に対する差別行動を示すことが証明されており、現実のシナリオへの展開に関する倫理的および法的懸念を提起している。
FRにおけるフェアネス研究の増加にもかかわらず、顔提示攻撃検出(PAD)の公平さは、主に適切な注釈データがないために見過ごされている。
このような行動の潜在的な負の影響を回避・緩和するためには, PAD面の公平さを評価し, 公正なPADモデルを開発することが不可欠である。
顔PADの公平性解析を可能にするために, 7つの属性ラベルを付加したCAAD-PAD(Combined Attribute Annotated PAD Dataset)を提案する。
そこで我々は,PADの公正性とトレーニングデータの性質,およびODTA(Operational Decision Threshold Assignment)との関係を,顔PADソリューションの集合を通して包括的に分析した。
さらに, パッドフェアネスと絶対パッド性能の両方を共同で表現した新しい指標, 精度バランスフェアネス(abf)を提案する。
実験結果から, すべてのパッド溶液により, 女性および顔(眼鏡, あごひげなど)は, 男性および非閉塞群に比べて比較的保護が小さいことが示唆された。
この観察された不公平さを緩和するため,我々は,id/semantic情報を混乱させ,モデルに攻撃の手がかりをマイニングするよう促すために,fairswapというプラグイン・アンド・プレイデータ拡張手法を提案する。
以上の結果から,FairSWAPは12例中10例において,より良好で公平な対面PADを誘導することが明らかとなった。
関連論文リスト
- Fairness Under Cover: Evaluating the Impact of Occlusions on Demographic Bias in Facial Recognition [0.0]
BUPT-BalancedおよびBUPT-GlobalFaceデータセット上で訓練した顔認識モデルの性能評価を行った。
そこで本研究では,異なる集団間でのモデル性能にどの程度のオクルージョンが影響するかを定量化する,新しい指標である顔閉塞インパクト比(FOIR)を提案する。
論文 参考訳(メタデータ) (2024-08-19T17:34:19Z) - Thinking Racial Bias in Fair Forgery Detection: Models, Datasets and Evaluations [63.52709761339949]
最初に、Fair Forgery Detection(FairFD)データセットと呼ばれる専用のデータセットをコントリビュートし、SOTA(Public State-of-the-art)メソッドの人種的偏見を証明する。
我々は、偽りの結果を避けることができる平均的メトリクスと実用正規化メトリクスを含む新しいメトリクスを設計する。
また,有効で堅牢な後処理技術であるBias Pruning with Fair Activations (BPFA)も提案する。
論文 参考訳(メタデータ) (2024-07-19T14:53:18Z) - (Predictable) Performance Bias in Unsupervised Anomaly Detection [3.826262429926079]
教師なし異常検出(UAD)モデルは、疾患検出の重要な第1ステップを支援することを約束する。
本研究は, ある集団群に対して, UADモデルの異なる性能を定量的に評価した。
論文 参考訳(メタデータ) (2023-09-25T14:57:43Z) - Fair-CDA: Continuous and Directional Augmentation for Group Fairness [48.84385689186208]
公正な制約を課すための詳細なデータ拡張戦略を提案する。
グループ間の感性のある特徴の遷移経路のモデルを正規化することにより、グループフェアネスを実現することができることを示す。
提案手法はデータ生成モデルを仮定せず,精度と公平性の両方に優れた一般化を実現する。
論文 参考訳(メタデータ) (2023-04-01T11:23:00Z) - Fair Spatial Indexing: A paradigm for Group Spatial Fairness [6.640563753223598]
機械学習における位置バイアスを軽減する手法を提案する。
本研究では,空間群フェアネスに着目し,空間群フェアネスを考慮に入れた空間インデックス化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-05T05:15:11Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Federated Test-Time Adaptive Face Presentation Attack Detection with
Dual-Phase Privacy Preservation [100.69458267888962]
顔提示攻撃検出(fPAD)は、現代の顔認識パイプラインにおいて重要な役割を果たす。
法的およびプライバシー上の問題により、トレーニングデータ(実際の顔画像と偽画像)は、異なるデータソース間で直接共有することはできない。
本稿では,二相プライバシー保護フレームワークを用いたフェデレーションテスト時間適応顔提示検出を提案する。
論文 参考訳(メタデータ) (2021-10-25T02:51:05Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。