論文の概要: Are Explainability Tools Gender Biased? A Case Study on Face
Presentation Attack Detection
- arxiv url: http://arxiv.org/abs/2304.13419v2
- Date: Tue, 13 Jun 2023 20:33:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-17 01:06:47.397554
- Title: Are Explainability Tools Gender Biased? A Case Study on Face
Presentation Attack Detection
- Title(参考訳): 説明責任ツールはジェンダーバイアスか?
顔提示攻撃検出に関する事例研究
- Authors: Marco Huber, Meiling Fang, Fadi Boutros, Naser Damer
- Abstract要約: 顔認識(FR)システムは、説明可能性の向上と解釈可能性の向上を要求され、私たちの日常生活に広まり続けている。
説明可能性ツールのバイアスはまだ調査されていない。
本研究は、これらのツールが、説明の質に性別バイアスの兆候を示すことを示している。
- 参考スコア(独自算出の注目度): 7.990998144169491
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Face recognition (FR) systems continue to spread in our daily lives with an
increasing demand for higher explainability and interpretability of FR systems
that are mainly based on deep learning. While bias across demographic groups in
FR systems has already been studied, the bias of explainability tools has not
yet been investigated. As such tools aim at steering further development and
enabling a better understanding of computer vision problems, the possible
existence of bias in their outcome can lead to a chain of biased decisions. In
this paper, we explore the existence of bias in the outcome of explainability
tools by investigating the use case of face presentation attack detection. By
utilizing two different explainability tools on models with different levels of
bias, we investigate the bias in the outcome of such tools. Our study shows
that these tools show clear signs of gender bias in the quality of their
explanations.
- Abstract(参考訳): 顔認識(fr)システムは日常的に普及し続けており、深層学習を主とするfrシステムの説明可能性や解釈性の向上が求められている。
frシステムにおける集団間のバイアスは既に研究されているが、説明可能性ツールのバイアスはまだ調査されていない。
このようなツールは、さらなる開発を指揮し、コンピュータビジョンの問題をよりよく理解することを目的としているため、その結果にバイアスが存在することは、バイアスのある決定の連鎖につながる可能性がある。
本稿では,顔提示攻撃検出の応用事例を検証し,説明可能性ツールの結果におけるバイアスの存在について検討する。
バイアスレベルの異なるモデル上で2つの異なる説明可能性ツールを利用することで、これらのツールの結果におけるバイアスを調べる。
本研究は、これらのツールが説明の質に性別バイアスの兆候を示すことを示している。
関連論文リスト
- Less can be more: representational vs. stereotypical gender bias in facial expression recognition [3.9698529891342207]
機械学習モデルは、トレーニングデータからバイアスを継承し、差別的または不正確な予測につながる。
本稿では、データセットから機械学習モデルへの人口統計バイアスの伝播について検討する。
ジェンダーの人口構成に焦点をあて、表現とステレオタイプという2種類の偏見を分析した。
論文 参考訳(メタデータ) (2024-06-25T09:26:49Z) - Evaluating Bias and Fairness in Gender-Neutral Pretrained
Vision-and-Language Models [23.65626682262062]
我々は,3種類の視覚・言語モデルを用いた事前学習および微調整後のバイアス増幅の定量化を行う。
全体として、事前学習および微調整後のバイアス増幅は独立である。
論文 参考訳(メタデータ) (2023-10-26T16:19:19Z) - Detection and Evaluation of bias-inducing Features in Machine learning [14.045499740240823]
機械学習(ML)の文脈では、システムの偏りのある振る舞いの理由を理解するために、原因から影響までの分析を用いることができる。
ドメインエキスパートの意思決定を支援するために,モデルの全バイアス誘発特徴を体系的に同定する手法を提案する。
論文 参考訳(メタデータ) (2023-10-19T15:01:16Z) - Fairness and Explainability: Bridging the Gap Towards Fair Model
Explanations [12.248793742165278]
我々は、説明に基づく手続き指向公正の新たな視点を提示することにより、公正性と説明可能性のギャップを埋める。
本稿では,複数の目的を同時に達成する包括的公正性アルゴリズム (CFA) を提案する。
論文 参考訳(メタデータ) (2022-12-07T18:35:54Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Anatomizing Bias in Facial Analysis [86.79402670904338]
既存の顔分析システムでは、特定の集団群に対して偏りのある結果が得られることが示されている。
これらのシステムは、個人の性別、アイデンティティ、肌のトーンに基づいて差別されないようにすることが義務づけられている。
これはAIシステムにおけるバイアスの識別と緩和の研究につながった。
論文 参考訳(メタデータ) (2021-12-13T09:51:13Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Mitigating Gender Bias Amplification in Distribution by Posterior
Regularization [75.3529537096899]
本稿では,男女差の増幅問題について,分布の観点から検討する。
後続正則化に基づくバイアス緩和手法を提案する。
私たちの研究はバイアス増幅の理解に光を当てている。
論文 参考訳(メタデータ) (2020-05-13T11:07:10Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。