論文の概要: Fairness Testing of Deep Image Classification with Adequacy Metrics
- arxiv url: http://arxiv.org/abs/2111.08856v1
- Date: Wed, 17 Nov 2021 01:30:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:04:21.288765
- Title: Fairness Testing of Deep Image Classification with Adequacy Metrics
- Title(参考訳): Adequacy Metricsを用いた深部画像分類の公平性検証
- Authors: Peixin Zhang, Jingyi Wang, Jun Sun, Xinyu Wang
- Abstract要約: DeepFAITは、ディープイメージ分類アプリケーション用に特別に設計された、系統的な公正性テストフレームワークである。
我々は,VGGFaceやFairFaceといった大規模顔認識アプリケーションに広く採用されている実験を行った。
- 参考スコア(独自算出の注目度): 6.559515085944965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep image classification applications, e.g., face recognition, become
increasingly prevalent in our daily lives, their fairness issues raise more and
more concern. It is thus crucial to comprehensively test the fairness of these
applications before deployment. Existing fairness testing methods suffer from
the following limitations: 1) applicability, i.e., they are only applicable for
structured data or text without handling the high-dimensional and abstract
domain sampling in the semantic level for image classification applications; 2)
functionality, i.e., they generate unfair samples without providing testing
criterion to characterize the model's fairness adequacy. To fill the gap, we
propose DeepFAIT, a systematic fairness testing framework specifically designed
for deep image classification applications. DeepFAIT consists of several
important components enabling effective fairness testing of deep image
classification applications: 1) a neuron selection strategy to identify the
fairness-related neurons; 2) a set of multi-granularity adequacy metrics to
evaluate the model's fairness; 3) a test selection algorithm for fixing the
fairness issues efficiently. We have conducted experiments on widely adopted
large-scale face recognition applications, i.e., VGGFace and FairFace. The
experimental results confirm that our approach can effectively identify the
fairness-related neurons, characterize the model's fairness, and select the
most valuable test cases to mitigate the model's fairness issues.
- Abstract(参考訳): 深層画像分類アプリケーション、例えば顔認識が日常生活でますます普及するにつれて、その公平性がますます懸念されるようになっている。
したがって、デプロイ前にこれらのアプリケーションの公平性を包括的にテストすることが重要です。
既存の公正試験方法には以下の制限がある。
1) 画像分類のセマンティックレベルにおける高次元かつ抽象的なドメインサンプリングを処理せずに、構造化データ又はテキストにのみ適用可能であること。
2) 機能、すなわち、モデルの公平性を特徴付けるためのテスト基準を提供しずに不公平なサンプルを生成する。
このギャップを埋めるため,我々はdeepfaitを提案する。
DeepFAITは、ディープイメージ分類アプリケーションの有効公平性テストを可能にするいくつかの重要なコンポーネントで構成されている。
1) 公平性関連ニューロンを識別するためのニューロン選択戦略
2) モデルの公平性を評価するための多面的適性指標の組
3)公平性問題を効率的に修正するためのテスト選択アルゴリズム。
我々は,VGGFaceやFairFaceといった大規模顔認識アプリケーションに広く採用されている実験を行った。
実験の結果,本手法はフェアネス関連ニューロンを効果的に同定し,モデルのフェアネスを特徴付け,モデルのフェアネス問題を緩和するための最も価値のあるテストケースを選定できることが確認された。
関連論文リスト
- Few-Shot Anomaly Detection via Category-Agnostic Registration Learning [65.64252994254268]
既存のほとんどの異常検出方法は、各カテゴリに専用のモデルを必要とする。
この記事では、新しい数ショットAD(FSAD)フレームワークを提案する。
これは新しいカテゴリーのモデル微調整を必要としない最初のFSAD法である。
論文 参考訳(メタデータ) (2024-06-13T05:01:13Z) - Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Benchmarking the Fairness of Image Upsampling Methods [29.01986714656294]
本研究では,条件付き生成モデルの性能と公平性を示す指標のセットを開発する。
私たちは彼らの不均衡と多様性をベンチマークします。
この研究の一環として、データセットのサブセットは、一般的な顔の人種分布を再現する。
論文 参考訳(メタデータ) (2024-01-24T16:13:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Enhancing Fairness of Visual Attribute Predictors [6.6424782986402615]
本稿では、復号化パリティ、等化オッド、新しいインターセクション・オーバ・ユニオン尺度のバッチ推定に基づいて、公平性に配慮した正規化損失を導入する。
我々の研究は、視覚特性予測器のバイアスを軽減するためのエンドツーエンドのトレーニングスキームにこの種の損失を取り入れる最初の試みである。
論文 参考訳(メタデータ) (2022-07-07T15:02:04Z) - Normalise for Fairness: A Simple Normalisation Technique for Fairness in Regression Machine Learning Problems [46.93320580613236]
回帰問題に対する正規化(FaiReg)に基づく単純かつ効果的な手法を提案する。
データバランシングと敵対的トレーニングという,公正性のための2つの標準的な手法と比較する。
その結果、データバランスよりも不公平さの影響を低減できる優れた性能を示した。
論文 参考訳(メタデータ) (2022-02-02T12:26:25Z) - SphereFace2: Binary Classification is All You Need for Deep Face
Recognition [57.07058009281208]
最先端のディープフェイス認識手法は、ソフトマックスベースのマルチクラス分類フレームワークで主に訓練されている。
本稿では,SphereFace2と呼ばれる新しいバイナリ分類学習フレームワークを提案する。
SphereFace2は、最先端のディープ・フェイス認識手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-08-03T13:58:45Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。