論文の概要: Fairness Testing of Deep Image Classification with Adequacy Metrics
- arxiv url: http://arxiv.org/abs/2111.08856v1
- Date: Wed, 17 Nov 2021 01:30:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-18 15:04:21.288765
- Title: Fairness Testing of Deep Image Classification with Adequacy Metrics
- Title(参考訳): Adequacy Metricsを用いた深部画像分類の公平性検証
- Authors: Peixin Zhang, Jingyi Wang, Jun Sun, Xinyu Wang
- Abstract要約: DeepFAITは、ディープイメージ分類アプリケーション用に特別に設計された、系統的な公正性テストフレームワークである。
我々は,VGGFaceやFairFaceといった大規模顔認識アプリケーションに広く採用されている実験を行った。
- 参考スコア(独自算出の注目度): 6.559515085944965
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep image classification applications, e.g., face recognition, become
increasingly prevalent in our daily lives, their fairness issues raise more and
more concern. It is thus crucial to comprehensively test the fairness of these
applications before deployment. Existing fairness testing methods suffer from
the following limitations: 1) applicability, i.e., they are only applicable for
structured data or text without handling the high-dimensional and abstract
domain sampling in the semantic level for image classification applications; 2)
functionality, i.e., they generate unfair samples without providing testing
criterion to characterize the model's fairness adequacy. To fill the gap, we
propose DeepFAIT, a systematic fairness testing framework specifically designed
for deep image classification applications. DeepFAIT consists of several
important components enabling effective fairness testing of deep image
classification applications: 1) a neuron selection strategy to identify the
fairness-related neurons; 2) a set of multi-granularity adequacy metrics to
evaluate the model's fairness; 3) a test selection algorithm for fixing the
fairness issues efficiently. We have conducted experiments on widely adopted
large-scale face recognition applications, i.e., VGGFace and FairFace. The
experimental results confirm that our approach can effectively identify the
fairness-related neurons, characterize the model's fairness, and select the
most valuable test cases to mitigate the model's fairness issues.
- Abstract(参考訳): 深層画像分類アプリケーション、例えば顔認識が日常生活でますます普及するにつれて、その公平性がますます懸念されるようになっている。
したがって、デプロイ前にこれらのアプリケーションの公平性を包括的にテストすることが重要です。
既存の公正試験方法には以下の制限がある。
1) 画像分類のセマンティックレベルにおける高次元かつ抽象的なドメインサンプリングを処理せずに、構造化データ又はテキストにのみ適用可能であること。
2) 機能、すなわち、モデルの公平性を特徴付けるためのテスト基準を提供しずに不公平なサンプルを生成する。
このギャップを埋めるため,我々はdeepfaitを提案する。
DeepFAITは、ディープイメージ分類アプリケーションの有効公平性テストを可能にするいくつかの重要なコンポーネントで構成されている。
1) 公平性関連ニューロンを識別するためのニューロン選択戦略
2) モデルの公平性を評価するための多面的適性指標の組
3)公平性問題を効率的に修正するためのテスト選択アルゴリズム。
我々は,VGGFaceやFairFaceといった大規模顔認識アプリケーションに広く採用されている実験を行った。
実験の結果,本手法はフェアネス関連ニューロンを効果的に同定し,モデルのフェアネスを特徴付け,モデルのフェアネス問題を緩和するための最も価値のあるテストケースを選定できることが確認された。
関連論文リスト
- Classes Are Not Equal: An Empirical Study on Image Recognition Fairness [100.36114135663836]
我々は,クラスが等しくないことを実験的に証明し,様々なデータセットにまたがる画像分類モデルにおいて,公平性の問題が顕著であることを示した。
以上の結果から,モデルでは認識が困難であるクラスに対して,予測バイアスが大きくなる傾向が示唆された。
データ拡張および表現学習アルゴリズムは、画像分類のある程度の公平性を促進することにより、全体的なパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2024-02-28T07:54:50Z) - Benchmarking the Fairness of Image Upsampling Methods [31.133847057101757]
本研究では,条件付き生成モデルの性能と公平性を示す指標のセットを開発する。
私たちは彼らの不均衡と多様性をベンチマークします。
この研究の一環として、FairFaceデータセットのサブセットは、一般的な顔の人種分布を再現する。
論文 参考訳(メタデータ) (2024-01-24T16:13:26Z) - Evaluating the Fairness of Discriminative Foundation Models in Computer
Vision [51.176061115977774]
本稿では,CLIP (Contrastive Language-Pretraining) などの差別基盤モデルのバイアス評価のための新しい分類法を提案する。
そして、これらのモデルにおけるバイアスを緩和するための既存の手法を分類学に関して体系的に評価する。
具体的には,ゼロショット分類,画像検索,画像キャプションなど,OpenAIのCLIPとOpenCLIPモデルをキーアプリケーションとして評価する。
論文 参考訳(メタデータ) (2023-10-18T10:32:39Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - FairAdaBN: Mitigating unfairness with adaptive batch normalization and
its application to dermatological disease classification [14.589159162086926]
バッチ正規化をセンシティブ属性に適応させるFairAdaBNを提案する。
本研究では,FATE(Fairness-Accuracy Trade-off efficiency)と呼ばれる新しい指標を提案する。
2つの皮膚科学データセットを用いた実験により,提案手法はフェアネス基準とFATEの他の手法よりも優れていた。
論文 参考訳(メタデータ) (2023-03-15T02:22:07Z) - Enhancing Fairness of Visual Attribute Predictors [6.6424782986402615]
本稿では、復号化パリティ、等化オッド、新しいインターセクション・オーバ・ユニオン尺度のバッチ推定に基づいて、公平性に配慮した正規化損失を導入する。
我々の研究は、視覚特性予測器のバイアスを軽減するためのエンドツーエンドのトレーニングスキームにこの種の損失を取り入れる最初の試みである。
論文 参考訳(メタデータ) (2022-07-07T15:02:04Z) - SphereFace2: Binary Classification is All You Need for Deep Face
Recognition [57.07058009281208]
最先端のディープフェイス認識手法は、ソフトマックスベースのマルチクラス分類フレームワークで主に訓練されている。
本稿では,SphereFace2と呼ばれる新しいバイナリ分類学習フレームワークを提案する。
SphereFace2は、最先端のディープ・フェイス認識手法よりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2021-08-03T13:58:45Z) - Distribution Alignment: A Unified Framework for Long-tail Visual
Recognition [52.36728157779307]
長尾視覚認識のための分散アライメント戦略を提案する。
次に,二段階学習における一般化された再重み付け法を導入して,事前のクラスバランスをとる。
提案手法は, 4つの認識タスクすべてにおいて, 単純で統一されたフレームワークを用いて最先端の結果を得る。
論文 参考訳(メタデータ) (2021-03-30T14:09:53Z) - Technical Challenges for Training Fair Neural Networks [62.466658247995404]
最先端のアーキテクチャを用いて顔認識と自動診断データセットの実験を行います。
我々は、大きなモデルは公平さの目標に過度に適合し、意図しない、望ましくない結果を生み出すことを観察する。
論文 参考訳(メタデータ) (2021-02-12T20:36:45Z) - Contraction Mapping of Feature Norms for Classifier Learning on the Data
with Different Quality [5.47982638565422]
本稿では,訓練画像の特徴規範の範囲を品質に応じて圧縮する縮約写像関数を提案する。
手書き文字認識、肺結節分類、顔認証、顔認識など、様々な分類応用の実験は、提案手法が有望であることを実証している。
論文 参考訳(メタデータ) (2020-07-27T09:53:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。