論文の概要: TESTSGD: Interpretable Testing of Neural Networks Against Subtle Group
Discrimination
- arxiv url: http://arxiv.org/abs/2208.11321v1
- Date: Wed, 24 Aug 2022 06:26:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-25 13:33:10.527142
- Title: TESTSGD: Interpretable Testing of Neural Networks Against Subtle Group
Discrimination
- Title(参考訳): TESTSGD:サブセットグループ識別に対するニューラルネットワークの解釈可能なテスト
- Authors: Mengdi Zhang and Jun Sun and Jingyi Wang and Bing Sun
- Abstract要約: TESTSGDは,隠されたグループ識別を体系的に同定し,測定する,解釈可能なテスト手法である。
我々は、構造化データとテキストデータの両方を含む一般的なデータセット上でTESTSGDを評価する。
- 参考スコア(独自算出の注目度): 8.207802966970378
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Discrimination has been shown in many machine learning applications, which
calls for sufficient fairness testing before their deployment in ethic-relevant
domains such as face recognition, medical diagnosis and criminal sentence.
Existing fairness testing approaches are mostly designed for identifying
individual discrimination, i.e., discrimination against individuals. Yet, as
another widely concerning type of discrimination, testing against group
discrimination, mostly hidden, is much less studied. To address the gap, in
this work, we propose TESTSGD, an interpretable testing approach which
systematically identifies and measures hidden (which we call `subtle' group
discrimination} of a neural network characterized by conditions over
combinations of the sensitive features. Specifically, given a neural network,
TESTSGDfirst automatically generates an interpretable rule set which
categorizes the input space into two groups exposing the model's group
discrimination. Alongside, TESTSGDalso provides an estimated group fairness
score based on sampling the input space to measure the degree of the identified
subtle group discrimination, which is guaranteed to be accurate up to an error
bound. We evaluate TESTSGDon multiple neural network models trained on popular
datasets including both structured data and text data. The experiment results
show that TESTSGDis effective and efficient in identifying and measuring such
subtle group discrimination that has never been revealed before. Furthermore,
we show that the testing results of TESTSGDcan guide generation of new samples
to mitigate such discrimination through retraining with negligible accuracy
drop.
- Abstract(参考訳): 多くの機械学習アプリケーションで識別が示されており、顔認識、診断、刑罰などの倫理的関連分野に展開する前に十分な公平性テストが必要である。
既存の公正テストアプローチは、主に個人差別、すなわち個人に対する差別を識別するために設計されている。
しかし、差別のタイプに関しても広く研究されているように、主に隠蔽された集団差別に対するテストはあまり研究されていない。
このギャップに対処するため,本研究では,センシティブな特徴の組み合わせに対する条件によって特徴付けられるニューラルネットワークの隠れた部分群識別を体系的に識別し測定する,解釈可能なテスト手法であるtestsgdを提案する。
具体的には、ニューラルネットワークが与えられた場合、TESTSGDは自動的に解釈可能なルールセットを生成し、入力空間をモデルのグループ識別を公開する2つのグループに分類する。
TESTSGDはまた、入力空間のサンプリングに基づいて推定されたグループフェアネススコアを提供し、識別された微妙なグループ識別の度合いを測定する。
構造化データとテキストデータの両方を含む一般的なデータセットでトレーニングされた複数のニューラルネットワークモデルを評価する。
実験の結果,TESTSGDisはこれまでに明らかにされていないような微妙な集団識別を効果的かつ効果的に検出できることが示唆された。
さらに, TESTSGDcanの試験結果から, 未学習の精度低下を伴う再トレーニングにより, 識別を緩和する新しいサンプルを作成した。
関連論文リスト
- GroupMixNorm Layer for Learning Fair Models [4.324785083027206]
本研究では,ディープラーニングモデルからバイアスを緩和するための,内部処理に基づく新しいGroupMixNorm層を提案する。
提案手法は,全体の精度に最小限の影響を伴って,いくつかの公正度測定値を改善する。
論文 参考訳(メタデータ) (2023-12-19T09:04:26Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Population-Based Evolutionary Gaming for Unsupervised Person
Re-identification [26.279581599246224]
教師なしの人物の再識別は、個々のニューラルネットワークの自己改善を通じて大きな成功を収めた。
我々は,多種多様なニューラルネットワークの集団が選択,再現,突然変異,集団相互学習を通じて同時に訓練される,人口ベースの進化型ゲーム(PEG)フレームワークを開発する。
PEGは、個人の再識別のための新しい最先端の精度を生み出し、教師なし学習のための集団ベースのネットワーク協調トレーニングの大きな可能性を示している。
論文 参考訳(メタデータ) (2023-06-08T14:33:41Z) - Aleatoric and Epistemic Discrimination: Fundamental Limits of Fairness Interventions [13.279926364884512]
機械学習モデルは、モデル開発時の選択とデータ固有のバイアスにより、特定の人口群で過小評価される可能性がある。
フェアネス制約下でのモデルの性能限界を決定することにより,アレータリック判別の定量化を行う。
本研究では, 公平性制約を適用した際のモデルの精度と, アレタリック判別による限界とのギャップとして, てんかんの判別を定量化する。
論文 参考訳(メタデータ) (2023-01-27T15:38:20Z) - Error Parity Fairness: Testing for Group Fairness in Regression Tasks [5.076419064097733]
この研究は、回帰フェアネスの概念としてエラーパリティを示し、グループフェアネスを評価するためのテスト手法を導入する。
続いて、いくつかの統計上のグループを比較し、格差を探索し、影響されたグループを特定するのに適した置換テストが実施される。
全体として、提案された回帰公正性テスト手法は、公正な機械学習文献のギャップを埋め、より大きなアカウンタビリティ評価とアルゴリズム監査の一部として機能する可能性がある。
論文 参考訳(メタデータ) (2022-08-16T17:47:20Z) - Statistical and Computational Phase Transitions in Group Testing [73.55361918807883]
本研究の目的は、希少な疾患を患っているk人の集団を同定することである。
個々人のテストを割り当てるための2つの異なる単純なランダムな手順を考える。
論文 参考訳(メタデータ) (2022-06-15T16:38:50Z) - Reusing the Task-specific Classifier as a Discriminator:
Discriminator-free Adversarial Domain Adaptation [55.27563366506407]
非教師付きドメイン適応(UDA)のための識別器なし対向学習ネットワーク(DALN)を導入する。
DALNは、統一された目的によって明確なドメインアライメントとカテゴリの区別を達成する。
DALNは、さまざまなパブリックデータセット上の既存の最先端(SOTA)メソッドと比較して好意的に比較する。
論文 参考訳(メタデータ) (2022-04-08T04:40:18Z) - The Group Loss++: A deeper look into group loss for deep metric learning [65.19665861268574]
グループ損失 (Group Loss) は、グループの全サンプルに埋め込まれた類似性を強制する微分可能なラベルプロパゲーション法に基づく損失関数である。
4つのデータセットでクラスタリングと画像検索の最先端結果を示し、2人の再識別データセットで競合結果を示す。
論文 参考訳(メタデータ) (2022-04-04T14:09:58Z) - Modeling Discriminative Representations for Out-of-Domain Detection with
Supervised Contrastive Learning [16.77134235390429]
OOD検出の主な課題は、識別的セマンティックな特徴を学習することである。
クラス内分散を最小限に抑えるための教師付きコントラスト学習目標を提案する。
我々は,サンプルの擬似多様なビューを得るために,対角的拡張機構を用いる。
論文 参考訳(メタデータ) (2021-05-29T12:54:22Z) - Balancing Biases and Preserving Privacy on Balanced Faces in the Wild [50.915684171879036]
現在の顔認識(FR)モデルには、人口統計バイアスが存在する。
さまざまな民族と性別のサブグループにまたがる偏見を測定するために、我々のバランス・フェイススをWildデータセットに導入します。
真偽と偽のサンプルペアを区別するために1点のスコアしきい値に依存すると、最適以下の結果が得られます。
本稿では,最先端ニューラルネットワークから抽出した顔特徴を用いたドメイン適応学習手法を提案する。
論文 参考訳(メタデータ) (2021-03-16T15:05:49Z) - Mitigating Face Recognition Bias via Group Adaptive Classifier [53.15616844833305]
この研究は、全てのグループの顔がより平等に表現できる公正な顔表現を学ぶことを目的としている。
我々の研究は、競争精度を維持しながら、人口集団間での顔認識バイアスを軽減することができる。
論文 参考訳(メタデータ) (2020-06-13T06:43:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。