論文の概要: CertiFair: A Framework for Certified Global Fairness of Neural Networks
- arxiv url: http://arxiv.org/abs/2205.09927v1
- Date: Fri, 20 May 2022 02:08:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 07:46:08.613563
- Title: CertiFair: A Framework for Certified Global Fairness of Neural Networks
- Title(参考訳): CertiFair: ニューラルネットワークのグローバルフェアネス認定のためのフレームワーク
- Authors: Haitham Khedr and Yasser Shoukry
- Abstract要約: 個人の公正さは、あるタスクに関して類似した個人が、ニューラルネットワーク(NN)モデルで同じように扱われることを示唆している。
分類タスクにおいて、所定のNNに対してフェアネス特性が保持するかどうかを確認する検証器を構築する。
次に、結果のNNの公平性に関する証明可能なバウンダリを提供する。
- 参考スコア(独自算出の注目度): 1.4620086904601473
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We consider the problem of whether a Neural Network (NN) model satisfies
global individual fairness. Individual Fairness suggests that similar
individuals with respect to a certain task are to be treated similarly by the
decision model. In this work, we have two main objectives. The first is to
construct a verifier which checks whether the fairness property holds for a
given NN in a classification task or provide a counterexample if it is
violated, i.e., the model is fair if all similar individuals are classified the
same, and unfair if a pair of similar individuals are classified differently.
To that end, We construct a sound and complete verifier that verifies global
individual fairness properties of ReLU NN classifiers using distance-based
similarity metrics. The second objective of this paper is to provide a method
for training provably fair NN classifiers from unfair (biased) data. We propose
a fairness loss that can be used during training to enforce fair outcomes for
similar individuals. We then provide provable bounds on the fairness of the
resulting NN. We run experiments on commonly used fairness datasets that are
publicly available and we show that global individual fairness can be improved
by 96 % without significant drop in test accuracy.
- Abstract(参考訳): ニューラルネットワーク(NN)モデルがグローバルな個々人の公平性を満足するかどうかを考察する。
個人の公正さは、あるタスクに関して類似した個人が、決定モデルによって同様に扱われることを示唆している。
この作業では、主な目的が2つあります。
第一は、分類タスクにおいて、あるnnに対してフェアネス特性が保持されているか、または、違反している場合の反例を提供する検証者、すなわち、全ての類似した個人が同じ分類されている場合、モデルが公正であり、類似した個体のペアが異なる分類を行う場合に不公平であるかどうかをチェックする検証者を構築することである。
そこで我々は,ReLU NN分類器のグローバルな個性特性を距離ベース類似度測定値を用いて検証する音響完全検証器を構築した。
本研究の目的は,公平なnn分類器を不公平(偏り)データから訓練する方法を提供することである。
同様の個人に対して公平な成果を強制するために,トレーニング中に使用できる公平性損失を提案する。
次に、結果のNNの公平性に関する証明可能な境界を提供する。
一般に使用されるフェアネスデータセット上で実験を行い, テスト精度を低下させることなく, 全世界のフェアネスを96 %向上できることを示した。
関連論文リスト
- Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - GFairHint: Improving Individual Fairness for Graph Neural Networks via
Fairness Hint [15.828830496326885]
グラフニューラルネットワーク(GNN)のアルゴリズムフェアネスは注目されている。
本稿では,GNNにおける個々人の公平性を促進する新しい手法GFairHintを提案する。
GFairHintは、データセットとさまざまなバックボーンモデルの組み合わせで、最も公正な結果を達成する。
論文 参考訳(メタデータ) (2023-05-25T00:03:22Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - How Robust is Your Fairness? Evaluating and Sustaining Fairness under
Unseen Distribution Shifts [107.72786199113183]
CUMA(CUrvature Matching)と呼ばれる新しいフェアネス学習手法を提案する。
CUMAは、未知の分布シフトを持つ未知の領域に一般化可能な頑健な公正性を達成する。
提案手法を3つの人気フェアネスデータセットで評価する。
論文 参考訳(メタデータ) (2022-07-04T02:37:50Z) - FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks [9.967054059014691]
ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
論文 参考訳(メタデータ) (2022-06-01T15:06:11Z) - Fair Group-Shared Representations with Normalizing Flows [68.29997072804537]
本研究では,異なるグループに属する個人を1つのグループにマッピングできる公正表現学習アルゴリズムを開発した。
提案手法は,他の公正表現学習アルゴリズムと競合することを示す。
論文 参考訳(メタデータ) (2022-01-17T10:49:49Z) - Learning Fair Node Representations with Graph Counterfactual Fairness [56.32231787113689]
以上の事実から導かれるバイアスを考慮したグラフ反事実公正性を提案する。
我々は各ノードとその周辺住民の感度特性の摂動に対応する反事実を生成する。
我々のフレームワークはグラフの反ファクトフェアネスにおける最先端のベースラインよりも優れています。
論文 参考訳(メタデータ) (2022-01-10T21:43:44Z) - Metric-Free Individual Fairness with Cooperative Contextual Bandits [17.985752744098267]
グループフェアネスは、グループ内の一部の個人に対して不公平であるように、異なるグループが同様に扱われるべきである。
個々の公正性は、問題固有の類似度指標に依存するため、まだ検討されていない。
本研究では,メトリックフリーな個人フェアネスと協調的文脈帯域幅アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-13T03:10:35Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。