論文の概要: FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks
- arxiv url: http://arxiv.org/abs/2206.00553v1
- Date: Wed, 1 Jun 2022 15:06:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-02 13:39:12.157403
- Title: FETA: Fairness Enforced Verifying, Training, and Predicting Algorithms
for Neural Networks
- Title(参考訳): FETA: ニューラルネットワークの検証、トレーニング、予測アルゴリズムを施行した公正性
- Authors: Kiarash Mohammadi, Aishwarya Sivaraman, Golnoosh Farnadi
- Abstract要約: ニューラルネットワークモデルの個々の公正性を検証し、トレーニングし、保証する問題について検討する。
フェアネスを強制する一般的なアプローチは、フェアネスの概念をモデルのパラメータに関する制約に変換することである。
本研究では,予測時の公正性制約を確実に実施するための逆例誘導後処理手法を開発した。
- 参考スコア(独自算出の注目度): 9.967054059014691
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Algorithmic decision making driven by neural networks has become very
prominent in applications that directly affect people's quality of life. In
this paper, we study the problem of verifying, training, and guaranteeing
individual fairness of neural network models. A popular approach for enforcing
fairness is to translate a fairness notion into constraints over the parameters
of the model. However, such a translation does not always guarantee fair
predictions of the trained neural network model. To address this challenge, we
develop a counterexample-guided post-processing technique to provably enforce
fairness constraints at prediction time. Contrary to prior work that enforces
fairness only on points around test or train data, we are able to enforce and
guarantee fairness on all points in the input domain. Additionally, we propose
an in-processing technique to use fairness as an inductive bias by iteratively
incorporating fairness counterexamples in the learning process. We have
implemented these techniques in a tool called FETA. Empirical evaluation on
real-world datasets indicates that FETA is not only able to guarantee fairness
on-the-fly at prediction time but also is able to train accurate models
exhibiting a much higher degree of individual fairness.
- Abstract(参考訳): ニューラルネットワークによって駆動されるアルゴリズムによる決定は、人々の生活の質に直接影響を与えるアプリケーションにおいて非常に顕著になっている。
本稿では,ニューラルネットワークモデルの個別公平性を検証する,訓練し,保証する問題について検討する。
公正性を強制する一般的なアプローチは、公正の概念をモデルのパラメータに関する制約に変換することである。
しかし、そのような翻訳はトレーニングされたニューラルネットワークモデルの公正な予測を必ずしも保証しない。
この課題に対処するために,予測時に公平な制約を強制する反例付きポストプロセッシング手法を開発した。
テストやトレインデータに関するポイントのみに公正を強制する以前の作業とは対照的に、入力ドメイン内のすべてのポイントに対して公正を強制および保証することが可能です。
さらに,学習過程にフェアネスの反例を反復的に組み込んで,フェアネスを帰納バイアスとして用いるインプロセッシング手法を提案する。
我々はこれらの手法をFETAと呼ばれるツールで実装した。
実世界のデータセットに対する実証的な評価は、FETAが予測時に公正性を保証できるだけでなく、より高度な個別の公正性を示す正確なモデルを訓練できることを示している。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Improving Fairness using Vision-Language Driven Image Augmentation [60.428157003498995]
公平性は、特に顔領域において、ディープラーニングの識別モデルを訓練する際に重要である。
モデルは、特定の特性(年齢や肌の色など)と無関係な属性(下流タスク)を関連付ける傾向がある
本稿では,これらの相関を緩和し,公平性を向上する手法を提案する。
論文 参考訳(メタデータ) (2023-11-02T19:51:10Z) - Counterfactual Fairness for Predictions using Generative Adversarial
Networks [28.65556399421874]
我々は, 対実フェアネスの下で予測を行うための, GCFN (Generative Counterfactual Fairness Network) と呼ばれる新しいディープニューラルネットワークを開発した。
本手法は, 対実的公正性の概念を保証するために数学的に保証されている。
論文 参考訳(メタデータ) (2023-10-26T17:58:39Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Fairness-Aware Graph Neural Networks: A Survey [53.41838868516936]
グラフニューラルネットワーク(GNN)はその表現力と最先端の予測性能によってますます重要になっている。
GNNは、基礎となるグラフデータと基本的な集約メカニズムによって生じる公平性の問題に悩まされる。
本稿では,GNNの公平性向上のためのフェアネス手法の検討と分類を行う。
論文 参考訳(メタデータ) (2023-07-08T08:09:06Z) - Provable Fairness for Neural Network Models using Formal Verification [10.90121002896312]
本稿では,ニューラルネットワークモデルの特性を検証する形式的手法を用いて,公平性を向上する手法を提案する。
適切なトレーニングによって、AUCスコアの1%未満のコストで、平均65.4%の不公平さを削減できることを示す。
論文 参考訳(メタデータ) (2022-12-16T16:54:37Z) - Fairify: Fairness Verification of Neural Networks [7.673007415383724]
ニューラルネットワーク(NN)モデルにおける個々の公正性を検証するためのFairifyを提案する。
提案手法は入力分割を採用し,各パーティション毎にNNをプルークし,公平性検証や反例を提供する。
4つの異なるソースから収集した25の現実世界のニューラルネットワーク上でFairifyを評価した。
論文 参考訳(メタデータ) (2022-12-08T23:31:06Z) - Fairness Reprogramming [42.65700878967251]
モデル再プログラミング手法を取り入れたFairRe Programと呼ばれる新しい汎用フェアネス学習パラダイムを提案する。
具体的には、FairRe Programはモデルを変更することができず、フェアネストリガと呼ばれる一連の摂動を入力に追加するケースについて検討している。
我々は,固定MLモデルの出力予測において,公平性トリガが効果的に人口統計バイアスを曖昧にすることができることを理論的および実証的に示す。
論文 参考訳(メタデータ) (2022-09-21T09:37:00Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。