論文の概要: FAIRER: Fairness as Decision Rationale Alignment
- arxiv url: http://arxiv.org/abs/2306.15299v1
- Date: Tue, 27 Jun 2023 08:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 14:10:14.680476
- Title: FAIRER: Fairness as Decision Rationale Alignment
- Title(参考訳): fairer: 意思決定の合理化としての公平性
- Authors: Tianlin Li, Qing Guo, Aishan Liu, Mengnan Du, Zhiming Li, Yang Liu
- Abstract要約: ディープニューラルネットワーク(DNN)は大きな進歩を遂げているが、フェアネスの問題に悩まされることが多い。
トレーニングされたネットワークがどのように公正な予測を行い、将来の公正性を改善するのかは不明だ。
本稿では, 勾配誘導パリティアライメントを提案し, サブグループ間のニューロンの勾配重み付けを促進させる。
- 参考スコア(独自算出の注目度): 23.098752318439782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have made significant progress, but often suffer
from fairness issues, as deep models typically show distinct accuracy
differences among certain subgroups (e.g., males and females). Existing
research addresses this critical issue by employing fairness-aware loss
functions to constrain the last-layer outputs and directly regularize DNNs.
Although the fairness of DNNs is improved, it is unclear how the trained
network makes a fair prediction, which limits future fairness improvements. In
this paper, we investigate fairness from the perspective of decision rationale
and define the parameter parity score to characterize the fair decision process
of networks by analyzing neuron influence in various subgroups. Extensive
empirical studies show that the unfair issue could arise from the unaligned
decision rationales of subgroups. Existing fairness regularization terms fail
to achieve decision rationale alignment because they only constrain last-layer
outputs while ignoring intermediate neuron alignment. To address the issue, we
formulate the fairness as a new task, i.e., decision rationale alignment that
requires DNNs' neurons to have consistent responses on subgroups at both
intermediate processes and the final prediction. To make this idea practical
during optimization, we relax the naive objective function and propose
gradient-guided parity alignment, which encourages gradient-weighted
consistency of neurons across subgroups. Extensive experiments on a variety of
datasets show that our method can significantly enhance fairness while
sustaining a high level of accuracy and outperforming other approaches by a
wide margin.
- Abstract(参考訳): 深層ニューラルネットワーク(dnn)は大きな進歩を遂げているが、通常、深層モデルは特定のサブグループ(例えば、男性と女性)の間で異なる精度の差を示すため、公平性の問題に苦しめられている。
既存の研究では、最終層の出力を制限し、DNNを直接正規化するために、公正な損失関数を用いてこの問題に対処している。
DNNの公平性は改善されているが、トレーニングされたネットワークがどのように公正な予測を行うのかははっきりしない。
本稿では,決定的合理性の観点から公平性を調査し,パラメータパリティスコアを定義し,様々なサブグループにおけるニューロンの影響を分析し,ネットワークの公平な決定過程を特徴付ける。
広範囲にわたる実証研究は、不公平な問題は、サブグループの不整合決定論理から生じる可能性があることを示している。
既存の公正規則化用語は、中間ニューロンアライメントを無視しながら最終層出力のみを制約するため、決定的合理的アライメントを達成することができない。
この問題に対処するために、フェアネスを新たなタスク、すなわち、DNNのニューロンが中間プロセスと最終予測の両方でサブグループに一貫した応答を要求される決定的合理性アライメントとして定式化する。
このアイデアを最適化中に実用的なものにするために, 主観的関数を緩和し, 勾配誘導パリティアライメントを提案する。
各種データセットに対する広範囲な実験により,高い精度を維持しながら公平性を著しく向上し,他の手法よりも広いマージンで優れることを示す。
関連論文リスト
- MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Marginal Debiased Network for Fair Visual Recognition [65.64172835624206]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
より具体的には、マージンペナルティという概念をフェアネス問題に導入することにより、マージンのソフトマックスロス(MSL)を設計する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成でき、従来の手法と比較して優れたデバイアス結果を得ることができる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - Benign Overfitting in Deep Neural Networks under Lazy Training [72.28294823115502]
データ分布が適切に分離された場合、DNNは分類のためのベイズ最適テスト誤差を達成できることを示す。
よりスムーズな関数との補間により、より一般化できることを示す。
論文 参考訳(メタデータ) (2023-05-30T19:37:44Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - NeuronFair: Interpretable White-Box Fairness Testing through Biased
Neuron Identification [25.211265460381075]
ディープニューラルネットワーク(DNN)は、様々な領域でその性能を実証している。
DNNがセンシティブなドメイン(教育、融資、雇用など)に確実に展開される前に公平性テストを実施することが不可欠である。
本稿では,従来の研究と異なる新たなフェアネステストフレームワークであるNeuronFairを提案する。
論文 参考訳(メタデータ) (2021-12-25T09:19:39Z) - FaiR-N: Fair and Robust Neural Networks for Structured Data [10.14835182649819]
決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-10-13T01:53:15Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。