論文の概要: FAIRER: Fairness as Decision Rationale Alignment
- arxiv url: http://arxiv.org/abs/2306.15299v1
- Date: Tue, 27 Jun 2023 08:37:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 14:10:14.680476
- Title: FAIRER: Fairness as Decision Rationale Alignment
- Title(参考訳): fairer: 意思決定の合理化としての公平性
- Authors: Tianlin Li, Qing Guo, Aishan Liu, Mengnan Du, Zhiming Li, Yang Liu
- Abstract要約: ディープニューラルネットワーク(DNN)は大きな進歩を遂げているが、フェアネスの問題に悩まされることが多い。
トレーニングされたネットワークがどのように公正な予測を行い、将来の公正性を改善するのかは不明だ。
本稿では, 勾配誘導パリティアライメントを提案し, サブグループ間のニューロンの勾配重み付けを促進させる。
- 参考スコア(独自算出の注目度): 23.098752318439782
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNNs) have made significant progress, but often suffer
from fairness issues, as deep models typically show distinct accuracy
differences among certain subgroups (e.g., males and females). Existing
research addresses this critical issue by employing fairness-aware loss
functions to constrain the last-layer outputs and directly regularize DNNs.
Although the fairness of DNNs is improved, it is unclear how the trained
network makes a fair prediction, which limits future fairness improvements. In
this paper, we investigate fairness from the perspective of decision rationale
and define the parameter parity score to characterize the fair decision process
of networks by analyzing neuron influence in various subgroups. Extensive
empirical studies show that the unfair issue could arise from the unaligned
decision rationales of subgroups. Existing fairness regularization terms fail
to achieve decision rationale alignment because they only constrain last-layer
outputs while ignoring intermediate neuron alignment. To address the issue, we
formulate the fairness as a new task, i.e., decision rationale alignment that
requires DNNs' neurons to have consistent responses on subgroups at both
intermediate processes and the final prediction. To make this idea practical
during optimization, we relax the naive objective function and propose
gradient-guided parity alignment, which encourages gradient-weighted
consistency of neurons across subgroups. Extensive experiments on a variety of
datasets show that our method can significantly enhance fairness while
sustaining a high level of accuracy and outperforming other approaches by a
wide margin.
- Abstract(参考訳): 深層ニューラルネットワーク(dnn)は大きな進歩を遂げているが、通常、深層モデルは特定のサブグループ(例えば、男性と女性)の間で異なる精度の差を示すため、公平性の問題に苦しめられている。
既存の研究では、最終層の出力を制限し、DNNを直接正規化するために、公正な損失関数を用いてこの問題に対処している。
DNNの公平性は改善されているが、トレーニングされたネットワークがどのように公正な予測を行うのかははっきりしない。
本稿では,決定的合理性の観点から公平性を調査し,パラメータパリティスコアを定義し,様々なサブグループにおけるニューロンの影響を分析し,ネットワークの公平な決定過程を特徴付ける。
広範囲にわたる実証研究は、不公平な問題は、サブグループの不整合決定論理から生じる可能性があることを示している。
既存の公正規則化用語は、中間ニューロンアライメントを無視しながら最終層出力のみを制約するため、決定的合理的アライメントを達成することができない。
この問題に対処するために、フェアネスを新たなタスク、すなわち、DNNのニューロンが中間プロセスと最終予測の両方でサブグループに一貫した応答を要求される決定的合理性アライメントとして定式化する。
このアイデアを最適化中に実用的なものにするために, 主観的関数を緩和し, 勾配誘導パリティアライメントを提案する。
各種データセットに対する広範囲な実験により,高い精度を維持しながら公平性を著しく向上し,他の手法よりも広いマージンで優れることを示す。
関連論文リスト
- NeuFair: Neural Network Fairness Repair with Dropout [19.49034966552718]
本稿では,ディープニューラルネットワーク(DNN)における後処理バイアス緩和としてのニューロンのドロップアウトについて検討する。
ランダム化アルゴリズムの設計は, モデルの性能劣化を最小限に抑えつつ, 公平性(最大69%)を向上させるのに効果的であり, 効率的であることを示す。
論文 参考訳(メタデータ) (2024-07-05T05:45:34Z) - What Hides behind Unfairness? Exploring Dynamics Fairness in Reinforcement Learning [52.51430732904994]
強化学習問題では、エージェントはリターンを最大化しながら長期的な公正性を考慮する必要がある。
近年の研究では様々なフェアネスの概念が提案されているが、RL問題における不公平性がどのように生じるかは定かではない。
我々は、環境力学から生じる不平等を明示的に捉える、ダイナミックスフェアネスという新しい概念を導入する。
論文 参考訳(メタデータ) (2024-04-16T22:47:59Z) - MAPPING: Debiasing Graph Neural Networks for Fair Node Classification
with Limited Sensitive Information Leakage [1.8238848494579714]
公正ノード分類のためのモデルに依存しない新しい脱バイアスフレームワーク MAPPing を提案する。
以上の結果から,MAPPingは実用性と公正性,および機密情報漏洩のプライバシーリスクとのトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2024-01-23T14:59:46Z) - Marginal Debiased Network for Fair Visual Recognition [59.05212866862219]
本稿では,デバイアス表現を学習するための新しい限界脱バイアスネットワーク(MDN)を提案する。
我々のMDNは、表現不足のサンプルに対して顕著な性能を達成できる。
論文 参考訳(メタデータ) (2024-01-04T08:57:09Z) - Continual Learning via Sequential Function-Space Variational Inference [65.96686740015902]
連続学習を逐次関数空間変動推論として定式化した目的を提案する。
ニューラルネットワークの予測を直接正規化する目的と比較して、提案した目的はより柔軟な変動分布を可能にする。
タスクシーケンスの範囲で、逐次関数空間変動推論によってトレーニングされたニューラルネットワークは、関連する手法でトレーニングされたネットワークよりも予測精度が良いことを実証した。
論文 参考訳(メタデータ) (2023-12-28T18:44:32Z) - FairNorm: Fair and Fast Graph Neural Network Training [9.492903649862761]
グラフニューラルネットワーク(GNN)は、多くのグラフベースの学習タスクの最先端を実現するために実証されている。
GNNは、訓練データ内のバイアスを継承し、さらに増幅し、特定のセンシティブなグループに対して不公平な結果をもたらす可能性があることが示されている。
この研究は、GNNベースの学習におけるバイアスを低減する統一正規化フレームワークであるFairNormを提案する。
論文 参考訳(メタデータ) (2022-05-20T06:10:27Z) - Debiased Graph Neural Networks with Agnostic Label Selection Bias [59.61301255860836]
既存のグラフニューラルネットワーク(GNN)のほとんどは、データの選択バイアスを考慮せずに提案されている。
本稿では,デコリレーションレギュレータを区別した新しいデバイアスドグラフニューラルネットワーク(DGNN)を提案する。
DGNNは既存のGNNを強化するフレキシブルなフレームワークである。
論文 参考訳(メタデータ) (2022-01-19T16:50:29Z) - FaiR-N: Fair and Robust Neural Networks for Structured Data [10.14835182649819]
決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
論文 参考訳(メタデータ) (2020-10-13T01:53:15Z) - Fairness Through Robustness: Investigating Robustness Disparity in Deep
Learning [61.93730166203915]
我々は、モデルが敵の攻撃に弱い場合、従来の公平性の概念では不十分であると主張する。
頑健性バイアスを測定することはDNNにとって難しい課題であり,この2つの方法を提案する。
論文 参考訳(メタデータ) (2020-06-17T22:22:24Z) - Hold me tight! Influence of discriminative features on deep network
boundaries [63.627760598441796]
本稿では,データセットの特徴と,サンプルから決定境界までの距離を関連付ける新しい視点を提案する。
これにより、トレーニングサンプルの位置を慎重に調整し、大規模ビジョンデータセットでトレーニングされたCNNの境界における誘発された変化を測定することができる。
論文 参考訳(メタデータ) (2020-02-15T09:29:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。