論文の概要: FaiR-N: Fair and Robust Neural Networks for Structured Data
- arxiv url: http://arxiv.org/abs/2010.06113v1
- Date: Tue, 13 Oct 2020 01:53:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 22:55:57.371382
- Title: FaiR-N: Fair and Robust Neural Networks for Structured Data
- Title(参考訳): FaiR-N:構造化データのための公正かつロバストなニューラルネットワーク
- Authors: Shubham Sharma, Alan H. Gee, David Paydarfar, Joydeep Ghosh
- Abstract要約: 決定境界に対するデータポイントの距離を考慮したニューラルネットワークのトレーニングのための新しい定式化を提案する。
この損失でトレーニングすることで、トレーニングなしでトレーニングされたモデルと同じような精度で、より公平で堅牢なニューラルネットワークが得られることを示す。
- 参考スコア(独自算出の注目度): 10.14835182649819
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fairness in machine learning is crucial when individuals are subject to
automated decisions made by models in high-stake domains. Organizations that
employ these models may also need to satisfy regulations that promote
responsible and ethical A.I. While fairness metrics relying on comparing model
error rates across subpopulations have been widely investigated for the
detection and mitigation of bias, fairness in terms of the equalized ability to
achieve recourse for different protected attribute groups has been relatively
unexplored. We present a novel formulation for training neural networks that
considers the distance of data points to the decision boundary such that the
new objective: (1) reduces the average distance to the decision boundary
between two groups for individuals subject to a negative outcome in each group,
i.e. the network is more fair with respect to the ability to obtain recourse,
and (2) increases the average distance of data points to the boundary to
promote adversarial robustness. We demonstrate that training with this loss
yields more fair and robust neural networks with similar accuracies to models
trained without it. Moreover, we qualitatively motivate and empirically show
that reducing recourse disparity across groups also improves fairness measures
that rely on error rates. To the best of our knowledge, this is the first time
that recourse capabilities across groups are considered to train fairer neural
networks, and a relation between error rates based fairness and recourse based
fairness is investigated.
- Abstract(参考訳): 機械学習の公平性は、個人が高リスクドメインのモデルによって行われる自動決定を受ける場合に重要である。
これらのモデルを採用する組織は、責任と倫理的A.I.を促進する規制を満たさなければならない。サブポピュレーション間のモデルエラー率の比較に依存する公正度指標は、バイアスの検出と緩和のために広く研究されているが、異なる保護された属性グループの会話を達成できる平等化能力については、比較的調査されていない。
ニューラルネットワークをトレーニングするための新しい定式化手法として,(1)各グループにおいて否定的な結果を受ける個人に対する2つのグループ間の決定境界に対する平均距離を減らし,(2)関係を得る能力に関してネットワークはより公平であり,(2)境界へのデータポイントの平均距離を増大させ,敵の堅牢性を促進する。
この損失によるトレーニングは、トレーニングされていないモデルに類似した精度で、より公平で堅牢なニューラルネットワークをもたらすことを実証する。
さらに,グループ間での会話の相違の低減は,誤り率に依存する公平度対策も改善することを示す。
我々の知る限りでは、グループ間のリコース能力がより公平なニューラルネットワークを訓練すると考えられるのはこれが初めてであり、エラーレートに基づくフェアネスとリコースに基づくフェアネスの関係について検討する。
関連論文リスト
- Causal Fairness-Guided Dataset Reweighting using Neural Networks [25.492273448917278]
因果フェアネスに対処するために,データセットの再重み付け方式を構築した。
本研究の目的は,変数間の因果関係を考慮し,バイアスを軽減することである。
提案手法は、下流タスクにおいて、元のデータに近づきながら、データに対する因果フェアネスを達成することができることを示す。
論文 参考訳(メタデータ) (2023-11-17T13:31:19Z) - Preventing Arbitrarily High Confidence on Far-Away Data in Point-Estimated Discriminative Neural Networks [28.97655735976179]
ReLUネットワークは、テストデータがトレーニングセットから遠く離れている場合、ほぼ常に高い信頼性の予測が得られることが示されている。
我々は、余剰クラスのロジットに対応するニューラルネットワークの出力に項を追加することで、この問題を克服する。
この技術は、簡易な識別点推定訓練を維持しながら、遠距離試験データに対する任意に高い信頼を確実に防止する。
論文 参考訳(メタデータ) (2023-11-07T03:19:16Z) - Bi-discriminator Domain Adversarial Neural Networks with Class-Level
Gradient Alignment [87.8301166955305]
そこで本研究では,クラスレベルのアライメントアライメントを有するバイディミネータドメイン対向ニューラルネットワークを提案する。
BACGは、領域分布の整合性を改善するために勾配信号と二階確率推定を利用する。
さらに、対照的な学習にインスパイアされ、トレーニングプロセスを大幅に短縮できるメモリバンクベースの変種であるFast-BACGを開発した。
論文 参考訳(メタデータ) (2023-10-21T09:53:17Z) - Population-Based Evolutionary Gaming for Unsupervised Person
Re-identification [26.279581599246224]
教師なしの人物の再識別は、個々のニューラルネットワークの自己改善を通じて大きな成功を収めた。
我々は,多種多様なニューラルネットワークの集団が選択,再現,突然変異,集団相互学習を通じて同時に訓練される,人口ベースの進化型ゲーム(PEG)フレームワークを開発する。
PEGは、個人の再識別のための新しい最先端の精度を生み出し、教師なし学習のための集団ベースのネットワーク協調トレーニングの大きな可能性を示している。
論文 参考訳(メタデータ) (2023-06-08T14:33:41Z) - DualFair: Fair Representation Learning at Both Group and Individual
Levels via Contrastive Self-supervision [73.80009454050858]
この研究は、DualFairと呼ばれる自己教師型モデルを提示し、学習された表現から性別や人種などのセンシティブな属性をデバイアスすることができる。
我々のモデルは、グループフェアネスと対実フェアネスという2つのフェアネス基準を共同で最適化する。
論文 参考訳(メタデータ) (2023-03-15T07:13:54Z) - Pushing the Accuracy-Group Robustness Frontier with Introspective
Self-play [16.262574174989698]
Introspective Self-play (ISP)は、データセットバイアス下でのディープニューラルネットワークの不確実性推定を改善するための単純なアプローチである。
ISPはモデル表現のバイアス認識と結果の不確実性評価を確実に改善することを示す。
論文 参考訳(メタデータ) (2023-02-11T22:59:08Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Probabilistic Verification of Neural Networks Against Group Fairness [21.158245095699456]
本稿では,ニューラルネットワークの公正性に対する公式な検証手法を提案する。
提案手法は,ユーザが提供するニューラルネットワークからマルコフ連鎖を学習するためのアプローチに基づいている。
分析の結果、神経重みは公平性を改善するために最適化できることが実証された。
論文 参考訳(メタデータ) (2021-07-18T04:34:31Z) - Anomaly Detection on Attributed Networks via Contrastive Self-Supervised
Learning [50.24174211654775]
本論文では,アトリビュートネットワーク上の異常検出のためのコントラスト型自己監視学習フレームワークを提案する。
このフレームワークは、新しいタイプのコントラストインスタンスペアをサンプリングすることで、ネットワークデータからのローカル情報を完全に活用します。
高次元特性と局所構造から情報埋め込みを学習するグラフニューラルネットワークに基づくコントラスト学習モデルを提案する。
論文 参考訳(メタデータ) (2021-02-27T03:17:20Z) - Provably Training Neural Network Classifiers under Fairness Constraints [70.64045590577318]
過パラメータのニューラルネットワークが制約を満たしていることを示す。
公平なニューラルネットワーク分類器を構築する上で重要な要素は、ニューラルネットワークの非応答解析を確立することである。
論文 参考訳(メタデータ) (2020-12-30T18:46:50Z) - Learning from Failure: Training Debiased Classifier from Biased
Classifier [76.52804102765931]
ニューラルネットワークは、所望の知識よりも学習が簡単である場合にのみ、素早い相関に依存することを学習していることを示す。
本稿では,一対のニューラルネットワークを同時にトレーニングすることで,障害に基づくデバイアス化手法を提案する。
本手法は,合成データセットと実世界のデータセットの両方において,各種バイアスに対するネットワークのトレーニングを大幅に改善する。
論文 参考訳(メタデータ) (2020-07-06T07:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。