論文の概要: Statistical inference for individual fairness
- arxiv url: http://arxiv.org/abs/2103.16714v1
- Date: Tue, 30 Mar 2021 22:49:25 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-01 14:45:47.198910
- Title: Statistical inference for individual fairness
- Title(参考訳): 個人的公正に対する統計的推測
- Authors: Subha Maity, Songkai Xue, Mikhail Yurochkin, Yuekai Sun
- Abstract要約: 機械学習モデルにおける個々人の公平性の違反を検出する問題に注目する。
我々は,対向コスト関数のための一連の推論ツールを開発した。
実世界のケーススタディでツールの有用性を実証します。
- 参考スコア(独自算出の注目度): 24.622418924551315
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As we rely on machine learning (ML) models to make more consequential
decisions, the issue of ML models perpetuating or even exacerbating undesirable
historical biases (e.g., gender and racial biases) has come to the fore of the
public's attention. In this paper, we focus on the problem of detecting
violations of individual fairness in ML models. We formalize the problem as
measuring the susceptibility of ML models against a form of adversarial attack
and develop a suite of inference tools for the adversarial cost function. The
tools allow auditors to assess the individual fairness of ML models in a
statistically-principled way: form confidence intervals for the worst-case
performance differential between similar individuals and test hypotheses of
model fairness with (asymptotic) non-coverage/Type I error rate control. We
demonstrate the utility of our tools in a real-world case study.
- Abstract(参考訳): 機械学習(ml)モデルに依存して、より連続的な意思決定を行うため、好ましくない歴史的バイアス(例えば、性別や人種的バイアス)を持続あるいは悪化させるmlモデルの問題は、大衆の注目を集めている。
本稿では,MLモデルにおける個々人の公平性の違反を検出する問題に焦点をあてる。
我々は,MLモデルの敵攻撃に対する感受性を測るものとして問題を定式化し,敵のコスト関数に対する一連の推論ツールを開発する。
このツールにより、監査人は統計的に先導された方法でMLモデルの個別の公正さを評価することができる:類似した個人間の最悪のパフォーマンス差に対する信頼区間と、(漸近的な)非カバー/タイプIエラー率制御によるモデルフェアネスのテスト仮説を形成する。
実世界のケーススタディにおけるツールの有用性を実証する。
関連論文リスト
- Fairness And Performance In Harmony: Data Debiasing Is All You Need [5.969005147375361]
本研究では,870のプロファイルを持つ実世界の大学入試データセットを用いて,公正さについて検討する。
個人的公正性については,さまざまな背景を持つ専門家とMLモデルによる意思決定の整合性を評価する。
その結果、MLモデルは人間を14.08%から18.79%上回った。
論文 参考訳(メタデータ) (2024-11-26T12:31:10Z) - Uncertainty-based Fairness Measures [14.61416119202288]
機械学習(ML)モデルの異常予測は、現実の環境で広く受け入れられることを妨げる。
本稿では,MLモデルが既存の点ベース公正度尺度と同等であるように見えるが,予測の不確実性の観点からは人口集団に偏っていることを示す。
論文 参考訳(メタデータ) (2023-12-18T15:49:03Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - Bias-inducing geometries: an exactly solvable data model with fairness
implications [13.690313475721094]
我々は、正確に解決可能なデータ不均衡の高次元モデルを導入する。
この合成フレームワークで訓練された学習モデルの典型的特性を解析的に解き放つ。
フェアネス評価によく用いられる観測対象の正確な予測値を得る。
論文 参考訳(メタデータ) (2022-05-31T16:27:57Z) - Reducing Unintended Bias of ML Models on Tabular and Textual Data [5.503546193689538]
我々は、より公平なモデルを構築するために、"無意識によるフェアネス"アプローチにインスパイアされたフレームワークであるFixOutを再考する。
FixOutのパラメータの選択を自動化するなど、いくつかの改善点を紹介します。
我々は、FixOutが異なる分類設定におけるプロセスの公平性を改善することを示す実験結果をいくつか提示する。
論文 参考訳(メタデータ) (2021-08-05T14:55:56Z) - Learning from others' mistakes: Avoiding dataset biases without modeling
them [111.17078939377313]
最先端自然言語処理(NLP)モデルは、意図したタスクをターゲットとする機能ではなく、データセットのバイアスや表面形状の相関をモデル化することを学ぶことが多い。
これまでの研究は、バイアスに関する知識が利用できる場合に、これらの問題を回避するための効果的な方法を示してきた。
本稿では,これらの問題点を無視する学習モデルについて述べる。
論文 参考訳(メタデータ) (2020-12-02T16:10:54Z) - An Investigation of Why Overparameterization Exacerbates Spurious
Correlations [98.3066727301239]
この動作を駆動するトレーニングデータの2つの重要な特性を特定します。
モデルの"記憶"に対する帰納的バイアスが,パラメータ化の超過を損なう可能性を示す。
論文 参考訳(メタデータ) (2020-05-09T01:59:13Z) - Auditing ML Models for Individual Bias and Unfairness [46.94549066382216]
本研究では,個人バイアス/不公平度に対するMLモデルの監査作業の形式化と,最適値のための一連の推論ツールの開発を行う。
ツールの有用性を実証するために、NorthpointeのCompactes recidivism予測器の性別と人種的偏見を明らかにする。
論文 参考訳(メタデータ) (2020-03-11T00:35:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。