論文の概要: Post-processing for Individual Fairness
- arxiv url: http://arxiv.org/abs/2110.13796v1
- Date: Tue, 26 Oct 2021 15:51:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 14:24:02.455410
- Title: Post-processing for Individual Fairness
- Title(参考訳): 個別公正のためのポストプロセッシング
- Authors: Felix Petersen, Debarghya Mukherjee, Yuekai Sun, Mikhail Yurochkin
- Abstract要約: アルゴリズムフェアネスにおける後処理は、すでに実運用で使用されているMLシステムのバイアスを修正するための汎用的なアプローチである。
学習者が元のモデルの予測と個人間の類似性グラフにのみアクセスでき、所望の公正性制約を導出できるような設定を考える。
提案アルゴリズムは,BERTなどの大規模NLPモデルにおいて,精度を保ちながら個々のバイアスを補正する。
- 参考スコア(独自算出の注目度): 23.570995756189266
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Post-processing in algorithmic fairness is a versatile approach for
correcting bias in ML systems that are already used in production. The main
appeal of post-processing is that it avoids expensive retraining. In this work,
we propose general post-processing algorithms for individual fairness (IF). We
consider a setting where the learner only has access to the predictions of the
original model and a similarity graph between individuals, guiding the desired
fairness constraints. We cast the IF post-processing problem as a graph
smoothing problem corresponding to graph Laplacian regularization that
preserves the desired "treat similar individuals similarly" interpretation. Our
theoretical results demonstrate the connection of the new objective function to
a local relaxation of the original individual fairness. Empirically, our
post-processing algorithms correct individual biases in large-scale NLP models
such as BERT, while preserving accuracy.
- Abstract(参考訳): アルゴリズムフェアネスにおける後処理は、既にプロダクションで使用されているMLシステムのバイアスを修正するための汎用的なアプローチである。
後処理の主な魅力は、高価な再トレーニングを避けることである。
本研究では,個別公平性(IF)のための一般的なポストプロセッシングアルゴリズムを提案する。
我々は、学習者が元のモデルと個人間の類似性グラフの予測のみにアクセスし、所望の公平さの制約を導くような設定を考える。
我々はIF後処理問題をグラフ平滑化問題として、所望の「類似した個人を同様に扱う」解釈を保存するラプラシアン正規化問題とした。
理論的な結果は,新しい目的関数と元の個人的公正の局所的緩和の関連性を示すものである。
実験的に,我々の後処理アルゴリズムは,BERTなどの大規模NLPモデルにおいて,精度を保ちながら個々のバイアスを補正する。
関連論文リスト
- Mitigating Matching Biases Through Score Calibration [1.5530839016602822]
レコードマッチングにおけるバイアスの結果は、人口集団間での不平等なエラー率をもたらし、倫理的および法的懸念を提起する。
本稿では,従来の回帰モデルに適用された公正度指標を適用し,レコードマッチングにおけるすべてのしきい値の累積バイアスを評価する。
本稿では, 最適輸送理論とワッサーシュタインバリセンタを利用して, 階層群間でのマッチングスコアのバランスをとることを目的とした, ポストプロセッシングキャリブレーション手法を提案する。
論文 参考訳(メタデータ) (2024-11-03T21:01:40Z) - Differentially Private Post-Processing for Fair Regression [13.855474876965557]
我々のアルゴリズムは任意の回帰器を後処理し、出力を再マッピングすることで公平性を向上させることができる。
我々は,本アルゴリズムのサンプル複雑性を分析し,ヒストグラム中のビン数の選択から得られる統計的バイアスと分散とのトレードオフを明らかにする。
論文 参考訳(メタデータ) (2024-05-07T06:09:37Z) - Sparse is Enough in Fine-tuning Pre-trained Large Language Models [98.46493578509039]
我々はSparse Increment Fine-Tuning (SIFT) という勾配に基づくスパース微調整アルゴリズムを提案する。
GLUE Benchmark や Instruction-tuning などのタスクで有効性を検証する。
論文 参考訳(メタデータ) (2023-12-19T06:06:30Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - Kernel-Whitening: Overcome Dataset Bias with Isotropic Sentence
Embedding [51.48582649050054]
符号化文の特徴間の相関関係を解消する表現正規化手法を提案する。
またNystromカーネル近似法であるKernel-Whiteningを提案する。
実験により,Kernel-Whiteningは分布内精度を維持しつつ,分布外データセット上でのBERTの性能を著しく向上することが示された。
論文 参考訳(メタデータ) (2022-10-14T05:56:38Z) - iFlipper: Label Flipping for Individual Fairness [16.50058737985628]
ラベルフリップは個人の公正性を改善するための効果的な前処理手法であることを示す。
近似線形プログラミングアルゴリズムを提案し、その解が最適解にどの程度近いかを理論的に保証する。
実際のデータセットの実験では、iFlipperは個々の公正性の観点から、他の前処理ベースラインを大幅に上回っている。
論文 参考訳(メタデータ) (2022-09-15T05:02:01Z) - Domain Adaptation meets Individual Fairness. And they get along [48.95808607591299]
アルゴリズムフェアネスの介入は、機械学習モデルが分散シフトを克服するのに役立つことを示す。
特に,個人フェアネス(IF)の適切な概念を強制することで,MLモデルの分布外精度が向上することを示す。
論文 参考訳(メタデータ) (2022-05-01T16:19:55Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Individually Fair Gradient Boosting [86.1984206610373]
我々は、グラデーションブーストにおいて個人の公平性を強制するタスクを検討する。
アルゴリズムがグローバルに収束し、一般化することを示す。
また,アルゴリズムバイアスの影響を受けやすい3つのml問題に対するアルゴリズムの有効性を示す。
論文 参考訳(メタデータ) (2021-03-31T03:06:57Z) - SenSeI: Sensitive Set Invariance for Enforcing Individual Fairness [50.916483212900275]
まず、ある感度集合の不変性を強制する個別の公正性のバージョンを定式化する。
次に,輸送型正規化器を設計し,個別の公平性を強制し,効率よく正規化器を最小化するためのアルゴリズムを開発する。
論文 参考訳(メタデータ) (2020-06-25T04:31:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。