論文の概要: ABCinML: Anticipatory Bias Correction in Machine Learning Applications
- arxiv url: http://arxiv.org/abs/2206.06960v1
- Date: Tue, 14 Jun 2022 16:26:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-15 16:18:41.374929
- Title: ABCinML: Anticipatory Bias Correction in Machine Learning Applications
- Title(参考訳): ABCinML:機械学習応用における予測バイアス補正
- Authors: Abdulaziz A. Almuzaini, Chidansh A. Bhatt, David M. Pennock, Vivek K.
Singh
- Abstract要約: そこで本研究では,アルゴリズムがバイアスを緩和するための予測動的学習手法を提案する。
複数の実世界のデータセットに対する実験の結果は、このアプローチが予測バイアス補正を約束していることを示唆している。
- 参考スコア(独自算出の注目度): 9.978142416219294
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The idealization of a static machine-learned model, trained once and deployed
forever, is not practical. As input distributions change over time, the model
will not only lose accuracy, any constraints to reduce bias against a protected
class may fail to work as intended. Thus, researchers have begun to explore
ways to maintain algorithmic fairness over time. One line of work focuses on
dynamic learning: retraining after each batch, and the other on robust learning
which tries to make algorithms robust against all possible future changes.
Dynamic learning seeks to reduce biases soon after they have occurred and
robust learning often yields (overly) conservative models. We propose an
anticipatory dynamic learning approach for correcting the algorithm to mitigate
bias before it occurs. Specifically, we make use of anticipations regarding the
relative distributions of population subgroups (e.g., relative ratios of male
and female applicants) in the next cycle to identify the right parameters for
an importance weighing fairness approach. Results from experiments over
multiple real-world datasets suggest that this approach has promise for
anticipatory bias correction.
- Abstract(参考訳): 一度トレーニングされ、永遠にデプロイされる静的マシン学習モデルの理想化は実用的ではない。
入力分布が時間とともに変化するため、モデルは精度を損なうだけでなく、保護クラスに対するバイアスを減らすための制約も意図通りに機能しない可能性がある。
このように、研究者はアルゴリズムの公正性を維持する方法を模索し始めている。
ひとつは、各バッチの後に再トレーニングする、もうひとつは、将来可能なすべての変更に対して堅牢なアルゴリズムを作ろうとする堅牢な学習だ。
動的学習は、それらが発生した直後にバイアスを減らし、堅牢な学習はしばしば保守的なモデルを生み出す。
そこで本研究では,アルゴリズムがバイアスを緩和するための予測動的学習手法を提案する。
具体的には、次のサイクルにおける人口サブグループの相対分布(例えば、男女の相対比率)に関する予測を用いて、公平性アプローチを重要視する適切なパラメータを特定する。
複数の実世界のデータセットに対する実験の結果は、このアプローチが予測バイアス補正を約束していることを示唆している。
関連論文リスト
- Probably Approximately Precision and Recall Learning [62.912015491907994]
精度とリコールは機械学習の基本的な指標である。
一方的なフィードバック – トレーニング中にのみ肯定的な例が観察される – は,多くの実践的な問題に固有のものだ。
PAC学習フレームワークでは,各仮説をグラフで表現し,エッジは肯定的な相互作用を示す。
論文 参考訳(メタデータ) (2024-11-20T04:21:07Z) - Improving Fairness in Credit Lending Models using Subgroup Threshold Optimization [0.0]
textitSubgroup Threshold(textitSTO)と呼ばれる新しいフェアネス手法を導入する。
STOは、個々のサブグループの分類閾値を最適化して、それらの間の全体的な識別スコアを最小化する。
実世界の信用貸付データセットを用いた実験により、STOは性別差別を90%以上削減できることが示された。
論文 参考訳(メタデータ) (2024-03-15T19:36:56Z) - Ask Your Distribution Shift if Pre-Training is Right for You [74.18516460467019]
実際に、事前訓練されたモデルの微調整は、いくつかのケースではロバスト性を大幅に改善するが、他のケースではまったく改善しない。
分散シフト中のモデルの2つの障害モード – トレーニングデータの補間不足とバイアス – に注目する。
我々の研究は、親指の規則として、事前学習は、粗悪な外挿を緩和するがデータセットのバイアスを緩和する助けとなることを示唆している。
論文 参考訳(メタデータ) (2024-02-29T23:46:28Z) - Debiasing Machine Learning Models by Using Weakly Supervised Learning [3.3298048942057523]
アルゴリズムの出力と感度変数の両方が連続的な設定において、アルゴリズム決定のバイアス軽減の問題に取り組む。
典型的な例は、年齢や財政状況に関して行われる不公平な決定である。
我々のバイアス緩和戦略は弱い教師付き学習手法であり、データのごく一部を公平に測定する必要がある。
論文 参考訳(メタデータ) (2024-02-23T18:11:32Z) - Boosting Fair Classifier Generalization through Adaptive Priority Reweighing [59.801444556074394]
より優れた一般化性を持つ性能向上フェアアルゴリズムが必要である。
本稿では,トレーニングデータとテストデータ間の分散シフトがモデル一般化性に与える影響を解消する適応的リライジング手法を提案する。
論文 参考訳(メタデータ) (2023-09-15T13:04:55Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Neural Active Learning on Heteroskedastic Distributions [29.01776999862397]
ヘテロスケダスティックデータセット上でのアクティブ学習アルゴリズムの破滅的な失敗を実証する。
本稿では,各データポイントにモデル差分スコアリング関数を組み込んで,ノイズの多いサンプルとサンプルクリーンなサンプルをフィルタするアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-11-02T07:30:19Z) - Uncertainty Estimation for Language Reward Models [5.33024001730262]
言語モデルは、テキストコーパスの教師なしトレーニングからさまざまな能力を学ぶことができる。
人間がラベル付きデータを提供するよりも選択肢を選択する方が簡単であり、事前の作業はそのような選好比較から報酬モデルをトレーニングすることで最先端のパフォーマンスを達成した。
能動的学習とリスク-逆強化学習を用いてサンプル効率とロバスト性を向上させる不確実性推定によるこれらの問題に対処することを模索する。
論文 参考訳(メタデータ) (2022-03-14T20:13:21Z) - Agree to Disagree: Diversity through Disagreement for Better
Transferability [54.308327969778155]
本稿では,D-BAT(Diversity-By-dis-Agreement Training)を提案する。
我々は、D-BATが一般化された相違の概念から自然に現れることを示す。
論文 参考訳(メタデータ) (2022-02-09T12:03:02Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - A survey of bias in Machine Learning through the prism of Statistical
Parity for the Adult Data Set [5.277804553312449]
偏見を自動決定にどのように導入できるかを理解することの重要性を示す。
まず、公正学習問題、特に二項分類設定における数学的枠組みについて述べる。
そこで,本研究では,現実およびよく知られた成人所得データセットの標準差分効果指標を用いて,偏見の有無を定量化することを提案する。
論文 参考訳(メタデータ) (2020-03-31T14:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。