論文の概要: Unfairness Discovery and Prevention For Few-Shot Regression
- arxiv url: http://arxiv.org/abs/2009.11406v1
- Date: Wed, 23 Sep 2020 22:34:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:45:54.789055
- Title: Unfairness Discovery and Prevention For Few-Shot Regression
- Title(参考訳): ファウショット回帰の異常発見と防止
- Authors: Chen Zhao, Feng Chen
- Abstract要約: 歴史データの識別(あるいは偏見)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
- 参考スコア(独自算出の注目度): 9.95899391250129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study fairness in supervised few-shot meta-learning models that are
sensitive to discrimination (or bias) in historical data. A machine learning
model trained based on biased data tends to make unfair predictions for users
from minority groups. Although this problem has been studied before, existing
methods mainly aim to detect and control the dependency effect of the protected
variables (e.g. race, gender) on target prediction based on a large amount of
training data. These approaches carry two major drawbacks that (1) lacking
showing a global cause-effect visualization for all variables; (2) lacking
generalization of both accuracy and fairness to unseen tasks. In this work, we
first discover discrimination from data using a causal Bayesian knowledge graph
which not only demonstrates the dependency of the protected variable on target
but also indicates causal effects between all variables. Next, we develop a
novel algorithm based on risk difference in order to quantify the
discriminatory influence for each protected variable in the graph. Furthermore,
to protect prediction from unfairness, a fast-adapted bias-control approach in
meta-learning is proposed, which efficiently mitigates statistical disparity
for each task and it thus ensures independence of protected attributes on
predictions based on biased and few-shot data samples. Distinct from existing
meta-learning models, group unfairness of tasks are efficiently reduced by
leveraging the mean difference between (un)protected groups for regression
problems. Through extensive experiments on both synthetic and real-world data
sets, we demonstrate that our proposed unfairness discovery and prevention
approaches efficiently detect discrimination and mitigate biases on model
output as well as generalize both accuracy and fairness to unseen tasks with a
limited amount of training samples.
- Abstract(参考訳): 歴史データの識別(あるいはバイアス)に敏感な教師付き数発メタラーニングモデルの公平性について検討する。
偏りのあるデータに基づいてトレーニングされた機械学習モデルは、少数グループのユーザに対して不公平な予測を行う傾向がある。
この問題はこれまで研究されてきたが、既存の手法は主に、大量のトレーニングデータに基づいて、保護された変数(人種、性別など)のターゲット予測に対する依存性効果を検出し、制御することを目的としている。
これらの手法には,(1)全変数に対する大域的原因効果の可視化が欠如していること,(2)未確認タスクに対する精度と公平性の一般化が欠如していること,の2つの大きな欠点がある。
本研究では,保護変数のターゲットへの依存性を示すだけでなく,すべての変数間の因果効果を示す因果ベイズ知識グラフを用いて,まずデータから識別する。
次に,グラフ内の各保護変数に対する識別的影響を定量化するために,リスク差に基づく新しいアルゴリズムを開発した。
さらに、予測を不公平から守るために、各タスクの統計的不一致を効率的に軽減し、バイアス付きおよび少数ショットデータサンプルに基づく予測に基づいて保護属性の独立性を保証するメタラーニングにおける高速適応バイアス制御手法を提案する。
既存のメタラーニングモデルと異なり、(非)保護群間の平均差を回帰問題に活用することにより、タスクの集団不公平性を効率的に低減する。
提案した不公平発見・防止手法は, モデル出力における識別・偏見を効果的に検出し, 精度と公平性の両方を, 限られたトレーニングサンプルで未確認タスクに一般化することを示した。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Learning for Counterfactual Fairness from Observational Data [62.43249746968616]
公正な機械学習は、人種、性別、年齢などの特定の保護された(感受性のある)属性によって記述されるある種のサブグループに対して、学習モデルのバイアスを取り除くことを目的としている。
カウンターファクトフェアネスを達成するための既存の手法の前提条件は、データに対する因果モデルの事前の人間の知識である。
本研究では,新しいフレームワークCLAIREを提案することにより,因果関係を付与せずに観測データから対実的に公正な予測を行う問題に対処する。
論文 参考訳(メタデータ) (2023-07-17T04:08:29Z) - ASPEST: Bridging the Gap Between Active Learning and Selective
Prediction [56.001808843574395]
選択予測は、不確実な場合の予測を棄却する信頼性のあるモデルを学ぶことを目的としている。
アクティブラーニングは、最も有意義な例を問うことで、ラベリングの全体、すなわち人間の依存度を下げることを目的としている。
本研究では,移動対象領域からより情報のあるサンプルを検索することを目的とした,新たな学習パラダイムである能動的選択予測を導入する。
論文 参考訳(メタデータ) (2023-04-07T23:51:07Z) - Delving into Identify-Emphasize Paradigm for Combating Unknown Bias [52.76758938921129]
同定精度を高めるため,有効バイアス強調スコアリング法(ECS)を提案する。
また, マイニングされたバイアスアライメントとバイアスコンプリケート試料のコントリビューションのバランスをとるために, 勾配アライメント(GA)を提案する。
様々な環境で複数のデータセットで実験を行い、提案されたソリューションが未知のバイアスの影響を軽減することを実証した。
論文 参考訳(メタデータ) (2023-02-22T14:50:24Z) - Deep Learning on a Healthy Data Diet: Finding Important Examples for
Fairness [15.210232622716129]
データ駆動予測ソリューションは、主に商用アプリケーションで使われているが、バイアスやステレオタイプに悩まされる傾向がある。
データ拡張は、トレーニングデータセットに反実例を追加することで、性別バイアスを低減する。
拡張データセットのいくつかの例は、公平性には重要でも有害でもないことを示します。
論文 参考訳(メタデータ) (2022-11-20T22:42:30Z) - Simultaneous Improvement of ML Model Fairness and Performance by
Identifying Bias in Data [1.76179873429447]
トレーニング前にデータセットから削除すべき特定の種類のバイアスを記述したインスタンスを検出できるデータ前処理手法を提案する。
特に、類似した特徴を持つインスタンスが存在するが、保護属性の変動に起因するラベルが異なる問題設定では、固有のバイアスがデータセット内で引き起こされる、と主張する。
論文 参考訳(メタデータ) (2022-10-24T13:04:07Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Statistical discrimination in learning agents [64.78141757063142]
統計的差別は、訓練人口のバイアスとエージェントアーキテクチャの両方の関数としてエージェントポリシーに現れる。
我々は、リカレントニューラルネットワークを使用するエージェントによる差別の低減と、トレーニング環境のバイアスの低減が示される。
論文 参考訳(メタデータ) (2021-10-21T18:28:57Z) - Fairness in Semi-supervised Learning: Unlabeled Data Help to Reduce
Discrimination [53.3082498402884]
機械学習の台頭における投機は、機械学習モデルによる決定が公正かどうかである。
本稿では,未ラベルデータのラベルを予測するための擬似ラベリングを含む,前処理フェーズにおける公平な半教師付き学習の枠組みを提案する。
偏見、分散、ノイズの理論的分解分析は、半教師付き学習における差別の異なる源とそれらが公平性に与える影響を浮き彫りにする。
論文 参考訳(メタデータ) (2020-09-25T05:48:56Z) - Towards Accuracy-Fairness Paradox: Adversarial Example-based Data
Augmentation for Visual Debiasing [15.689539491203373]
機械学習の公平性は、ターゲットタスクに対処する際に、特定の保護された、または機密性の高いグループに対するバイアスを懸念する。
本稿では,画像分類タスクの文脈におけるバイアス問題について検討する。
論文 参考訳(メタデータ) (2020-07-27T15:17:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。