論文の概要: Can Active Learning Preemptively Mitigate Fairness Issues?
- arxiv url: http://arxiv.org/abs/2104.06879v1
- Date: Wed, 14 Apr 2021 14:20:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:05:07.112900
- Title: Can Active Learning Preemptively Mitigate Fairness Issues?
- Title(参考訳): アクティブラーニングはフェアネスの問題を軽減するか?
- Authors: Fr\'ed\'eric Branchaud-Charron, Parmida Atighehchian, Pau Rodr\'iguez,
Grace Abuhamad, Alexandre Lacoste
- Abstract要約: データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
- 参考スコア(独自算出の注目度): 66.84854430781097
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Dataset bias is one of the prevailing causes of unfairness in machine
learning. Addressing fairness at the data collection and dataset preparation
stages therefore becomes an essential part of training fairer algorithms. In
particular, active learning (AL) algorithms show promise for the task by
drawing importance to the most informative training samples. However, the
effect and interaction between existing AL algorithms and algorithmic fairness
remain under-explored. In this paper, we study whether models trained with
uncertainty-based AL heuristics such as BALD are fairer in their decisions with
respect to a protected class than those trained with identically independently
distributed (i.i.d.) sampling. We found a significant improvement on predictive
parity when using BALD, while also improving accuracy compared to i.i.d.
sampling. We also explore the interaction of algorithmic fairness methods such
as gradient reversal (GRAD) and BALD. We found that, while addressing different
fairness issues, their interaction further improves the results on most
benchmarks and metrics we explored.
- Abstract(参考訳): データセットバイアスは、機械学習における不公平な原因の1つだ。
したがって、データ収集およびデータセット準備段階における公平性への対処は、より公正なアルゴリズムのトレーニングの重要な部分となる。
特に、アクティブラーニング(AL)アルゴリズムは、最も情報に富んだトレーニングサンプルを重要視することでタスクを約束する。
しかし、既存のalアルゴリズムとアルゴリズムの公平性の効果と相互作用は未検討のままである。
本稿では,BALDのような不確実性に基づくALヒューリスティックスで訓練されたモデルが,同一の独立分布(d.d.)で訓練されたモデルよりも保護クラスに対する判断が公平であるかどうかを検討する。
サンプリング
BALDでは予測パリティが有意に向上し,i.d.よりも精度が向上した。
サンプリング
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
フェアネスの問題に対処しながら、彼らのインタラクションは、調査したほとんどのベンチマークやメトリクスの結果をさらに改善します。
関連論文リスト
- Fair Class-Incremental Learning using Sample Weighting [27.82760149957115]
本研究は,現在行われている課題のすべてのサンプルを鼻で使用することにより,クラスを含む特定のセンシティブなグループに対して不当な破滅的忘れを生じさせることを示す。
平均勾配ベクトルの方向を変えるために,現在のタスクサンプルのトレーニング重みを調整する,公平なクラス増分学習フレームワークを提案する。
実験により、FSWは実際のデータセットに対する最先端のアプローチよりも精度・公正なトレードオフ結果が得られることが示された。
論文 参考訳(メタデータ) (2024-10-02T08:32:21Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Improving Fair Training under Correlation Shifts [33.385118640843416]
特にラベルとセンシティブなグループ間のバイアスが変化すると、トレーニングされたモデルの公平性に直接影響し、悪化する可能性がある。
既存のプロセス内フェアアルゴリズムは、精度とグループフェアネスに根本的な限界があることを解析的に示す。
相関シフトを減らすために入力データをサンプリングする新しい前処理ステップを提案する。
論文 参考訳(メタデータ) (2023-02-05T07:23:35Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Sample Selection for Fair and Robust Training [28.94276265328868]
公平でロバストなトレーニングのためのサンプル選択に基づくアルゴリズムを提案する。
提案アルゴリズムは,最先端技術に匹敵する公平性と堅牢性が得られることを示す。
論文 参考訳(メタデータ) (2021-10-27T07:17:29Z) - Low-Regret Active learning [64.36270166907788]
トレーニングに最も有用なラベル付きデータポイントを識別するオンライン学習アルゴリズムを開発した。
私たちの仕事の中心は、予測可能な(簡単な)インスタンスの低い後悔を達成するために調整された睡眠専門家のための効率的なアルゴリズムです。
論文 参考訳(メタデータ) (2021-04-06T22:53:45Z) - Fairness Constraints in Semi-supervised Learning [56.48626493765908]
我々は,最適化問題として定式化された,公平な半教師付き学習のためのフレームワークを開発する。
偏り・分散・雑音分解による半教師あり学習における識別源を理論的に分析する。
本手法は, 公平な半教師付き学習を達成でき, 公正な教師付き学習よりも精度と公平性のトレードオフが良好である。
論文 参考訳(メタデータ) (2020-09-14T04:25:59Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。