論文の概要: Fairness and Robustness in Invariant Learning: A Case Study in Toxicity
Classification
- arxiv url: http://arxiv.org/abs/2011.06485v2
- Date: Wed, 2 Dec 2020 02:21:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-26 06:16:02.611229
- Title: Fairness and Robustness in Invariant Learning: A Case Study in Toxicity
Classification
- Title(参考訳): 不変学習における公正性とロバスト性:毒性分類における事例研究
- Authors: Robert Adragna, Elliot Creager, David Madras, Richard Zemel
- Abstract要約: 不変リスク最小化(Invariant Risk Minimization、IRM)は、因果発見にインスパイアされた手法を用いて、堅牢な予測子を見つけるドメイン一般化アルゴリズムである。
IRMは経験的リスク最小化法(ERM)よりも分布外精度と公平性を向上できることを示す。
- 参考スコア(独自算出の注目度): 13.456851070400024
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robustness is of central importance in machine learning and has given rise to
the fields of domain generalization and invariant learning, which are concerned
with improving performance on a test distribution distinct from but related to
the training distribution. In light of recent work suggesting an intimate
connection between fairness and robustness, we investigate whether algorithms
from robust ML can be used to improve the fairness of classifiers that are
trained on biased data and tested on unbiased data. We apply Invariant Risk
Minimization (IRM), a domain generalization algorithm that employs a causal
discovery inspired method to find robust predictors, to the task of fairly
predicting the toxicity of internet comments. We show that IRM achieves better
out-of-distribution accuracy and fairness than Empirical Risk Minimization
(ERM) methods, and analyze both the difficulties that arise when applying IRM
in practice and the conditions under which IRM will likely be effective in this
scenario. We hope that this work will inspire further studies of how robust
machine learning methods relate to algorithmic fairness.
- Abstract(参考訳): 堅牢性は機械学習において重要であり、ドメイン一般化と不変学習の分野を生み出し、トレーニング分布とは別個のテスト分布のパフォーマンス向上に寄与している。
近年の研究では、正当性と頑健性との密接な関係を示唆する研究から、ロバストMLのアルゴリズムが偏りのあるデータで訓練され、偏りのないデータでテストされる分類器の公平性を改善するために利用できるかどうかを考察する。
インターネットコメントの毒性をかなり予測するタスクに対して,因果発見に触発された手法を用いて堅牢な予測者を見つけるドメイン一般化アルゴリズムであるinvariant risk minimization (irm) を適用する。
IRMは経験的リスク最小化法(Empiral Risk Minimization, ERM)よりも分布外精度と公平性を向上し, 実際にIRMを適用した際の困難さと, IRMが有効である可能性のある条件の両方を分析した。
この研究によって、堅牢な機械学習手法がアルゴリズムの公正性にどのように関係するか、さらなる研究がもたらされることを願っている。
関連論文リスト
- FAIRM: Learning invariant representations for algorithmic fairness and domain generalization with minimax optimality [15.71499916304475]
本研究では,多様性型条件下でのフェアネスと領域一般化特性が望ましい学習環境に基づくオラクルFAIRMを提案する。
線形モデルでFAIRMを実現するための効率的なアルゴリズムを開発し、最小限の最適化で漸近的性能を示す。
論文 参考訳(メタデータ) (2024-04-02T03:06:25Z) - Provable Risk-Sensitive Distributional Reinforcement Learning with
General Function Approximation [54.61816424792866]
本稿では,リスク感性分布強化学習(RS-DisRL)と静的リプシッツリスク対策(LRM),一般関数近似について紹介する。
モデルに基づく関数近似のためのモデルベース戦略であるtextttRS-DisRL-M と、一般値関数近似のためのモデルフリーアプローチである textttRS-DisRL-V の2つの革新的なメタアルゴリズムを設計する。
論文 参考訳(メタデータ) (2024-02-28T08:43:18Z) - Learning Optimal Features via Partial Invariance [18.552839725370383]
不変リスク最小化(IRM)は、複数の環境から堅牢なモデルを学ぶことを目的とした一般的なフレームワークである。
IRMが予測器を過度に抑制できることを示し、これを補うために、$textitpartial invariance$を介して緩和を提案する。
線形設定と、言語と画像データの両方のタスクにおけるディープニューラルネットワークの両方で実施されたいくつかの実験により、結論の検証が可能になった。
論文 参考訳(メタデータ) (2023-01-28T02:48:14Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Distributionally Robust Learning with Stable Adversarial Training [34.74504615726101]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
そこで本稿では,異種データソースを活用して,より実用的な不確実性セットを構築する,SAL(Stable Adversarial Learning)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-30T03:05:45Z) - Counterfactual Maximum Likelihood Estimation for Training Deep Networks [83.44219640437657]
深層学習モデルは、予測的手がかりとして学習すべきでない急激な相関を学習する傾向がある。
本研究では,観測可能な共同設立者による相関関係の緩和を目的とした因果関係に基づくトレーニングフレームワークを提案する。
自然言語推論(NLI)と画像キャプションという2つの実世界の課題について実験を行った。
論文 参考訳(メタデータ) (2021-06-07T17:47:16Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Meta-Learned Invariant Risk Minimization [12.6484257912092]
経験的リスク最小化(ERM)ベースの機械学習アルゴリズムは、アウト・オブ・ディストリビューション(OOD)から得られたデータに対する弱い一般化パフォーマンスに苦しんでいる。
本稿では,IRMのためのメタラーニングに基づく新しいアプローチを提案する。
IRMv1 や IRM のすべての変種よりも OOD の一般化性能が優れているだけでなく,安定性が向上した IRMv1 の弱点にも対処できることを示す。
論文 参考訳(メタデータ) (2021-03-24T02:52:48Z) - Learning Calibrated Uncertainties for Domain Shift: A Distributionally
Robust Learning Approach [150.8920602230832]
ドメインシフトの下で校正された不確実性を学習するためのフレームワークを提案する。
特に、密度比推定は、ターゲット(テスト)サンプルの近さをソース(トレーニング)分布に反映する。
提案手法は下流タスクに有利な校正不確実性を生成する。
論文 参考訳(メタデータ) (2020-10-08T02:10:54Z) - Stable Adversarial Learning under Distributional Shifts [46.98655899839784]
経験的リスク最小化を伴う機械学習アルゴリズムは、分散シフトの下で脆弱である。
本研究では、異種データソースを活用してより実用的な不確実性セットを構築する安定適応学習(SAL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-06-08T08:42:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。