論文の概要: Algorithmic Bias and Data Bias: Understanding the Relation between
Distributionally Robust Optimization and Data Curation
- arxiv url: http://arxiv.org/abs/2106.09467v1
- Date: Thu, 17 Jun 2021 13:18:03 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-18 16:07:20.244226
- Title: Algorithmic Bias and Data Bias: Understanding the Relation between
Distributionally Robust Optimization and Data Curation
- Title(参考訳): アルゴリズムバイアスとデータバイアス : 分布的ロバストな最適化とデータのキュレーションの関係を理解する
- Authors: Agnieszka S{\l}owik, L\'eon Bottou
- Abstract要約: 平均誤差の最小化に基づく機械学習システムは、データの注目すべきサブセット間で矛盾なく動作することが示されている。
社会的、経済的な応用では、データが人を表す場合、差別が過小評価されている性別や民族集団につながる可能性がある。
- 参考スコア(独自算出の注目度): 1.370633147306388
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning systems based on minimizing average error have been shown to
perform inconsistently across notable subsets of the data, which is not exposed
by a low average error for the entire dataset. In consequential social and
economic applications, where data represent people, this can lead to
discrimination of underrepresented gender and ethnic groups. Given the
importance of bias mitigation in machine learning, the topic leads to
contentious debates on how to ensure fairness in practice (data bias versus
algorithmic bias). Distributionally Robust Optimization (DRO) seemingly
addresses this problem by minimizing the worst expected risk across
subpopulations. We establish theoretical results that clarify the relation
between DRO and the optimization of the same loss averaged on an adequately
weighted training dataset. The results cover finite and infinite number of
training distributions, as well as convex and non-convex loss functions. We
show that neither DRO nor curating the training set should be construed as a
complete solution for bias mitigation: in the same way that there is no
universally robust training set, there is no universal way to setup a DRO
problem and ensure a socially acceptable set of results. We then leverage these
insights to provide a mininal set of practical recommendations for addressing
bias with DRO. Finally, we discuss ramifications of our results in other
related applications of DRO, using an example of adversarial robustness. Our
results show that there is merit to both the algorithm-focused and the
data-focused side of the bias debate, as long as arguments in favor of these
positions are precisely qualified and backed by relevant mathematics known
today.
- Abstract(参考訳): 平均誤差を最小化する機械学習システムは、データセット全体の平均誤差が低くなることなく、データの注目すべきサブセット間で一貫性がないことが示されている。
データが人々を表わす社会・経済的な応用において、これは過小表現された性別や民族集団の差別につながる可能性がある。
機械学習におけるバイアス緩和の重要性を考えると、このトピックは実践における公正性(データバイアスとアルゴリズムバイアス)の確保方法に関する論争に繋がる。
分布的ロバスト最適化(DRO)は、サブ人口間で最悪の予測リスクを最小化することによってこの問題に対処しているように見える。
適切な重み付きトレーニングデータセット上で,DROと同一損失の最適化の関係を明らかにする理論的結果を確立する。
結果は、凸や非凸損失関数と同様に、有限かつ無限個のトレーニング分布をカバーする。
DROやトレーニングセットのキュレーションは、バイアス軽減のための完全な解として解釈されるべきではなく、普遍的に堅牢なトレーニングセットが存在しないのと同じように、DRO問題をセットアップし、社会的に許容される結果の集合を保証する普遍的な方法がない。
次に、これらの洞察を活用して、DROによるバイアスに対処するための実践的な推奨事項の最小セットを提供する。
最後に、DROの他の応用における我々の結果の分岐について、対角的堅牢性の例を用いて論じる。
以上の結果から,アルゴリズムに焦点をあてた議論と偏見に関する議論の両方にメリットがあることが示唆された。
関連論文リスト
- DRAUC: An Instance-wise Distributionally Robust AUC Optimization
Framework [133.26230331320963]
ROC曲線のエリア(AUC)は、長い尾の分類のシナリオにおいて広く用いられている指標である。
本研究では,分散ロバストAUC(DRAUC)のインスタンスワイドサロゲート損失を提案し,その上に最適化フレームワークを構築した。
論文 参考訳(メタデータ) (2023-11-06T12:15:57Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - Learning Antidote Data to Individual Unfairness [23.119278763970037]
個人の公平さは、個々のケースに対する公平な扱いを記述する上で不可欠な概念である。
従来の研究では、個人的公正性は予測不変問題として特徴づけられていた。
我々は,予測ユーティリティの最小あるいはゼロのコストで,個人の不公平さを抑える方法を示す。
論文 参考訳(メタデータ) (2022-11-29T03:32:39Z) - Unbiased Supervised Contrastive Learning [10.728852691100338]
本研究では,バイアスに頑健な表現を学習する問題に取り組む。
まず、偏りのあるデータを扱う際に、最近の対照的な損失がなぜ失敗するのかを明らかにするための、マージンに基づく理論的枠組みを提案する。
教師付きコントラスト損失(epsilon-SupInfoNCE)を新たに定式化し,正試料と負試料の最小距離をより正確に制御する。
理論的な枠組みのおかげで、極めて偏りのあるデータでもうまく機能する新しい偏りのある正規化損失であるFairKLも提案する。
論文 参考訳(メタデータ) (2022-11-10T13:44:57Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Examining and Combating Spurious Features under Distribution Shift [94.31956965507085]
我々は、最小限の統計量という情報理論の概念を用いて、ロバストで刺激的な表現を定義し、分析する。
入力分布のバイアスしか持たない場合でも、モデルはトレーニングデータから急激な特徴を拾い上げることができることを証明しています。
分析から着想を得た結果,グループDROは,グループ同士の相関関係を直接考慮しない場合に失敗する可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-14T05:39:09Z) - DORO: Distributional and Outlier Robust Optimization [98.44757325531631]
本稿では,分散ロバスト最適化のためのDOROのフレームワークを提案する。
このアプローチのコアとなるのは、DROがオーバーフィットして潜在的な外れ値に収まらないような、洗練されたリスク関数である。
提案手法の有効性を理論的に証明し, DOROがDROの性能と安定性を向上することを示す。
論文 参考訳(メタデータ) (2021-06-11T02:59:54Z) - Learning while Respecting Privacy and Robustness to Distributional
Uncertainties and Adversarial Data [66.78671826743884]
分散ロバストな最適化フレームワークはパラメトリックモデルのトレーニングのために検討されている。
目的は、逆操作された入力データに対して頑健なトレーニングモデルを提供することである。
提案されたアルゴリズムは、オーバーヘッドがほとんどない堅牢性を提供する。
論文 参考訳(メタデータ) (2020-07-07T18:25:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。