論文の概要: Adaptive Data Debiasing through Bounded Exploration and Fairness
- arxiv url: http://arxiv.org/abs/2110.13054v1
- Date: Mon, 25 Oct 2021 15:50:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-26 18:23:07.913178
- Title: Adaptive Data Debiasing through Bounded Exploration and Fairness
- Title(参考訳): 境界探索と公平性による適応的データデバイアス
- Authors: Yifan Yang and Yang Liu and Parinaz Naghizadeh
- Abstract要約: アルゴリズム決定規則の訓練に使用される既存のデータセットのバイアスは、倫理的、社会的、経済的懸念を提起する。
本稿では,適応探索と有界探索により,これらのデータセットを逐次デバイアスするアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 19.082622108240585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Biases in existing datasets used to train algorithmic decision rules can
raise ethical, societal, and economic concerns due to the resulting disparate
treatment of different groups. We propose an algorithm for sequentially
debiasing such datasets through adaptive and bounded exploration. Exploration
in this context means that at times, and to a judiciously-chosen extent, the
decision maker deviates from its (current) loss-minimizing rule, and instead
accepts some individuals that would otherwise be rejected, so as to reduce
statistical data biases. Our proposed algorithm includes parameters that can be
used to balance between the ultimate goal of removing data biases -- which will
in turn lead to more accurate and fair decisions, and the exploration risks
incurred to achieve this goal. We show, both analytically and numerically, how
such exploration can help debias data in certain distributions. We further
investigate how fairness measures can work in conjunction with such data
debiasing efforts.
- Abstract(参考訳): アルゴリズム決定ルールのトレーニングに使われる既存のデータセットのバイアスは、異なるグループの異なる扱いによる倫理的、社会的、経済的懸念を引き起こす可能性がある。
本稿では,適応型および境界型探索によるデータセットの逐次デバイアスアルゴリズムを提案する。
この文脈での探索は、時として、そして時として、決定者は(現在の)損失最小化規則から逸脱し、統計データのバイアスを減らすために、そうでなければ拒否されるであろう一部の個人を受け入れることを意味する。
提案したアルゴリズムには、データのバイアスを取り除くという最終的な目標 – 結果としてより正確で公平な決定につながる -- と、この目標を達成するための調査リスクとの間のバランスをとるために使用できるパラメータが含まれています。
解析的にも数値的にも、そのような探索が特定の分布におけるデータのデバイアスにどのように役立つかを示す。
さらに,このようなデータデバイアス対策と公平性対策の連携について検討する。
関連論文リスト
- Targeted Learning for Data Fairness [52.59573714151884]
データ生成プロセス自体の公平性を評価することにより、公平性推論を拡張する。
我々は、人口統計学的平等、平等機会、条件付き相互情報から推定する。
提案手法を検証するため,いくつかのシミュレーションを行い,実データに適用する。
論文 参考訳(メタデータ) (2025-02-06T18:51:28Z) - The Impact of Differential Feature Under-reporting on Algorithmic Fairness [86.275300739926]
解析的に抽出可能な差分特徴のアンダーレポーティングモデルを提案する。
そして、この種のデータバイアスがアルゴリズムの公正性に与える影響を特徴づける。
我々の結果は、実世界のデータ設定では、アンダーレポートが典型的に格差を増大させることを示している。
論文 参考訳(メタデータ) (2024-01-16T19:16:22Z) - Correcting Underrepresentation and Intersectional Bias for Classification [49.1574468325115]
我々は、表現不足のバイアスによって破損したデータから学習する問題を考察する。
偏りのないデータの少ない場合、グループワイドのドロップアウト率を効率的に推定できることが示される。
本アルゴリズムは,有限VC次元のモデルクラスに対して,効率的な学習を可能にする。
論文 参考訳(メタデータ) (2023-06-19T18:25:44Z) - D-BIAS: A Causality-Based Human-in-the-Loop System for Tackling
Algorithmic Bias [57.87117733071416]
D-BIASは、人間のループ内AIアプローチを具現化し、社会的バイアスを監査し軽減する視覚対話型ツールである。
ユーザは、因果ネットワークにおける不公平な因果関係を識別することにより、グループに対する偏見の存在を検出することができる。
それぞれのインタラクション、例えばバイアスのある因果縁の弱体化/削除は、新しい(偏りのある)データセットをシミュレートするために、新しい方法を用いている。
論文 参考訳(メタデータ) (2022-08-10T03:41:48Z) - Bounding Counterfactuals under Selection Bias [60.55840896782637]
本稿では,識別不能なクエリと識別不能なクエリの両方に対処するアルゴリズムを提案する。
選択バイアスによって引き起こされる欠如にもかかわらず、利用可能なデータの可能性は無限であることを示す。
論文 参考訳(メタデータ) (2022-07-26T10:33:10Z) - Understanding Unfairness in Fraud Detection through Model and Data Bias
Interactions [4.159343412286401]
アルゴリズムの不公平性は、データ内のモデルとバイアスの間の相互作用に起因すると我々は主張する。
フェアネスブラインドMLアルゴリズムが示す公平さと正確さのトレードオフに関する仮説を、異なるデータバイアス設定下で検討する。
論文 参考訳(メタデータ) (2022-07-13T15:18:30Z) - Social Bias Meets Data Bias: The Impacts of Labeling and Measurement
Errors on Fairness Criteria [4.048444203617942]
我々は、ラベル付けプロセスにおける事前決定者による誤りと、不利な個人の特徴の測定における誤りの2つの形態を考察する。
分析により、ある統計的バイアスに直面した場合、いくつかの制約が頑健であることを示し、他の制約(等化オッドなど)はバイアスデータでトレーニングされた場合、著しく侵害される。
以上の結果から,既存の公正基準の中から選択するためのガイドラインや,利用可能なデータセットに偏りがある場合の新たな基準を提案するためのガイドラインが提示された。
論文 参考訳(メタデータ) (2022-05-31T22:43:09Z) - Distraction is All You Need for Fairness [0.0]
本稿では,Distractionモジュールと呼ばれる深層学習モデルの学習戦略を提案する。
この方法は、分類結果に影響を与えるバイアスを制御するのに有効であることが理論的に証明できる。
UCIアダルトおよびヘリテージヘルスデータセットを用いて,提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-03-15T01:46:55Z) - Learning Bias-Invariant Representation by Cross-Sample Mutual
Information Minimization [77.8735802150511]
対象タスクが誤用したバイアス情報を除去するために,クロスサンプル対逆脱バイアス法(CSAD)を提案する。
相関測定は, 対向的偏り評価において重要な役割を担い, クロスサンプル型相互情報推定器によって行われる。
我々は,提案手法の最先端手法に対する利点を検証するために,公開データセットの徹底的な実験を行った。
論文 参考訳(メタデータ) (2021-08-11T21:17:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。