論文の概要: Mitigating Bias in Set Selection with Noisy Protected Attributes
- arxiv url: http://arxiv.org/abs/2011.04219v2
- Date: Mon, 22 Feb 2021 17:56:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 00:52:21.375556
- Title: Mitigating Bias in Set Selection with Noisy Protected Attributes
- Title(参考訳): ノイズ保護属性を用いた集合選択におけるバイアス緩和
- Authors: Anay Mehrotra and L. Elisa Celis
- Abstract要約: ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
- 参考スコア(独自算出の注目度): 16.882719401742175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Subset selection algorithms are ubiquitous in AI-driven applications,
including, online recruiting portals and image search engines, so it is
imperative that these tools are not discriminatory on the basis of protected
attributes such as gender or race. Currently, fair subset selection algorithms
assume that the protected attributes are known as part of the dataset. However,
protected attributes may be noisy due to errors during data collection or if
they are imputed (as is often the case in real-world settings). While a wide
body of work addresses the effect of noise on the performance of machine
learning algorithms, its effect on fairness remains largely unexamined. We find
that in the presence of noisy protected attributes, in attempting to increase
fairness without considering noise, one can, in fact, decrease the fairness of
the result!
Towards addressing this, we consider an existing noise model in which there
is probabilistic information about the protected attributes (e.g., [58, 34, 20,
46]), and ask is fair selection possible under noisy conditions? We formulate a
``denoised'' selection problem which functions for a large class of fairness
metrics; given the desired fairness goal, the solution to the denoised problem
violates the goal by at most a small multiplicative amount with high
probability. Although this denoised problem turns out to be NP-hard, we give a
linear-programming based approximation algorithm for it. We evaluate this
approach on both synthetic and real-world datasets. Our empirical results show
that this approach can produce subsets which significantly improve the fairness
metrics despite the presence of noisy protected attributes, and, compared to
prior noise-oblivious approaches, has better Pareto-tradeoffs between utility
and fairness.
- Abstract(参考訳): サブセット選択アルゴリズムは、オンラインリクルートポータルや画像検索エンジンなど、AI駆動のアプリケーションにおいてユビキタスであるため、これらのツールは、性別や人種などの保護された属性に基づいて差別的ではないことが必須である。
現在、フェアサブセット選択アルゴリズムは、保護された属性がデータセットの一部として知られていると仮定している。
しかし、保護された属性は、データ収集中にエラーが発生したり、インプットされたりする(実世界の設定でよく見られるように)ためうる。
広範囲にわたる研究が機械学習アルゴリズムの性能に与える影響に対処する一方で、その公正性への影響はほとんど検討されていない。
ノイズ保護属性の存在下では、騒音を考慮せずに公平性を高めようとすると、実際には、結果の公平性を低下させることができるのです!
これに対処するために,保護属性に関する確率的情報(例えば [58, 34, 20, 46])が存在する既存の雑音モデルを検討し,騒音条件下では公平な選択が可能か?
公平度メトリクスの大きなクラスに対して機能する `denoized'' 選択問題を定式化する; 所望の公平度目標を考えると、その解は少なくとも小さな乗算量が高い確率で目標に違反する。
この分母化問題はnpハードであることが判明したが、線形プログラミングに基づく近似アルゴリズムを与える。
我々はこのアプローチを合成データと実世界のデータセットの両方で評価する。
実験結果から, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示すとともに, 従来のノイズ発生手法と比較して, 実用性とフェアネスのパレートトレードオフが良好であることを示す。
関連論文リスト
- Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Label Noise: Correcting the Forward-Correction [0.0]
ラベルノイズのあるデータセット上でニューラルネットワーク分類器を訓練することは、ノイズのあるラベルに過度に適合するリスクをもたらす。
ラベルノイズによる過度適合に対処する手法を提案する。
本研究は, オーバーフィッティングを緩和するために, トレーニング損失に低い限界を課すことを提案する。
論文 参考訳(メタデータ) (2023-07-24T19:41:19Z) - When Fair Classification Meets Noisy Protected Attributes [8.362098382773265]
本研究は, 属性耐性, 耐雑音性, 属性ブラインドアルゴリズムを比較した, 公平な分類アルゴリズムの先進的な研究である。
本研究は,属性ブレンドとノイズ耐性公正分類器が,属性耐性アルゴリズムと同等の性能を達成できることを明らかにする。
論文 参考訳(メタデータ) (2023-07-06T21:38:18Z) - dugMatting: Decomposed-Uncertainty-Guided Matting [83.71273621169404]
そこで本稿では, 明確に分解された不確かさを探索し, 効率よく効率よく改善する, 分解不確実性誘導型マッチングアルゴリズムを提案する。
提案したマッチングフレームワークは,シンプルで効率的なラベリングを用いて対話領域を決定する必要性を緩和する。
論文 参考訳(メタデータ) (2023-06-02T11:19:50Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - The Optimal Noise in Noise-Contrastive Learning Is Not What You Think [80.07065346699005]
この仮定から逸脱すると、実際により良い統計的推定結果が得られることが示される。
特に、最適な雑音分布は、データと異なり、また、別の家族からさえも異なる。
論文 参考訳(メタデータ) (2022-03-02T13:59:20Z) - Partial Identification with Noisy Covariates: A Robust Optimization
Approach [94.10051154390237]
観測データセットからの因果推論は、しばしば共変量の測定と調整に依存する。
このロバストな最適化手法により、広範囲な因果調整法を拡張し、部分的同定を行うことができることを示す。
合成および実データセット全体で、このアプローチは既存の手法よりも高いカバレッジ確率でATEバウンダリを提供する。
論文 参考訳(メタデータ) (2022-02-22T04:24:26Z) - Classification with abstention but without disparities [5.025654873456756]
我々は、異なる影響を回避しつつ、予測を棄却できる汎用的な分類アルゴリズムを構築した。
提案したアルゴリズムに対して,有限サンプルリスク,公平性,および留意保証を確立する。
本手法は, 適度な禁制率により, リスク・フェアネストレードオフを回避できることを実証的に示す。
論文 参考訳(メタデータ) (2021-02-24T12:43:55Z) - Tackling Instance-Dependent Label Noise via a Universal Probabilistic
Model [80.91927573604438]
本稿では,ノイズラベルをインスタンスに明示的に関連付ける,単純かつ普遍的な確率モデルを提案する。
合成および実世界のラベルノイズを用いたデータセット実験により,提案手法がロバスト性に大きな改善をもたらすことを確認した。
論文 参考訳(メタデータ) (2021-01-14T05:43:51Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z) - Contextual Linear Bandits under Noisy Features: Towards Bayesian Oracles [65.9694455739978]
特徴不確実性の下での文脈線形帯域問題について検討する。
本分析により, 最適仮説は, 雑音特性に応じて, 基礎となる実現可能性関数から著しく逸脱しうることが明らかとなった。
これは、古典的アプローチが非自明な後悔境界を保証できないことを意味する。
論文 参考訳(メタデータ) (2017-03-03T21:39:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。