論文の概要: When Fair Classification Meets Noisy Protected Attributes
- arxiv url: http://arxiv.org/abs/2307.03306v1
- Date: Thu, 6 Jul 2023 21:38:18 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 13:57:47.480372
- Title: When Fair Classification Meets Noisy Protected Attributes
- Title(参考訳): 公正な分類がノイズ保護属性と出会うとき
- Authors: Avijit Ghosh, Pablo Kvitca, Christo Wilson
- Abstract要約: 本研究は, 属性耐性, 耐雑音性, 属性ブラインドアルゴリズムを比較した, 公平な分類アルゴリズムの先進的な研究である。
本研究は,属性ブレンドとノイズ耐性公正分類器が,属性耐性アルゴリズムと同等の性能を達成できることを明らかにする。
- 参考スコア(独自算出の注目度): 8.362098382773265
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The operationalization of algorithmic fairness comes with several practical
challenges, not the least of which is the availability or reliability of
protected attributes in datasets. In real-world contexts, practical and legal
impediments may prevent the collection and use of demographic data, making it
difficult to ensure algorithmic fairness. While initial fairness algorithms did
not consider these limitations, recent proposals aim to achieve algorithmic
fairness in classification by incorporating noisiness in protected attributes
or not using protected attributes at all.
To the best of our knowledge, this is the first head-to-head study of fair
classification algorithms to compare attribute-reliant, noise-tolerant and
attribute-blind algorithms along the dual axes of predictivity and fairness. We
evaluated these algorithms via case studies on four real-world datasets and
synthetic perturbations. Our study reveals that attribute-blind and
noise-tolerant fair classifiers can potentially achieve similar level of
performance as attribute-reliant algorithms, even when protected attributes are
noisy. However, implementing them in practice requires careful nuance. Our
study provides insights into the practical implications of using fair
classification algorithms in scenarios where protected attributes are noisy or
partially available.
- Abstract(参考訳): アルゴリズムの公平性の運用には、データセットの保護属性の可用性や信頼性など、いくつかの実用的な課題が伴う。
現実の文脈では、実用的および法的障害は人口統計データの収集と使用を妨げ、アルゴリズムの公平性を保証することが困難になる。
初期フェアネスアルゴリズムはこれらの制限を考慮しなかったが、最近の提案は保護属性にノイズを組み込むか、保護属性を全く使わないことで分類のアルゴリズム的フェアネスを達成することを目的としている。
我々の知る限りでは、これは、予測と公正性の二重軸に沿った属性耐性、耐雑音性、および属性ブラインドアルゴリズムを比較するための、公平な分類アルゴリズムの直接的研究である。
これらのアルゴリズムを実世界の4つのデータセットと合成摂動のケーススタディを通じて評価した。
本研究は,保護された属性がノイズである場合でも,属性依存型アルゴリズムと同等の性能を達成できることを示す。
しかし、実際に実施するには注意深いニュアンスが必要である。
本研究は,保護属性がうるさく,部分的に使用可能なシナリオにおいて,公平な分類アルゴリズムを使用することの実際的な意義について考察する。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Differentially Private Fair Binary Classifications [1.8087157239832476]
まず,公平性保証のみで分類器を学習するアルゴリズムを提案する。
次に、このアルゴリズムを改良して、差分プライバシーを取り入れます。
アダルトカードとクレディカードのデータセットで行った実証的な評価は、我々のアルゴリズムが公正性の保証の観点から最先端のアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2024-02-23T20:52:59Z) - Group Fairness with Uncertainty in Sensitive Attributes [34.608332397776245]
公正な予測モデルは、ハイテイクなアプリケーションにおける少数派グループに対する偏見のある決定を緩和するために不可欠である。
本稿では, 感度特性の不確実性にも拘わらず, フェアネスの目標レベルを達成するブートストラップに基づくアルゴリズムを提案する。
本アルゴリズムは離散的属性と連続的属性の両方に適用可能であり,実世界の分類や回帰作業に有効である。
論文 参考訳(メタデータ) (2023-02-16T04:33:00Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - Mitigating Algorithmic Bias with Limited Annotations [65.060639928772]
機密属性が公開されていない場合、バイアスを軽減するために、トレーニングデータの小さな部分を手動でアノテートする必要がある。
本稿では,アルゴリズムバイアスの影響を最大限に排除するために,限定アノテーションを誘導する対話型フレームワークであるアクティブペナライゼーション・オブ・差別(APOD)を提案する。
APODは完全なアノテートバイアス緩和と同等のパフォーマンスを示しており、機密情報が制限された場合、APODが現実世界のアプリケーションに利益をもたらすことを実証している。
論文 参考訳(メタデータ) (2022-07-20T16:31:19Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Can Active Learning Preemptively Mitigate Fairness Issues? [66.84854430781097]
データセットバイアスは、機械学習における不公平な原因の1つです。
不確実性に基づくALで訓練されたモデルが保護クラスの決定において公平であるかどうかを検討する。
また,勾配反転(GRAD)やBALDなどのアルゴリズム的公正性手法の相互作用についても検討する。
論文 参考訳(メタデータ) (2021-04-14T14:20:22Z) - Mitigating Bias in Set Selection with Noisy Protected Attributes [16.882719401742175]
ノイズを考慮せずに公平性を高めるため,ノイズ保護属性の存在下では,実のところ,結果の公平性を低下させることができることを示す。
我々は,大規模な公正度尺度に対して機能する「認知化」の選択問題を定式化する。
提案手法は, ノイズ保護属性が存在するにもかかわらず, フェアネス指標を著しく改善するサブセットを生成できることを示す。
論文 参考訳(メタデータ) (2020-11-09T06:45:15Z) - Causal Feature Selection for Algorithmic Fairness [61.767399505764736]
データ管理の統合コンポーネントにおける公平性について検討する。
本稿では,データセットの公平性を保証する特徴のサブコレクションを同定する手法を提案する。
論文 参考訳(メタデータ) (2020-06-10T20:20:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。