論文の概要: Group Fairness with Uncertainty in Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2302.08077v1
- Date: Thu, 16 Feb 2023 04:33:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-17 15:02:30.640630
- Title: Group Fairness with Uncertainty in Sensitive Attributes
- Title(参考訳): 感性属性の不確かさを伴うグループフェアネス
- Authors: Abhin Shah, Maohao Shen, Jongha Jon Ryu, Subhro Das, Prasanna
Sattigeri, Yuheng Bu, and Gregory W. Wornell
- Abstract要約: 我々は,情報ボトルネックの原理を用いて,公平性という独立概念の問題を定式化する。
感度特性の不確実性に対する頑健な最適化を提案する。
実世界の分類や回帰作業と同様に、合成データに対する分析と手法の価値を実証する。
- 参考スコア(独自算出の注目度): 34.608332397776245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider learning a fair predictive model when sensitive attributes are
uncertain, say, due to a limited amount of labeled data, collection bias, or
privacy mechanism. We formulate the problem, for the independence notion of
fairness, using the information bottleneck principle, and propose a robust
optimization with respect to an uncertainty set of the sensitive attributes. As
an illustrative case, we consider the joint Gaussian model and reduce the task
to a quadratically constrained quadratic problem (QCQP). To ensure a strict
fairness guarantee, we propose a robust QCQP and completely characterize its
solution with an intuitive geometric understanding. When uncertainty arises due
to limited labeled sensitive attributes, our analysis reveals the contribution
of each new sample towards the optimal performance achieved with unlimited
access to labeled sensitive attributes. This allows us to identify non-trivial
regimes where uncertainty incurs no performance loss of the proposed algorithm
while continuing to guarantee strict fairness. We also propose a
bootstrap-based generic algorithm that is applicable beyond the Gaussian case.
We demonstrate the value of our analysis and method on synthetic data as well
as real-world classification and regression tasks.
- Abstract(参考訳): 例えば、ラベル付きデータやコレクションバイアス、プライバシメカニズムに制限があるため、センシティブな属性が不確実である場合、適切な予測モデルを学ぶことを検討します。
本稿では,情報ボトルネックの原理を用いて公平性の独立性の概念を定式化し,不確実性のある属性に対する堅牢な最適化を提案する。
実例として、合同ガウスモデルを考察し、タスクを2次制約付き二次問題(QCQP)に還元する。
厳密な公平性を保証するために,ロバストなqcqpを提案し,その解を完全に直観的な幾何学的理解で特徴づける。
ラベル付きセンシティブ属性の制限による不確実性が発生すると,ラベル付きセンシティブ属性への無制限アクセスで達成された最適性能に対する各新サンプルの寄与を明らかにする。
これにより、厳密な公正性を確保しつつも、不確実性が提案アルゴリズムの性能損失を生じさせない非自明な規則を特定できる。
また,ガウスの場合を超えて適用可能なブートストラップに基づく汎用アルゴリズムを提案する。
実世界の分類や回帰作業と同様に、合成データに対する分析と手法の価値を実証する。
関連論文リスト
- Provable Optimization for Adversarial Fair Self-supervised Contrastive Learning [49.417414031031264]
本稿では,自己教師型学習環境におけるフェアエンコーダの学習について検討する。
すべてのデータはラベル付けされておらず、そのごく一部だけが機密属性で注釈付けされている。
論文 参考訳(メタデータ) (2024-06-09T08:11:12Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Practical Approaches for Fair Learning with Multitype and Multivariate
Sensitive Attributes [70.6326967720747]
現実世界に展開された機械学習アルゴリズムが不公平さや意図しない社会的結果をもたらすことはないことを保証することが重要である。
本稿では,カーネルHilbert Spacesの相互共分散演算子上に構築されたフェアネス尺度であるFairCOCCOを紹介する。
実世界のデータセットにおける予測能力と公正性のバランスをとる上で、最先端技術に対する一貫した改善を実証的に示す。
論文 参考訳(メタデータ) (2022-11-11T11:28:46Z) - Fairness via Adversarial Attribute Neighbourhood Robust Learning [49.93775302674591]
本稿では,分類ヘッドを損なうために,UnderlineRobust underlineAdversarial underlineAttribute underlineNeighbourhood (RAAN)損失を原則として提案する。
論文 参考訳(メタデータ) (2022-10-12T23:39:28Z) - SLIDE: a surrogate fairness constraint to ensure fairness consistency [1.3649494534428745]
本稿では, SLIDE と呼ばれる新しい代用フェアネス制約を提案し, 高速収束率を実現する。
数値実験により、SLIDEは様々なベンチマークデータセットでうまく機能することを確認した。
論文 参考訳(メタデータ) (2022-02-07T13:50:21Z) - Dikaios: Privacy Auditing of Algorithmic Fairness via Attribute
Inference Attacks [0.5801044612920815]
モデルビルダーのための公正性アルゴリズムのためのプライバシ監査ツールであるDikaiosを提案する。
適応予測しきい値を持つ属性推論攻撃は,前回の攻撃よりも有意に優れていた。
論文 参考訳(メタデータ) (2022-02-04T17:19:59Z) - Measuring Fairness Under Unawareness of Sensitive Attributes: A
Quantification-Based Approach [131.20444904674494]
センシティブな属性の無意識下でのグループフェアネスを測定する問題に取り組む。
定量化手法は, フェアネスと無意識の問題に対処するのに特に適していることを示す。
論文 参考訳(メタデータ) (2021-09-17T13:45:46Z) - Fair Classification with Adversarial Perturbations [35.030329189029246]
本研究は,学習サンプルの任意の$eta$-fractionを選択でき,保護属性を任意に摂動することができるような,万能な逆境の存在下での公平な分類について検討する。
我々の主な貢献は、精度と公正性に関する証明可能な保証を伴うこの逆条件で公平な分類法を学ぶための最適化フレームワークである。
我々は、自然な仮説クラスに対する我々のフレームワークの保証のほぼ正当性を証明している: どのアルゴリズムもはるかに精度が良く、より良い公正性を持つアルゴリズムは、より低い精度でなければならない。
論文 参考訳(メタデータ) (2021-06-10T17:56:59Z) - Addressing Fairness in Classification with a Model-Agnostic
Multi-Objective Algorithm [33.145522561104464]
分類における公平性の目標は、人種や性別などのセンシティブな属性に基づいて個人のグループを識別しない分類器を学習することである。
公正アルゴリズムを設計する1つのアプローチは、公正の概念の緩和を正規化項として使うことである。
我々はこの性質を利用して、既存の緩和よりも証明可能な公正の概念を近似する微分可能な緩和を定義する。
論文 参考訳(メタデータ) (2020-09-09T17:40:24Z) - Beyond Individual and Group Fairness [90.4666341812857]
本稿では,不公平な不公平な苦情に導かれる公平さの新しいデータ駆動モデルを提案する。
我々のモデルは、複数のフェアネス基準をサポートし、それらの潜在的な不整合を考慮に入れている。
論文 参考訳(メタデータ) (2020-08-21T14:14:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。