論文の概要: Evaluating Fairness Without Sensitive Attributes: A Framework Using Only
Auxiliary Models
- arxiv url: http://arxiv.org/abs/2210.03175v1
- Date: Thu, 6 Oct 2022 19:25:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-10 13:24:24.900397
- Title: Evaluating Fairness Without Sensitive Attributes: A Framework Using Only
Auxiliary Models
- Title(参考訳): 感度属性のない公正性評価:補助モデルのみを用いたフレームワーク
- Authors: Zhaowei Zhu, Yuanshun Yao, Jiankai Sun, Yang Liu, Hang Li
- Abstract要約: 本研究では,不完全予測された感度特性がフェアネス指標に負の影響を減少させる枠組みを提案する。
ノイズラベル学習の文献に触発されて、まず直接測定された公正度とそれに対応する地味度との閉形式関係を導出する。
提案手法は, 好条件下での基準値よりも, 公平度を精度良く測定できることを示す。
- 参考スコア(独自算出の注目度): 25.730297492625507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Although the volume of literature and public attention on machine learning
fairness has been growing significantly, in practice some tasks as basic as
measuring fairness, which is the first step in studying and promoting fairness,
can be challenging. This is because sensitive attributes are often unavailable
due to privacy regulations. The straightforward solution is to use auxiliary
models to predict the missing sensitive attributes. However, our theoretical
analyses show that the estimation error of the directly measured fairness
metrics is proportional to the error rates of auxiliary models' predictions.
Existing works that attempt to reduce the estimation error often require strong
assumptions, e.g. access to the ground-truth sensitive attributes or some form
of conditional independence. In this paper, we drop those assumptions and
propose a framework that uses only off-the-shelf auxiliary models. The main
challenge is how to reduce the negative impact of imperfectly predicted
sensitive attributes on the fairness metrics without knowing the ground-truth
sensitive attributes. Inspired by the noisy label learning literature, we first
derive a closed-form relationship between the directly measured fairness
metrics and their corresponding ground-truth metrics. And then we estimate some
key statistics (most importantly transition matrix in the noisy label
literature), which we use, together with the derived relationship, to calibrate
the fairness metrics. In addition, we theoretically prove the upper bound of
the estimation error in our calibrated metrics and show our method can
substantially decrease the estimation error especially when auxiliary models
are inaccurate or the target model is highly biased. Experiments on COMPAS and
CelebA validate our theoretical analyses and show our method can measure
fairness significantly more accurately than baselines under favorable
circumstances.
- Abstract(参考訳): 文学の量や機械学習の公平性に対する大衆の関心は著しく伸びているが、実際、公正性を研究・促進する第一歩である公平性を測定するための基本的なタスクは困難である。
これは、機密属性がプライバシー規制のためにしばしば利用できないためである。
直接的な解決策は、欠落した機密属性を予測するために補助モデルを使用することである。
しかし,本理論解析により,直接測定された公正度測定値の推定誤差は,補助モデルの予測誤差率に比例することが示された。
推定誤差を減少させようとする既存の作業では、例えば、基底の感度の高い属性へのアクセスや条件付き独立性といった、強い仮定が必要となる。
本稿では,これらの仮定を取り除き,既成の補助モデルのみを用いた枠組みを提案する。
主な課題は、不完全に予測されたセンシティブな属性が、地味のセンシティブな属性を知ることなく、フェアネスの指標に負の影響を減らせるかである。
ノイズラベル学習の文献に触発されて、まず直接測定された公正度とそれに対応する地味度との閉形式関係を導出する。
そして、いくつかの重要な統計値(最も重要なノイズラベル文献の遷移行列)を推定し、そこから派生した関係と合わせてフェアネスの指標を校正する。
さらに, キャリブレーション指標における推定誤差の上限を理論的に証明し, 特に補助モデルが不正確な場合や, 対象モデルに偏りが強い場合において, 推定誤差を著しく低減できることを示す。
compas と celeba に関する実験は理論解析を検証し、好都合な条件下での基準値よりもフェアネスをかなり正確に測定できることを示した。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Longitudinal Fairness with Censorship [1.5688552250473473]
我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、検閲なしで公正度を橋渡しするために必要な理論的構造を提供する。
検閲された4つのデータセットに対する実験により、我々のアプローチの有効性が確認された。
論文 参考訳(メタデータ) (2022-03-30T03:08:40Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - On Assessing the Usefulness of Proxy Domains for Developing and
Evaluating Embodied Agents [0.0]
プロキシの値は、解決に使われているタスクに条件づけられている、と私たちは主張します。
我々は、異なるプロキシドメインの有用性を比較するために、新しいプロキシ有用性(PU)メトリクスを確立する。
論文 参考訳(メタデータ) (2021-09-29T16:04:39Z) - Multiaccurate Proxies for Downstream Fairness [20.36220509798361]
本研究では,センシティブな特徴が訓練時に利用できない場合に,人口的公正な条件に従わなければならないモデルを訓練する際の課題について検討する。
センシティブな機能にアクセス可能な"上流"学習者は、他の属性からこれらの機能のプロキシモデルを学ぶことができる。
この目的のために、下流モデルクラスで十分であるようなマルチ精度の制約に従うことを示します。
論文 参考訳(メタデータ) (2021-07-09T13:16:44Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。