論文の概要: Weak Proxies are Sufficient and Preferable for Fairness with Missing
Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2210.03175v2
- Date: Tue, 31 Jan 2023 02:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:34:48.981473
- Title: Weak Proxies are Sufficient and Preferable for Fairness with Missing
Sensitive Attributes
- Title(参考訳): 弱プロキシは感度属性を欠くフェアネスに十分好適である
- Authors: Zhaowei Zhu, Yuanshun Yao, Jiankai Sun, Hang Li, Yang Liu
- Abstract要約: 適切な3つのプロキシのみを用いて,正当性(確実に)を正確に測定できるアルゴリズムを開発した。
本結果は,プロキシの適切な使用方法に関する実践者のための実践的ガイドラインのセットであることを示唆している。
- 参考スコア(独自算出の注目度): 25.730297492625507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating fairness can be challenging in practice because the sensitive
attributes of data are often inaccessible due to privacy constraints. The go-to
approach that the industry frequently adopts is using off-the-shelf proxy
models to predict the missing sensitive attributes, e.g. Meta [Alao et al.,
2021] and Twitter [Belli et al., 2022]. Despite its popularity, there are three
important questions unanswered: (1) Is directly using proxies efficacious in
measuring fairness? (2) If not, is it possible to accurately evaluate fairness
using proxies only? (3) Given the ethical controversy over inferring user
private information, is it possible to only use weak (i.e. inaccurate) proxies
in order to protect privacy? Our theoretical analyses show that directly using
proxy models can give a false sense of (un)fairness. Second, we develop an
algorithm that is able to measure fairness (provably) accurately with only
three properly identified proxies. Third, we show that our algorithm allows the
use of only weak proxies (e.g. with only 68.85%accuracy on COMPAS), adding an
extra layer of protection on user privacy. Experiments validate our theoretical
analyses and show our algorithm can effectively measure and mitigate bias. Our
results imply a set of practical guidelines for practitioners on how to use
proxies properly. Code is available at github.com/UCSC-REAL/fair-eval.
- Abstract(参考訳): データの機密性は、プライバシの制約のためにアクセスできないことが多いため、公正性の評価は実際に難しい場合がある。
業界が頻繁に採用するゴートアプローチは,Meta (Alao et al., 2021) や Twitter [Belli et al., 2022] といった,欠落したセンシティブな属性を予測するために,オフザシェルフプロキシモデルを使用することだ。
人気にもかかわらず,(1) 公正度を測る上で,直接プロキシは有効か,という重要な疑問が3つある。
2)そうでなければ,プロキシのみを用いて公正さを正確に評価することは可能か?
(3) 利用者の個人情報を推測する倫理的論争を考えると、プライバシーを守るために弱い(不正確な)プロキシのみを使用することは可能か。
我々の理論的分析は、プロキシモデルを直接使用すれば(不公平な)誤った感覚が得られることを示している。
第2に、適切に同定された3つのプロキシのみを用いて、公正性を正確に測定できるアルゴリズムを開発する。
第3に、我々のアルゴリズムは弱いプロキシ(例えばCompASでは68.85%の精度しか使用できない)しか使用できないことを示し、ユーザーのプライバシーを保護している。
実験は理論解析を検証し,偏りを効果的に測定し軽減できることを示す。
私たちの結果は、プロキシを適切に使うための実践的なガイドラインのセットを示しています。
コードはgithub.com/UCSC-REAL/fair-evalで入手できる。
関連論文リスト
- Towards Harmless Rawlsian Fairness Regardless of Demographic Prior [57.30787578956235]
トレーニングセットに事前の人口統計が提供されない場合に,有効性を損なうことなく公平性を達成する可能性を探る。
本稿では,経験的損失の最適セット内でのトレーニング損失の分散を最小限に抑えるため,VFairという簡単な手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T12:40:34Z) - Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Fairness Without Harm: An Influence-Guided Active Sampling Approach [32.173195437797766]
我々は、モデルの精度に害を与えることなく、グループフェアネスの格差を軽減するモデルを訓練することを目指している。
公正なアクティブな学習アプローチのような現在のデータ取得方法は、通常、アノテートセンシティブな属性を必要とする。
トレーニンググループアノテーションに依存しない抽出可能なアクティブデータサンプリングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-02-20T07:57:38Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Longitudinal Fairness with Censorship [1.5688552250473473]
我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、検閲なしで公正度を橋渡しするために必要な理論的構造を提供する。
検閲された4つのデータセットに対する実験により、我々のアプローチの有効性が確認された。
論文 参考訳(メタデータ) (2022-03-30T03:08:40Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - On Assessing the Usefulness of Proxy Domains for Developing and
Evaluating Embodied Agents [0.0]
プロキシの値は、解決に使われているタスクに条件づけられている、と私たちは主張します。
我々は、異なるプロキシドメインの有用性を比較するために、新しいプロキシ有用性(PU)メトリクスを確立する。
論文 参考訳(メタデータ) (2021-09-29T16:04:39Z) - Multiaccurate Proxies for Downstream Fairness [20.36220509798361]
本研究では,センシティブな特徴が訓練時に利用できない場合に,人口的公正な条件に従わなければならないモデルを訓練する際の課題について検討する。
センシティブな機能にアクセス可能な"上流"学習者は、他の属性からこれらの機能のプロキシモデルを学ぶことができる。
この目的のために、下流モデルクラスで十分であるようなマルチ精度の制約に従うことを示します。
論文 参考訳(メタデータ) (2021-07-09T13:16:44Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。