論文の概要: Weak Proxies are Sufficient and Preferable for Fairness with Missing
Sensitive Attributes
- arxiv url: http://arxiv.org/abs/2210.03175v2
- Date: Tue, 31 Jan 2023 02:13:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-19 11:34:48.981473
- Title: Weak Proxies are Sufficient and Preferable for Fairness with Missing
Sensitive Attributes
- Title(参考訳): 弱プロキシは感度属性を欠くフェアネスに十分好適である
- Authors: Zhaowei Zhu, Yuanshun Yao, Jiankai Sun, Hang Li, Yang Liu
- Abstract要約: 適切な3つのプロキシのみを用いて,正当性(確実に)を正確に測定できるアルゴリズムを開発した。
本結果は,プロキシの適切な使用方法に関する実践者のための実践的ガイドラインのセットであることを示唆している。
- 参考スコア(独自算出の注目度): 25.730297492625507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Evaluating fairness can be challenging in practice because the sensitive
attributes of data are often inaccessible due to privacy constraints. The go-to
approach that the industry frequently adopts is using off-the-shelf proxy
models to predict the missing sensitive attributes, e.g. Meta [Alao et al.,
2021] and Twitter [Belli et al., 2022]. Despite its popularity, there are three
important questions unanswered: (1) Is directly using proxies efficacious in
measuring fairness? (2) If not, is it possible to accurately evaluate fairness
using proxies only? (3) Given the ethical controversy over inferring user
private information, is it possible to only use weak (i.e. inaccurate) proxies
in order to protect privacy? Our theoretical analyses show that directly using
proxy models can give a false sense of (un)fairness. Second, we develop an
algorithm that is able to measure fairness (provably) accurately with only
three properly identified proxies. Third, we show that our algorithm allows the
use of only weak proxies (e.g. with only 68.85%accuracy on COMPAS), adding an
extra layer of protection on user privacy. Experiments validate our theoretical
analyses and show our algorithm can effectively measure and mitigate bias. Our
results imply a set of practical guidelines for practitioners on how to use
proxies properly. Code is available at github.com/UCSC-REAL/fair-eval.
- Abstract(参考訳): データの機密性は、プライバシの制約のためにアクセスできないことが多いため、公正性の評価は実際に難しい場合がある。
業界が頻繁に採用するゴートアプローチは,Meta (Alao et al., 2021) や Twitter [Belli et al., 2022] といった,欠落したセンシティブな属性を予測するために,オフザシェルフプロキシモデルを使用することだ。
人気にもかかわらず,(1) 公正度を測る上で,直接プロキシは有効か,という重要な疑問が3つある。
2)そうでなければ,プロキシのみを用いて公正さを正確に評価することは可能か?
(3) 利用者の個人情報を推測する倫理的論争を考えると、プライバシーを守るために弱い(不正確な)プロキシのみを使用することは可能か。
我々の理論的分析は、プロキシモデルを直接使用すれば(不公平な)誤った感覚が得られることを示している。
第2に、適切に同定された3つのプロキシのみを用いて、公正性を正確に測定できるアルゴリズムを開発する。
第3に、我々のアルゴリズムは弱いプロキシ(例えばCompASでは68.85%の精度しか使用できない)しか使用できないことを示し、ユーザーのプライバシーを保護している。
実験は理論解析を検証し,偏りを効果的に測定し軽減できることを示す。
私たちの結果は、プロキシを適切に使うための実践的なガイドラインのセットを示しています。
コードはgithub.com/UCSC-REAL/fair-evalで入手できる。
関連論文リスト
- Preserving Fairness Generalization in Deepfake Detection [14.485069525871504]
ディープフェイク検出モデルは、人種や性別などの人口集団間で不公平なパフォーマンス格差をもたらす可能性がある。
本稿では,特徴,損失,最適化の両面を同時に考慮し,深度検出における公平性一般化問題に対処する手法を提案する。
本手法では, ゆがみ学習を用いて, 人口動態やドメインに依存しない特徴を抽出し, 平らな失われた風景を公平に学習することを奨励する。
論文 参考訳(メタデータ) (2024-02-27T05:47:33Z) - Practical Bias Mitigation through Proxy Sensitive Attribute Label
Generation [0.0]
本稿では,非教師なし埋め込み生成の2段階的アプローチとクラスタリングによるプロキシ・センシティブなラベルの取得を提案する。
我々の研究の有効性は、バイアスが感度属性と相関する非感度属性を通して伝播するという仮定に依存している。
実験結果から、Fair MixupやAdversarial Debiasingといった既存のアルゴリズムによるバイアス緩和は、導出されたプロキシラベルに匹敵する結果をもたらすことが示された。
論文 参考訳(メタデータ) (2023-12-26T10:54:15Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Canary in a Coalmine: Better Membership Inference with Ensembled
Adversarial Queries [53.222218035435006]
私たちは、差別的で多様なクエリを最適化するために、逆ツールを使用します。
我々の改善は既存の方法よりもはるかに正確な会員推定を実現している。
論文 参考訳(メタデータ) (2022-10-19T17:46:50Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - Longitudinal Fairness with Censorship [1.5688552250473473]
我々は、適用可能な公正度対策を考案し、デバイアスアルゴリズムを提案し、検閲なしで公正度を橋渡しするために必要な理論的構造を提供する。
検閲された4つのデータセットに対する実験により、我々のアプローチの有効性が確認された。
論文 参考訳(メタデータ) (2022-03-30T03:08:40Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - On Assessing the Usefulness of Proxy Domains for Developing and
Evaluating Embodied Agents [0.0]
プロキシの値は、解決に使われているタスクに条件づけられている、と私たちは主張します。
我々は、異なるプロキシドメインの有用性を比較するために、新しいプロキシ有用性(PU)メトリクスを確立する。
論文 参考訳(メタデータ) (2021-09-29T16:04:39Z) - Multiaccurate Proxies for Downstream Fairness [20.36220509798361]
本研究では,センシティブな特徴が訓練時に利用できない場合に,人口的公正な条件に従わなければならないモデルを訓練する際の課題について検討する。
センシティブな機能にアクセス可能な"上流"学習者は、他の属性からこれらの機能のプロキシモデルを学ぶことができる。
この目的のために、下流モデルクラスで十分であるようなマルチ精度の制約に従うことを示します。
論文 参考訳(メタデータ) (2021-07-09T13:16:44Z) - Is Private Learning Possible with Instance Encoding? [68.84324434746765]
本研究では,インスタンスエンコーディング機構を用いて,非プライベートな学習アルゴリズムをプライベートにすることができるかを検討する。
2つの攻撃モデルを提供することで、インスタンスエンコーディングの概念とプライバシの両方を形式化する。
論文 参考訳(メタデータ) (2020-11-10T18:55:20Z) - Fewer is More: A Deep Graph Metric Learning Perspective Using Fewer
Proxies [65.92826041406802]
本稿では,グラフ分類の観点から,プロキシベースのディープグラフメトリックラーニング手法を提案する。
複数のグローバルプロキシを利用して、各クラスの元のデータポイントを総括的に近似する。
本研究では, 近接関係を接地トラス・ラベルに従って調整する, 新たな逆ラベル伝搬アルゴリズムを設計する。
論文 参考訳(メタデータ) (2020-10-26T14:52:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。