論文の概要: PrivFair: a Library for Privacy-Preserving Fairness Auditing
- arxiv url: http://arxiv.org/abs/2202.04058v1
- Date: Tue, 8 Feb 2022 18:42:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-09 16:16:10.447420
- Title: PrivFair: a Library for Privacy-Preserving Fairness Auditing
- Title(参考訳): PrivFair: プライバシー保護フェアネス監査のためのライブラリ
- Authors: Sikha Pentyala, David Melanson, Martine De Cock, Golnoosh Farnadi
- Abstract要約: 機械学習モデルのプライバシ保護フェアネス監査のためのライブラリであるPrivFairを紹介する。
PrivFairは監査対象のモデルの機密性と監査に使用される機密データを保護する。
- 参考スコア(独自算出の注目度): 13.947606247944597
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning (ML) has become prominent in applications that directly
affect people's quality of life, including in healthcare, justice, and finance.
ML models have been found to exhibit discrimination based on sensitive
attributes such as gender, race, or disability. Assessing if an ML model is
free of bias remains challenging to date, and by definition has to be done with
sensitive user characteristics that are subject of anti-discrimination and data
protection law. Existing libraries for fairness auditing of ML models offer no
mechanism to protect the privacy of the audit data. We present PrivFair, a
library for privacy-preserving fairness audits of ML models. Through the use of
Secure Multiparty Computation (MPC), \textsc{PrivFair} protects the
confidentiality of the model under audit and the sensitive data used for the
audit, hence it supports scenarios in which a proprietary classifier owned by a
company is audited using sensitive audit data from an external investigator. We
demonstrate the use of PrivFair for group fairness auditing with tabular data
or image data, without requiring the investigator to disclose their data to
anyone in an unencrypted manner, or the model owner to reveal their model
parameters to anyone in plaintext.
- Abstract(参考訳): 機械学習(ML)は、医療、司法、金融など、人々の生活の質に直接影響を及ぼすアプリケーションで顕著になっている。
MLモデルは、性別、人種、障害などのセンシティブな属性に基づいた差別を示す。
mlモデルにバイアスがないかどうかを評価することは、いまだに難しい課題であり、定義上、差別防止法やデータ保護法の対象となる繊細なユーザー特性で行わなければならない。
mlモデルの公正監査のための既存のライブラリは、監査データのプライバシーを保護するメカニズムを提供していません。
MLモデルのプライバシ保護フェアネス監査のためのライブラリであるPrivFairを紹介する。
Secure Multiparty Computation (MPC) を用いることで、監査対象のモデルの機密性と監査に使用する機密データを保護し、企業が所有する独自分類器が外部調査員の機密監査データを使用して監査されるシナリオをサポートする。
文書データや画像データを用いたグループフェアネス監査にPrivFairを用いることで,調査員が暗号化されていない方法でデータを公開したり,モデル所有者がモデルパラメータを平文で公開したりすることなく,グループフェアネス監査にPivFairを活用できることを実証する。
関連論文リスト
- Curator Attack: When Blackbox Differential Privacy Auditing Loses Its Power [28.868999615348084]
差分プライバシーのためのBlackbox監査は、その有効性と幅広いシナリオへの適用性から人気を集めている。
しかし、ブラックボックスの監査は本質的にその設定に欠陥があることがわかりました。
本研究の目的は,ブラックボックス監査ツールの限界を明らかにすること,データ所有者にこれらのツールを使用する際のリスクを認識し,より信頼性の高い差分プライバシー監査手法の開発を促すことである。
論文 参考訳(メタデータ) (2024-11-25T16:00:04Z) - FT-PrivacyScore: Personalized Privacy Scoring Service for Machine Learning Participation [4.772368796656325]
実際には、制御されたデータアクセスは、多くの産業や研究環境でデータプライバシを保護する主要な方法である。
我々は,FT-PrivacyScoreのプロトタイプを開発し,モデル微調整作業に参加する際のプライバシーリスクを効率よく定量的に推定できることを実証した。
論文 参考訳(メタデータ) (2024-10-30T02:41:26Z) - Trustless Audits without Revealing Data or Models [49.23322187919369]
モデルプロバイダが(アーキテクチャではなく)モデルウェイトとデータシークレットを維持しながら、他のパーティがモデルとデータプロパティを信頼性のない監査を行うことが可能であることを示す。
私たちはZkAuditと呼ばれるプロトコルを設計し、モデルプロバイダがデータセットとモデルの重みの暗号的コミットメントを公開します。
論文 参考訳(メタデータ) (2024-04-06T04:43:06Z) - Auditing and Generating Synthetic Data with Controllable Trust Trade-offs [54.262044436203965]
合成データセットとAIモデルを包括的に評価する総合監査フレームワークを導入する。
バイアスや差別の防止、ソースデータへの忠実性の確保、実用性、堅牢性、プライバシ保護などに焦点を当てている。
多様なユースケースにまたがる様々な生成モデルを監査することにより,フレームワークの有効性を実証する。
論文 参考訳(メタデータ) (2023-04-21T09:03:18Z) - Membership Inference Attacks against Synthetic Data through Overfitting
Detection [84.02632160692995]
我々は、攻撃者が基礎となるデータ分布についてある程度の知識を持っていると仮定する現実的なMIA設定について論じる。
生成モデルの局所的なオーバーフィッティングをターゲットとして,メンバシップを推論することを目的とした密度ベースMIAモデルであるDOMIASを提案する。
論文 参考訳(メタデータ) (2023-02-24T11:27:39Z) - Tight Auditing of Differentially Private Machine Learning [77.38590306275877]
プライベート機械学習では、既存の監査メカニズムは厳格である。
彼らは不確実な最悪の仮定の下でのみ厳密な見積もりを行う。
我々は、自然(逆向きではない)データセットの厳密なプライバシー推定を得られる改善された監査スキームを設計する。
論文 参考訳(メタデータ) (2023-02-15T21:40:33Z) - Can Querying for Bias Leak Protected Attributes? Achieving Privacy With
Smooth Sensitivity [14.564919048514897]
既存の規制は、モデル開発者が保護された属性にアクセスすることを禁止している。
公正度測定値を求めるだけで、モデルの開発者に対する個人の保護された属性が漏洩する可能性があることを示す。
本稿では,雑音をバイアスクエリのスムーズな感度に調整することで,差分プライバシーを実現する新しい手法であるAttribute-Concealを提案する。
論文 参考訳(メタデータ) (2022-11-03T20:44:48Z) - I Prefer not to Say: Protecting User Consent in Models with Optional
Personal Data [20.238432971718524]
データの共有をしない決定は,ユーザのプライバシを尊重するために保護されるべき情報として,それ自体が考えられる。
我々は,アクティブなユーザ同意を得た情報のみを使用するモデルに対する保護要件を定式化する。
論文 参考訳(メタデータ) (2022-10-25T12:16:03Z) - When Fairness Meets Privacy: Fair Classification with Semi-Private
Sensitive Attributes [18.221858247218726]
半私的な環境での公平な分類の新規かつ実践的な問題について検討する。
センシティブな属性のほとんどはプライベートであり、クリーンな属性はごくわずかである。
半原始的環境下での公正な予測を実現するための新しいフレームワークであるFairSPを提案する。
論文 参考訳(メタデータ) (2022-07-18T01:10:25Z) - SF-PATE: Scalable, Fair, and Private Aggregation of Teacher Ensembles [50.90773979394264]
本稿では、個人の機密情報のプライバシーを保護しつつ、差別的でない予測者の学習を可能にするモデルについて検討する。
提案モデルの主な特徴は、プライバシ保護とフェアモデルを作成するために、オフ・ザ・セルフと非プライベートフェアモデルの採用を可能にすることである。
論文 参考訳(メタデータ) (2022-04-11T14:42:54Z) - PCAL: A Privacy-preserving Intelligent Credit Risk Modeling Framework
Based on Adversarial Learning [111.19576084222345]
本稿では,PCAL(Adversarial Learning)に基づくプライバシ保護型信用リスクモデリングの枠組みを提案する。
PCALは、ターゲット予測タスクのパフォーマンスの重要なユーティリティ情報を維持しながら、元のデータセット内のプライベート情報を隠蔽することを目的としている。
結果は,PCALがユーザデータから効果的なプライバシフリー表現を学習し,信用リスク分析のためのプライバシ保存機械学習の基盤となることを示唆している。
論文 参考訳(メタデータ) (2020-10-06T07:04:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。