論文の概要: Differentially Private and Fair Classification via Calibrated Functional
Mechanism
- arxiv url: http://arxiv.org/abs/2001.04958v2
- Date: Thu, 12 Mar 2020 18:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 13:26:37.887610
- Title: Differentially Private and Fair Classification via Calibrated Functional
Mechanism
- Title(参考訳): キャリブレーション機能機構による分別的・公平な分類
- Authors: Jiahao Ding, Xinyue Zhang, Xiaohuan Li, Junyi Wang, Rong Yu, Miao Pan
- Abstract要約: 公平性と差分プライバシー保証を備えた分類モデルの設計に着目する。
本稿では,ラプラス雑音の代わりにガウス雑音を加えることで,緩和機能機構と呼ばれる実用性向上手法を提案する。
我々の2つのアプローチは、優れたユーティリティを保持しながら公正性と差分プライバシーの両方を実現し、最先端のアルゴリズムより優れています。
- 参考スコア(独自算出の注目度): 21.656780732846524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is increasingly becoming a powerful tool to make decisions
in a wide variety of applications, such as medical diagnosis and autonomous
driving. Privacy concerns related to the training data and unfair behaviors of
some decisions with regard to certain attributes (e.g., sex, race) are becoming
more critical. Thus, constructing a fair machine learning model while
simultaneously providing privacy protection becomes a challenging problem. In
this paper, we focus on the design of classification model with fairness and
differential privacy guarantees by jointly combining functional mechanism and
decision boundary fairness. In order to enforce $\epsilon$-differential privacy
and fairness, we leverage the functional mechanism to add different amounts of
Laplace noise regarding different attributes to the polynomial coefficients of
the objective function in consideration of fairness constraint. We further
propose an utility-enhancement scheme, called relaxed functional mechanism by
adding Gaussian noise instead of Laplace noise, hence achieving
$(\epsilon,\delta)$-differential privacy. Based on the relaxed functional
mechanism, we can design $(\epsilon,\delta)$-differentially private and fair
classification model. Moreover, our theoretical analysis and empirical results
demonstrate that our two approaches achieve both fairness and differential
privacy while preserving good utility and outperform the state-of-the-art
algorithms.
- Abstract(参考訳): 機械学習は、医療診断や自動運転など、さまざまなアプリケーションで意思決定を行うための強力なツールになりつつある。
特定の属性(例えば、性別、人種)に関するいくつかの決定のトレーニングデータや不公平な行動に関するプライバシーの懸念がますます重要になっている。
これにより、プライバシー保護と同時に公平な機械学習モデルを構築することが課題となる。
本稿では,機能機構と決定境界フェアネスを組み合わせることにより,公平性と微分プライバシー保証を備えた分類モデルの設計に着目する。
微分プライバシーと公正性を$\epsilon$-differential privacy and fairness(英語版)で適用するために、関数機構を利用して、フェアネス制約を考慮した目的関数の多項式係数に異なる属性に関する異なる量のラプラスノイズを加える。
さらに,ラプラスノイズの代わりにガウス雑音を付加することにより,実用性向上手法を提案し,従って$(\epsilon,\delta)$-differential privacyを実現する。
緩和された機能機構に基づいて、$(\epsilon,\delta)$-微分プライベートかつ公正な分類モデルを設計することができる。
さらに, 理論解析と実験の結果から, 有効性を維持しつつ公平性と微分プライバシを両立させ, 最先端アルゴリズムに勝ることを示した。
関連論文リスト
- CorBin-FL: A Differentially Private Federated Learning Mechanism using Common Randomness [6.881974834597426]
Federated Learning (FL)は、分散機械学習のための有望なフレームワークとして登場した。
相関2値量子化を用いて差分プライバシーを実現するプライバシー機構であるCorBin-FLを導入する。
また,PLDP,ユーザレベル,サンプルレベルの中央差分プライバシー保証に加えて,AugCorBin-FLも提案する。
論文 参考訳(メタデータ) (2024-09-20T00:23:44Z) - Privacy-Aware Randomized Quantization via Linear Programming [13.002534825666219]
偏りがなく、偏りのない量子化機構のファミリーを提案する。
提案するメカニズムは,ベースラインと比較して,より優れたプライバシ・正確性トレードオフを実現することができる。
論文 参考訳(メタデータ) (2024-06-01T18:40:08Z) - Bounded and Unbiased Composite Differential Privacy [25.427802467876248]
差分プライバシ(DP)の目的は、隣接する2つのデータベース間で区別できない出力分布を生成することにより、プライバシを保護することである。
既存のソリューションでは、後処理やトランケーション技術を使ってこの問題に対処しようとしている。
本稿では,合成確率密度関数を用いて有界および非偏りの出力を生成する新しい微分プライベート機構を提案する。
論文 参考訳(メタデータ) (2023-11-04T04:43:47Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。