論文の概要: Differentially Private and Fair Classification via Calibrated Functional
Mechanism
- arxiv url: http://arxiv.org/abs/2001.04958v2
- Date: Thu, 12 Mar 2020 18:42:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-11 13:26:37.887610
- Title: Differentially Private and Fair Classification via Calibrated Functional
Mechanism
- Title(参考訳): キャリブレーション機能機構による分別的・公平な分類
- Authors: Jiahao Ding, Xinyue Zhang, Xiaohuan Li, Junyi Wang, Rong Yu, Miao Pan
- Abstract要約: 公平性と差分プライバシー保証を備えた分類モデルの設計に着目する。
本稿では,ラプラス雑音の代わりにガウス雑音を加えることで,緩和機能機構と呼ばれる実用性向上手法を提案する。
我々の2つのアプローチは、優れたユーティリティを保持しながら公正性と差分プライバシーの両方を実現し、最先端のアルゴリズムより優れています。
- 参考スコア(独自算出の注目度): 21.656780732846524
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine learning is increasingly becoming a powerful tool to make decisions
in a wide variety of applications, such as medical diagnosis and autonomous
driving. Privacy concerns related to the training data and unfair behaviors of
some decisions with regard to certain attributes (e.g., sex, race) are becoming
more critical. Thus, constructing a fair machine learning model while
simultaneously providing privacy protection becomes a challenging problem. In
this paper, we focus on the design of classification model with fairness and
differential privacy guarantees by jointly combining functional mechanism and
decision boundary fairness. In order to enforce $\epsilon$-differential privacy
and fairness, we leverage the functional mechanism to add different amounts of
Laplace noise regarding different attributes to the polynomial coefficients of
the objective function in consideration of fairness constraint. We further
propose an utility-enhancement scheme, called relaxed functional mechanism by
adding Gaussian noise instead of Laplace noise, hence achieving
$(\epsilon,\delta)$-differential privacy. Based on the relaxed functional
mechanism, we can design $(\epsilon,\delta)$-differentially private and fair
classification model. Moreover, our theoretical analysis and empirical results
demonstrate that our two approaches achieve both fairness and differential
privacy while preserving good utility and outperform the state-of-the-art
algorithms.
- Abstract(参考訳): 機械学習は、医療診断や自動運転など、さまざまなアプリケーションで意思決定を行うための強力なツールになりつつある。
特定の属性(例えば、性別、人種)に関するいくつかの決定のトレーニングデータや不公平な行動に関するプライバシーの懸念がますます重要になっている。
これにより、プライバシー保護と同時に公平な機械学習モデルを構築することが課題となる。
本稿では,機能機構と決定境界フェアネスを組み合わせることにより,公平性と微分プライバシー保証を備えた分類モデルの設計に着目する。
微分プライバシーと公正性を$\epsilon$-differential privacy and fairness(英語版)で適用するために、関数機構を利用して、フェアネス制約を考慮した目的関数の多項式係数に異なる属性に関する異なる量のラプラスノイズを加える。
さらに,ラプラスノイズの代わりにガウス雑音を付加することにより,実用性向上手法を提案し,従って$(\epsilon,\delta)$-differential privacyを実現する。
緩和された機能機構に基づいて、$(\epsilon,\delta)$-微分プライベートかつ公正な分類モデルを設計することができる。
さらに, 理論解析と実験の結果から, 有効性を維持しつつ公平性と微分プライバシを両立させ, 最先端アルゴリズムに勝ることを示した。
関連論文リスト
- Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Fairness in Matching under Uncertainty [78.39459690570531]
アルゴリズム的な二面市場は、こうした設定における公平性の問題に注意を向けている。
我々は、利益の不確実性を尊重する両面の市場設定において、個々人の公正性の概念を公理化する。
そこで我々は,配当よりも公平なユーティリティ最大化分布を求めるために,線形プログラミングフレームワークを設計する。
論文 参考訳(メタデータ) (2023-02-08T00:30:32Z) - Additive Logistic Mechanism for Privacy-Preserving Self-Supervised
Learning [26.783944764936994]
ニューラルネットワークの重みを自己教師付き学習アルゴリズムでトレーニングする際のプライバシーリスクについて検討する。
我々は、微調整後の重み付けにノイズを加えるプライバシー保護アルゴリズムを設計する。
提案した保護アルゴリズムは,攻撃精度をランダムな推測にほぼ等しい50%に効果的に低減できることを示す。
論文 参考訳(メタデータ) (2022-05-25T01:33:52Z) - Pessimism meets VCG: Learning Dynamic Mechanism Design via Offline
Reinforcement Learning [114.36124979578896]
オフライン強化学習アルゴリズムを用いて動的メカニズムを設計する。
我々のアルゴリズムは悲観主義の原理に基づいており、オフラインデータセットのカバレッジについて軽度な仮定しか必要としない。
論文 参考訳(メタデータ) (2022-05-05T05:44:26Z) - Assessing Differentially Private Variational Autoencoders under
Membership Inference [26.480694390462617]
差分プライベートな変分オートエンコーダのプライバシーと精度のトレードオフを定量化し比較する。
変分オートエンコーダのプライバシーと精度のトレードオフを良好に観察することはめったになく,LCPがCDPを上回った事例を特定する。
論文 参考訳(メタデータ) (2022-04-16T21:53:09Z) - Optimal Accounting of Differential Privacy via Characteristic Function [25.78065563380023]
本稿では,プライバシ・プロフィール,プライバシ・プロファイル,$f$-DP,PLDフォーマリズムなどの最近の進歩を,ある最悪のケースのプライバシ・ロスランダム変数の特徴関数(phi$-function)を介して統一することを提案する。
我々のアプローチは、Renyi DPのような自然適応的な構成を可能にし、PDDのような厳密なプライバシ会計を提供し、プライバシープロファイルや$f$-DPに変換できることが示されています。
論文 参考訳(メタデータ) (2021-06-16T06:13:23Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Improving Fairness and Privacy in Selection Problems [21.293367386282902]
教師付き学習モデルの公平性とプライバシーの両方を改善するための後処理のステップとして、微分的プライベート指数関数機構を使用することの可能性を検討する。
この指数関数的メカニズムは, プライバシと公平性の両方を向上し, ポストプロセッシングを伴わないモデルと比較して, 精度がわずかに低下することを示した。
論文 参考訳(メタデータ) (2020-12-07T15:55:28Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - More Than Privacy: Applying Differential Privacy in Key Areas of
Artificial Intelligence [62.3133247463974]
差分プライバシーは、AIのプライバシー保護以上のことができることを示す。
また、セキュリティを改善し、学習を安定させ、公正なモデルを構築し、AIの選択領域にコンポジションを課すためにも使用できる。
論文 参考訳(メタデータ) (2020-08-05T03:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。