論文の概要: A Variational Approach to Privacy and Fairness
- arxiv url: http://arxiv.org/abs/2006.06332v3
- Date: Mon, 6 Sep 2021 17:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 13:05:42.890010
- Title: A Variational Approach to Privacy and Fairness
- Title(参考訳): プライバシーと公平性に対する変分的アプローチ
- Authors: Borja Rodr\'iguez-G\'alvez, Ragnar Thobaben, Mikael Skoglund
- Abstract要約: 個人および/または公正な表現を学習するための新しい変分アプローチを提案する。
このアプローチは、プライバシと公平性最適化の問題を新たに定式化したLagrangianに基づいている。
- 参考スコア(独自算出の注目度): 36.267885373119015
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this article, we propose a new variational approach to learn private
and/or fair representations. This approach is based on the Lagrangians of a new
formulation of the privacy and fairness optimization problems that we propose.
In this formulation, we aim to generate representations of the data that keep a
prescribed level of the relevant information that is not shared by the private
or sensitive data, while minimizing the remaining information they keep. The
proposed approach (i) exhibits the similarities of the privacy and fairness
problems, (ii) allows us to control the trade-off between utility and privacy
or fairness through the Lagrange multiplier parameter, and (iii) can be
comfortably incorporated to common representation learning algorithms such as
the VAE, the $\beta$-VAE, the VIB, or the nonlinear IB.
- Abstract(参考訳): 本稿では,個人や公正な表現を学習するための新しい変分法を提案する。
このアプローチは、我々が提案するプライバシーと公平性最適化の問題を新たに定式化したラグランジアンに基づいている。
本稿では,プライマリやセンシティブなデータでは共有されていない関連情報の所定のレベルを保持するデータ表現を生成し,残りの情報を最小化することを目的とする。
提案するアプローチ
(i)プライバシーと公平性の問題の類似性を示す。
(ii)lagrange multiplierパラメータを通じて、ユーティリティとプライバシのトレードオフや公平性を制御することができる。
(iii)は、VAE、$\beta$-VAE、VIB、非線形IBなどの共通の表現学習アルゴリズムに快適に組み込むことができる。
関連論文リスト
- Pseudo-Probability Unlearning: Towards Efficient and Privacy-Preserving Machine Unlearning [59.29849532966454]
本稿では,PseudoProbability Unlearning (PPU)を提案する。
提案手法は,最先端の手法に比べて20%以上の誤りを忘れる改善を実現している。
論文 参考訳(メタデータ) (2024-11-04T21:27:06Z) - A Unified Learn-to-Distort-Data Framework for Privacy-Utility Trade-off in Trustworthy Federated Learning [5.622065847054885]
プライバシとユーティリティの均衡をナビゲートするための原則的アプローチを提供するTextitLearn-to-Distort-Dataフレームワークを提案する。
データ歪みに基づく様々なプライバシー保護機構への我々のフレームワークの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-05T08:15:09Z) - The Data Minimization Principle in Machine Learning [61.17813282782266]
データ最小化は、収集、処理、保持されるデータの量を減らすことを目的としている。
様々な国際データ保護規制によって支持されている。
しかし、厳密な定式化が欠如しているため、その実践的な実装は依然として課題である。
論文 参考訳(メタデータ) (2024-05-29T19:40:27Z) - Federated Transfer Learning with Differential Privacy [21.50525027559563]
我々は、信頼された中央サーバを仮定することなく、各データセットに対するプライバシー保証を提供する、テキストフェデレーションによる差分プライバシーの概念を定式化する。
フェデレートされた差分プライバシは、確立されたローカルと中央の差分プライバシモデルの間の中間プライバシモデルであることを示す。
論文 参考訳(メタデータ) (2024-03-17T21:04:48Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - Share Your Representation Only: Guaranteed Improvement of the
Privacy-Utility Tradeoff in Federated Learning [47.042811490685324]
この情報漏洩のリスクを減らし、最先端の差分プライベートアルゴリズムを使っても、無料ではない。
本稿では,異なるプライバシ保証を持つフェデレーションモデルにおいて,様々な当事者が協調的に洗練する表現学習の目的について考察する。
同じ小さなプライバシ予算の下で、以前の作業よりも大幅にパフォーマンスが向上するのを観察する。
論文 参考訳(メタデータ) (2023-09-11T14:46:55Z) - Privacy Amplification via Shuffling for Linear Contextual Bandits [51.94904361874446]
ディファレンシャルプライバシ(DP)を用いた文脈線形バンディット問題について検討する。
プライバシのシャッフルモデルを利用して,JDP と LDP のプライバシ/ユーティリティトレードオフを実現することができることを示す。
以上の結果から,ローカルプライバシを保ちながらシャッフルモデルを活用することで,JDPとDPのトレードオフを得ることが可能であることが示唆された。
論文 参考訳(メタデータ) (2021-12-11T15:23:28Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z) - Adversarial representation learning for synthetic replacement of private
attributes [0.7619404259039281]
第1ステップでは機密情報を除去し,第2ステップではこの情報を独立したランダムサンプルに置き換える,という2つのステップを含む,データ民営化のための新しいアプローチを提案する。
本手法は, より強い敵を騙すようにモデルを訓練することで, 強いプライバシを確保するために, 敵対表現学習を基盤としている。
論文 参考訳(メタデータ) (2020-06-14T22:07:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。