論文の概要: On the Impact of Multi-dimensional Local Differential Privacy on
Fairness
- arxiv url: http://arxiv.org/abs/2312.04404v3
- Date: Wed, 21 Feb 2024 09:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-22 19:38:10.704279
- Title: On the Impact of Multi-dimensional Local Differential Privacy on
Fairness
- Title(参考訳): 多次元局所微分プライバシーが公平性に及ぼす影響について
- Authors: Karima Makhlouf, Heber H. Arcolezi, Sami Zhioua, Ghassen Ben Brahim,
and Catuscia Palamidessi
- Abstract要約: 偏差プライバシー(LDP)が不公平性に与える影響について検討した。
特に、多次元 LDP は格差を減らすための効率的なアプローチである。
本研究は,実践者の効果的なプライバシ保護プラクティスの実践を指導するための勧告の形で要約した。
- 参考スコア(独自算出の注目度): 5.237044436478256
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated decision systems are increasingly used to make consequential
decisions in people's lives. Due to the sensitivity of the manipulated data as
well as the resulting decisions, several ethical concerns need to be addressed
for the appropriate use of such technologies, in particular, fairness and
privacy. Unlike previous work, which focused on centralized differential
privacy (DP) or local DP (LDP) for a single sensitive attribute, in this paper,
we examine the impact of LDP in the presence of several sensitive attributes
(i.e., multi-dimensional data) on fairness. Detailed empirical analysis on
synthetic and benchmark datasets revealed very relevant observations. In
particular, (1) multi-dimensional LDP is an efficient approach to reduce
disparity, (2) the multi-dimensional approach of LDP (independent vs. combined)
matters only at low privacy guarantees, and (3) the outcome Y distribution has
an important effect on which group is more sensitive to the obfuscation. Last,
we summarize our findings in the form of recommendations to guide practitioners
in adopting effective privacy-preserving practices while maintaining fairness
and utility in ML applications.
- Abstract(参考訳): 自動意思決定システムは、人々の生活の中で連続的な決定を行うためにますます使われています。
操作されたデータの感度と結果の決定により、これらの技術、特に公平さとプライバシーを適切に利用するためには、いくつかの倫理的な懸念に対処する必要がある。
本稿では, 単一機密属性に対する集中型差分プライバシー (DP) やローカルDP (LDP) に着目した以前の研究と異なり, 複数属性 (多次元データ) が公平性に与える影響について検討する。
合成およびベンチマークデータセットの詳細な実験分析により、非常に関連する観測が明らかになった。
特に,(1)多次元 LDP は格差を低減するための効率的なアプローチであり,(2)低プライバシー保証においてのみ LDP の多次元的アプローチが重要であり,(3) 結果 Y 分布は,どの群が難易度に敏感であるかに重要な影響を与える。
最後に,MLアプリケーションの公正性と実用性を維持しつつ,効果的なプライバシ保護プラクティスの採用を実践者に対して指導する上での推奨事項として,私たちの知見を要約する。
関連論文リスト
- Masked Differential Privacy [64.32494202656801]
本稿では,差分プライバシーを適用した機密領域を制御できる「マスク型差分プライバシー(DP)」という効果的なアプローチを提案する。
提案手法はデータに基づいて選択的に動作し,DPアプリケーションや差分プライバシーをデータサンプル内の他のプライバシー技術と組み合わせることなく,非感性時間領域を定義できる。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - A Systematic and Formal Study of the Impact of Local Differential Privacy on Fairness: Preliminary Results [5.618541935188389]
差分プライバシー(DP)は、プライバシ保護機械学習(ML)アルゴリズムの主要なソリューションである。
近年の研究では、ローカルDPが個人の異なるサブグループに対するML予測に影響を及ぼすことが示されている。
ローカルDPの下でのMLモデルによる決定の公平性は,プライバシやデータ分布の異なるレベルにおいてどのように変化するかを検討する。
論文 参考訳(メタデータ) (2024-05-23T15:54:03Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - Privacy for Fairness: Information Obfuscation for Fair Representation
Learning with Local Differential Privacy [26.307780067808565]
本研究では,プライバシと公正性の相互作用を包括的に検証するための理論的枠組みを提案する。
公平な表現学習のための情報ボトルネック(IB)に基づく情報難読化手法(LDP)を開発し,解析する。
MLにおける公平性に関する実証的研究とは対照的に,符号化過程における LDP のランダム化は,学習された表現の公平性を高めることができることを示す。
論文 参考訳(メタデータ) (2024-02-16T06:35:10Z) - (Local) Differential Privacy has NO Disparate Impact on Fairness [4.157415305926584]
ローカル微分プライバシー(LDP)は、現実世界のアプリケーションで広く採用されている。
本稿では,LPP下での複数属性の収集が公平性に及ぼす影響を実証研究する。
論文 参考訳(メタデータ) (2023-04-25T14:18:12Z) - DP2-Pub: Differentially Private High-Dimensional Data Publication with
Invariant Post Randomization [58.155151571362914]
本稿では,2つのフェーズで動作する差分プライベートな高次元データパブリッシング機構(DP2-Pub)を提案する。
属性をクラスタ内凝集度の高い低次元クラスタに分割し、クラスタ間の結合度を低くすることで、適切なプライバシ予算を得ることができる。
また、DP2-Pubメカニズムを、ローカルの差分プライバシーを満たす半正直なサーバでシナリオに拡張します。
論文 参考訳(メタデータ) (2022-08-24T17:52:43Z) - Production of Categorical Data Verifying Differential Privacy:
Conception and Applications to Machine Learning [0.0]
差別化プライバシは、プライバシとユーティリティのトレードオフの定量化を可能にする正式な定義である。
ローカルDP(LDP)モデルでは、ユーザはデータをサーバに送信する前に、ローカルにデータをサニタイズすることができる。
いずれの場合も、微分プライベートなMLモデルは、非プライベートなモデルとほぼ同じユーティリティメトリクスを達成できると結論付けました。
論文 参考訳(メタデータ) (2022-04-02T12:50:14Z) - Post-processing of Differentially Private Data: A Fairness Perspective [53.29035917495491]
本稿では,ポストプロセッシングが個人やグループに異なる影響を与えることを示す。
差分的にプライベートなデータセットのリリースと、ダウンストリームの決定にそのようなプライベートなデータセットを使用するという、2つの重要な設定を分析している。
それは、異なる公正度尺度の下で(ほぼ)最適である新しい後処理機構を提案する。
論文 参考訳(メタデータ) (2022-01-24T02:45:03Z) - Partial sensitivity analysis in differential privacy [58.730520380312676]
それぞれの入力特徴が個人のプライバシ損失に与える影響について検討する。
プライベートデータベース上でのクエリに対する我々のアプローチを実験的に評価する。
また、合成データにおけるニューラルネットワークトレーニングの文脈における知見についても検討する。
論文 参考訳(メタデータ) (2021-09-22T08:29:16Z) - Differentially Private Deep Learning under the Fairness Lens [34.28936739262812]
微分プライバシー(DP)は、プライベート機械学習システムにとって重要なプライバシー強化技術である。
計算に個々の参加に伴うリスクを計測し、バウンドすることができる。
近年,DP学習システムは,個人集団の偏見や不公平性を悪化させる可能性が指摘されている。
論文 参考訳(メタデータ) (2021-06-04T19:10:09Z) - Differentially Private and Fair Deep Learning: A Lagrangian Dual
Approach [54.32266555843765]
本稿では,個人の機密情報のプライバシを保護するとともに,非差別的予測器の学習を可能にするモデルについて検討する。
この方法は、微分プライバシーの概念と、公正性制約を満たすニューラルネットワークの設計にラグランジアン双対性(Lagrangian duality)を用いることに依存している。
論文 参考訳(メタデータ) (2020-09-26T10:50:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。