論文の概要: Exploring the Unfairness of DP-SGD Across Settings
- arxiv url: http://arxiv.org/abs/2202.12058v1
- Date: Thu, 24 Feb 2022 12:26:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-25 23:39:04.943581
- Title: Exploring the Unfairness of DP-SGD Across Settings
- Title(参考訳): DP-SGDアクロス設定の不公平性の探索
- Authors: Frederik Noe, Rasmus Herskind, Anders S{\o}gaard
- Abstract要約: プライバシ(DP-SGD)に対するエムデファクト標準アプローチの適用効果を,いくつかの公正度指標で評価した。
DP-SGDはPCAの公平性に有意な影響を与えなかったが,検査の結果,私的表現にも寄与しなかった。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: End users and regulators require private and fair artificial intelligence
models, but previous work suggests these objectives may be at odds. We use the
CivilComments to evaluate the impact of applying the {\em de facto} standard
approach to privacy, DP-SGD, across several fairness metrics. We evaluate three
implementations of DP-SGD: for dimensionality reduction (PCA), linear
classification (logistic regression), and robust deep learning (Group-DRO). We
establish a negative, logarithmic correlation between privacy and fairness in
the case of linear classification and robust deep learning. DP-SGD had no
significant impact on fairness for PCA, but upon inspection, also did not seem
to lead to private representations.
- Abstract(参考訳): エンドユーザと規制当局には、プライベートで公正な人工知能モデルが必要だが、以前の研究によると、これらの目的が相反する可能性がある。
我々はCivilCommentsを使用して、いくつかの公正度指標を通して、プライバシー、DP-SGDへの標準アプローチの適用の影響を評価する。
DP-SGDの3つの実装として,次元還元(PCA),線形分類(ロジスティック回帰),頑健な深層学習(Group-DRO)を評価した。
線形分類と強固なディープラーニングでは,プライバシと公平性との間に負の対数相関関係が確立される。
DP-SGDはPCAの公平性に有意な影響を与えなかったが,検査では私的表現にも影響しなかった。
関連論文リスト
- Does Differential Privacy Impact Bias in Pretrained NLP Models? [24.63118058112066]
差分プライバシー(DP)は、訓練例の漏洩を制限するために、訓練済みの大規模言語モデル(LLM)を微調整する際に適用される。
実験分析により, LLMの偏りに対するDPの影響について検討した。
また,DPがバイアスに与える影響は,プライバシ保護レベルだけでなく,データセットの基本的な分布にも影響していることが示された。
論文 参考訳(メタデータ) (2024-10-24T13:59:03Z) - Enhancing Feature-Specific Data Protection via Bayesian Coordinate Differential Privacy [55.357715095623554]
ローカル微分プライバシー(LDP)は、ユーザーが外部の関係者を信頼することなく、強力なプライバシー保証を提供する。
本稿では,ベイジアン・フレームワークであるベイジアン・コーディネート・ディファレンシャル・プライバシ(BCDP)を提案する。
論文 参考訳(メタデータ) (2024-10-24T03:39:55Z) - How Private are DP-SGD Implementations? [61.19794019914523]
2種類のバッチサンプリングを使用する場合、プライバシ分析の間に大きなギャップがあることが示される。
その結果,2種類のバッチサンプリングでは,プライバシ分析の間に大きなギャップがあることが判明した。
論文 参考訳(メタデータ) (2024-03-26T13:02:43Z) - LLM-based Privacy Data Augmentation Guided by Knowledge Distillation
with a Distribution Tutor for Medical Text Classification [67.92145284679623]
ノイズの多いプライベートディストリビューションをモデル化し,プライバシコストの低いサンプル生成を制御するDPベースのチュータを提案する。
理論的には、モデルのプライバシ保護を分析し、モデルを実証的に検証する。
論文 参考訳(メタデータ) (2024-02-26T11:52:55Z) - Gradients Look Alike: Sensitivity is Often Overestimated in DP-SGD [44.11069254181353]
DP-SGDのリークは、一般的なベンチマークでトレーニングした場合、多くのデータポイントのプライバシが大幅に低下することを示す。
これは、敵がトレーニングデータセットを十分にコントロールしていない場合、プライバシ攻撃が多くのデータポイントに対して必ず失敗することを意味する。
論文 参考訳(メタデータ) (2023-07-01T11:51:56Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Large Scale Transfer Learning for Differentially Private Image
Classification [51.10365553035979]
Differential Privacy(DP)は、個別のサンプルレベルのプライバシで機械学習モデルをトレーニングするための正式なフレームワークを提供する。
DP-SGDを用いたプライベートトレーニングは、個々のサンプル勾配にノイズを注入することで漏れを防ぐ。
この結果は非常に魅力的であるが,DP-SGDを用いた大規模モデルのトレーニングの計算コストは,非プライベートトレーニングよりもかなり高い。
論文 参考訳(メタデータ) (2022-05-06T01:22:20Z) - DP-SGD vs PATE: Which Has Less Disparate Impact on GANs? [0.0]
我々は、ディープラーニング、DP-SGD、PATEの2つのよく知られたDPフレームワークで訓練されたGANを、異なるデータ不均衡設定で比較する。
我々の実験は、PATEがDP-SGDと異なり、プライバシーとユーティリティのトレードオフは単調に減少していないことを一貫して示している。
論文 参考訳(メタデータ) (2021-11-26T17:25:46Z) - Smoothed Differential Privacy [55.415581832037084]
微分プライバシー(DP)は、最悪のケース分析に基づいて広く受け入れられ、広く適用されているプライバシーの概念である。
本稿では, 祝賀されたスムーズな解析の背景にある最悪の平均ケースのアイデアに倣って, DPの自然な拡張を提案する。
サンプリング手順による離散的なメカニズムはDPが予測するよりもプライベートであるのに対して,サンプリング手順による連続的なメカニズムはスムーズなDP下では依然としてプライベートではないことが証明された。
論文 参考訳(メタデータ) (2021-07-04T06:55:45Z) - DP-SGD vs PATE: Which Has Less Disparate Impact on Model Accuracy? [1.3238373064156095]
差分プライバシーの適用、特にDP-SGDアルゴリズムは、人口の異なるサブグループに異なる影響を与えることを示す。
差分プライバシーを用いたディープラーニングモデルの学習機構であるPATEと、公平性の観点からDP-SGDを比較した。
論文 参考訳(メタデータ) (2021-06-22T20:37:12Z) - Gradient Masking and the Underestimated Robustness Threats of
Differential Privacy in Deep Learning [0.0]
本稿では,ディファレンシャルプライバシ(DP)によるトレーニングが,幅広い敵対攻撃に対するモデル脆弱性に与える影響を実験的に評価する。
結果から、プライベートモデルは非プライベートモデルよりも堅牢ではなく、非プライベートモデルとプライベートモデルよりもDPモデル間のトランスファーが優れていることが示唆された。
論文 参考訳(メタデータ) (2021-05-17T16:10:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。