論文の概要: Spurious Privacy Leakage in Neural Networks
- arxiv url: http://arxiv.org/abs/2505.20095v1
- Date: Mon, 26 May 2025 15:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:43.541402
- Title: Spurious Privacy Leakage in Neural Networks
- Title(参考訳): ニューラルネットワークにおけるSpurious Privacy Leakage
- Authors: Chenxiang Zhang, Jun Pang, Sjouke Mauw,
- Abstract要約: この現象は、急激な集団が非偽の集団よりも、プライバシー攻撃に対して著しく脆弱な現象である。
驚くべきことに、突発的なロバストな手法による素早い相関の低減は、突発的なプライバシー漏洩を緩和しない。
- 参考スコア(独自算出の注目度): 6.0067669060060584
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Neural networks are vulnerable to privacy attacks aimed at stealing sensitive data. The risks can be amplified in a real-world scenario, particularly when models are trained on limited and biased data. In this work, we investigate the impact of spurious correlation bias on privacy vulnerability. We introduce \emph{spurious privacy leakage}, a phenomenon where spurious groups are significantly more vulnerable to privacy attacks than non-spurious groups. We further show that group privacy disparity increases in tasks with simpler objectives (e.g. fewer classes) due to the persistence of spurious features. Surprisingly, we find that reducing spurious correlation using spurious robust methods does not mitigate spurious privacy leakage. This leads us to introduce a perspective on privacy disparity based on memorization, where mitigating spurious correlation does not mitigate the memorization of spurious data, and therefore, neither the privacy level. Lastly, we compare the privacy of different model architectures trained with spurious data, demonstrating that, contrary to prior works, architectural choice can affect privacy outcomes.
- Abstract(参考訳): ニューラルネットワークは、機密データを盗むためのプライバシー攻撃に弱い。
リスクは、特に制限された偏りのあるデータに基づいてトレーニングされたモデルにおいて、現実世界のシナリオで増幅することができる。
本研究では,プライバシの脆弱性に対する急激な相関バイアスの影響について検討する。
この現象は、急激なグループが非スパイラルなグループよりも、プライバシー攻撃に対して極めて脆弱な現象である。
さらに,突発的特徴の持続性により,より単純な目的(クラス数が少ないなど)のタスクにおいて,グループプライバシの格差が増大することを示す。
驚くべきことに、突発的なロバストな手法による素早い相関の低減は、突発的なプライバシー漏洩を緩和しない。
このことから,突発的相関の緩和が突発的データの記憶を損なうことはないため,プライバシレベルも低下しない,という記憶化に基づくプライバシ格差の見方がもたらされる。
最後に、予備的なデータでトレーニングされた異なるモデルアーキテクチャのプライバシを比較し、以前の作業とは違い、アーキテクチャの選択がプライバシの結果に影響を与えることを実証する。
関連論文リスト
- Activity Recognition on Avatar-Anonymized Datasets with Masked Differential Privacy [64.32494202656801]
プライバシを保存するコンピュータビジョンは、機械学習と人工知能において重要な問題である。
本稿では,ビデオデータセット中の感性のある被験者を文脈内の合成アバターに置き換える匿名化パイプラインを提案する。
また、匿名化されていないがプライバシーに敏感な背景情報を保護するため、MaskDPを提案する。
論文 参考訳(メタデータ) (2024-10-22T15:22:53Z) - Unveiling Privacy Vulnerabilities: Investigating the Role of Structure in Graph Data [17.11821761700748]
本研究では,ネットワーク構造から生じるプライバシーリスクに対する理解と保護を推し進める。
我々は,ネットワーク構造によるプライバシー漏洩の可能性を評価するための重要なツールとして機能する,新しいグラフプライベート属性推論攻撃を開発した。
攻撃モデルはユーザのプライバシに重大な脅威を与え,グラフデータ公開手法は最適なプライバシとユーティリティのトレードオフを実現する。
論文 参考訳(メタデータ) (2024-07-26T07:40:54Z) - How Do Input Attributes Impact the Privacy Loss in Differential Privacy? [55.492422758737575]
DPニューラルネットワークにおけるオブジェクトごとの規範と個人のプライバシ損失との関係について検討する。
プライバシ・ロス・インプット・サセプティビリティ(PLIS)と呼ばれる新しい指標を導入し、被験者のプライバシ・ロスを入力属性に適応させることを可能にした。
論文 参考訳(メタデータ) (2022-11-18T11:39:03Z) - Algorithms with More Granular Differential Privacy Guarantees [65.3684804101664]
我々は、属性ごとのプライバシー保証を定量化できる部分微分プライバシー(DP)について検討する。
本研究では,複数の基本データ分析および学習タスクについて検討し,属性ごとのプライバシパラメータが個人全体のプライバシーパラメータよりも小さい設計アルゴリズムについて検討する。
論文 参考訳(メタデータ) (2022-09-08T22:43:50Z) - On the Privacy Effect of Data Enhancement via the Lens of Memorization [20.63044895680223]
我々は,記憶化という新たな視点からプライバシを調査することを提案する。
記憶のレンズを通して、以前デプロイされたMIAは、より高いプライバシーリスクを持つサンプルを特定する可能性が低いため、誤解を招く結果をもたらすことがわかった。
一般化ギャップとプライバシリークは, これまでの結果に比べて相関が低いことを示す。
論文 参考訳(メタデータ) (2022-08-17T13:02:17Z) - The Privacy Onion Effect: Memorization is Relative [76.46529413546725]
もっとも脆弱な外接点の"層"を取り除くことで、前もって安全だった点の新たな層を同じ攻撃に晒す。
これは、機械学習のようなプライバシー強化技術が、他のユーザーのプライバシーに悪影響を及ぼす可能性を示唆している。
論文 参考訳(メタデータ) (2022-06-21T15:25:56Z) - Robustness Threats of Differential Privacy [70.818129585404]
我々は、いくつかの設定で差分プライバシーをトレーニングしたネットワークが、非プライベートバージョンに比べてさらに脆弱であることを実験的に実証した。
本研究では,勾配クリッピングや雑音付加などのニューラルネットワークトレーニングの主成分が,モデルの堅牢性に与える影響について検討する。
論文 参考訳(メタデータ) (2020-12-14T18:59:24Z) - Learning With Differential Privacy [3.618133010429131]
異なるプライバシーは、漏洩に対する適切な保護を約束して救助にやってくる。
データの収集時にランダムな応答技術を使用し、より優れたユーティリティで強力なプライバシを保証します。
論文 参考訳(メタデータ) (2020-06-10T02:04:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。