論文の概要: Bounding Training Data Reconstruction in Private (Deep) Learning
- arxiv url: http://arxiv.org/abs/2201.12383v1
- Date: Fri, 28 Jan 2022 19:24:30 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-05 08:41:42.076581
- Title: Bounding Training Data Reconstruction in Private (Deep) Learning
- Title(参考訳): プライベート(ディープ)学習におけるバウンディングトレーニングデータ再構成
- Authors: Chuan Guo, Brian Karrer, Kamalika Chaudhuri, Laurens van der Maaten
- Abstract要約: 差分プライバシーは、MLにおけるデータ漏洩を防ぐデファクト手法として広く受け入れられている。
既存のDPのセマンティック保証は、メンバーシップ推論に重点を置いている。
我々は、Renyi差分プライバシーとFisher情報漏洩という2つの異なるプライバシ会計手法が、データ再構成攻撃に対して強力なセマンティック保護を提供することを示した。
- 参考スコア(独自算出の注目度): 40.86813581191581
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Differential privacy is widely accepted as the de facto method for preventing
data leakage in ML, and conventional wisdom suggests that it offers strong
protection against privacy attacks. However, existing semantic guarantees for
DP focus on membership inference, which may overestimate the adversary's
capabilities and is not applicable when membership status itself is
non-sensitive. In this paper, we derive the first semantic guarantees for DP
mechanisms against training data reconstruction attacks under a formal threat
model. We show that two distinct privacy accounting methods -- Renyi
differential privacy and Fisher information leakage -- both offer strong
semantic protection against data reconstruction attacks.
- Abstract(参考訳): 差分プライバシーは、MLにおけるデータ漏洩を防ぐデファクト方法として広く受け入れられており、従来の知恵は、プライバシ攻撃に対する強力な保護を提供することを示している。
しかし、既存のDPのセマンティックな保証は、相手の能力を過大評価する可能性があり、メンバーシップステータス自体が非感受性である場合には適用できないメンバーシップ推論に焦点を当てている。
本稿では,形式的脅威モデルの下でのトレーニングデータ再構成攻撃に対するDP機構の最初のセマンティック保証を導出する。
我々は,renyi differential privacyとfisher information leakという2つの異なるプライバシー会計手法が,データ復元攻撃に対して強い意味的保護を提供することを示した。
関連論文リスト
- FedAdOb: Privacy-Preserving Federated Deep Learning with Adaptive Obfuscation [26.617708498454743]
フェデレーテッド・ラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、共同で機械学習モデルを学習できるコラボレーティブ・アプローチとして登場した。
本稿では,FedAdObと呼ばれる新しい適応難読化機構を提案する。
論文 参考訳(メタデータ) (2024-06-03T08:12:09Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Visual Privacy Auditing with Diffusion Models [52.866433097406656]
本稿では,拡散モデル(DM)に基づくリコンストラクション攻撃を提案する。
本研究では,(1)実世界のデータ漏洩が再建の成功に大きく影響すること,(2)現在のリビルド境界がデータ先行によるリスクをうまくモデル化していないこと,(3)DMは,プライバシー漏洩を可視化するための効果的な監査ツールとして機能すること,を示す。
論文 参考訳(メタデータ) (2024-03-12T12:18:55Z) - Bounding Training Data Reconstruction in DP-SGD [42.36933026300976]
異なるプライベートトレーニングは、通常、メンバーシップ推論攻撃に対する保証として解釈される保護を提供する。
プロキシによって、この保証は、完全なトレーニング例を抽出しようとする再構築攻撃のような他の脅威にまで拡張される。
最近の研究は、もしメンバーシップ攻撃から保護する必要がなく、訓練データ再構成から保護することだけを望むなら、プライベートモデルの実用性を改善することができるという証拠を提供している。
論文 参考訳(メタデータ) (2023-02-14T18:02:34Z) - No Free Lunch in "Privacy for Free: How does Dataset Condensation Help
Privacy" [75.98836424725437]
データプライバシを保護するために設計された新しい手法は、慎重に精査する必要がある。
プライバシ保護の失敗は検出し難いが,プライバシ保護法を実装したシステムが攻撃された場合,破滅的な結果につながる可能性がある。
論文 参考訳(メタデータ) (2022-09-29T17:50:23Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z) - Semantics-Preserved Distortion for Personal Privacy Protection in Information Management [65.08939490413037]
本稿では,意味的整合性を維持しつつテキストを歪ませる言語学的アプローチを提案する。
本稿では, 意味保存歪みの枠組みとして, 生成的アプローチと置換的アプローチの2つを提示する。
また、特定の医療情報管理シナリオにおけるプライバシ保護についても検討し、機密データの記憶を効果的に制限していることを示す。
論文 参考訳(メタデータ) (2022-01-04T04:01:05Z) - Rethinking Privacy Preserving Deep Learning: How to Evaluate and Thwart
Privacy Attacks [31.34410250008759]
本稿では、モデル精度と、再構築、追跡、およびメンバーシップ攻撃によるプライバシ損失とのトレードオフを計測する。
実験の結果,モデル精度はベースライン機構と比較して平均5~20%向上した。
論文 参考訳(メタデータ) (2020-06-20T15:48:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。