論文の概要: Bayesian Perspective on Memorization and Reconstruction
- arxiv url: http://arxiv.org/abs/2505.23658v1
- Date: Thu, 29 May 2025 17:08:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.018475
- Title: Bayesian Perspective on Memorization and Reconstruction
- Title(参考訳): 記憶と再建のベイズ的展望
- Authors: Haim Kaplan, Yishay Mansour, Kobbi Nissim, Uri Stemmer,
- Abstract要約: 本研究では,特定の環境において,再建攻撃を確実に防止する新たなセキュリティ定義を提案する。
これらの攻撃は、再建攻撃ではなく、会員推測攻撃の一種である、と我々は主張する。
- 参考スコア(独自算出の注目度): 66.52165454769107
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new Bayesian perspective on the concept of data reconstruction, and leverage this viewpoint to propose a new security definition that, in certain settings, provably prevents reconstruction attacks. We use our paradigm to shed new light on one of the most notorious attacks in the privacy and memorization literature - fingerprinting code attacks (FPC). We argue that these attacks are really a form of membership inference attacks, rather than reconstruction attacks. Furthermore, we show that if the goal is solely to prevent reconstruction (but not membership inference), then in some cases the impossibility results derived from FPC no longer apply.
- Abstract(参考訳): 我々は、データ再構成の概念に関する新しいベイズ的視点を導入し、この視点を活用して、特定の環境では、復元攻撃を確実に防止する新しいセキュリティ定義を提案する。
当社のパラダイムは、プライバシと記憶文学における最も悪名高い攻撃の1つ、フィンガープリントコード攻撃(FPC)に新たな光を当てるために使用しています。
これらの攻撃は、再建攻撃ではなく、会員推測攻撃の一種である、と我々は主張する。
さらに,本研究の目的が再建の防止(ただし,メンバーシップ推論は行わない)である場合,FPCから派生した不可能性はもはや適用されない場合もある。
関連論文リスト
- Just a Simple Transformation is Enough for Data Protection in Vertical Federated Learning [83.90283731845867]
我々は、入力データ妥協を目標とする一般的なリスクである特徴再構成攻撃について検討する。
フェデレーションベースのモデルは、最先端の機能再構築攻撃に耐性があることが示される。
論文 参考訳(メタデータ) (2024-12-16T12:02:12Z) - Data Reconstruction: When You See It and When You Don't [75.03157721978279]
我々は,2つの補足的な疑問に対処することで,再建攻撃の概念を「サンドウィッチ」することを目指している。
我々は,再建攻撃に対するセキュリティ定義を定式化するために,新たな定義パラダイムであるナルシッソス・レジリエンスを導入する。
論文 参考訳(メタデータ) (2024-05-24T17:49:34Z) - Bounding Training Data Reconstruction in DP-SGD [42.36933026300976]
異なるプライベートトレーニングは、通常、メンバーシップ推論攻撃に対する保証として解釈される保護を提供する。
プロキシによって、この保証は、完全なトレーニング例を抽出しようとする再構築攻撃のような他の脅威にまで拡張される。
最近の研究は、もしメンバーシップ攻撃から保護する必要がなく、訓練データ再構成から保護することだけを望むなら、プライベートモデルの実用性を改善することができるという証拠を提供している。
論文 参考訳(メタデータ) (2023-02-14T18:02:34Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - Defending against Reconstruction Attacks with R\'enyi Differential
Privacy [72.1188520352079]
レコンストラクション攻撃により、敵は訓練されたモデルのみにアクセスすることで、トレーニングセットのデータサンプルを再生することができる。
差別化プライバシはこのような攻撃に対する既知の解決策であるが、比較的大きなプライバシ予算で使用されることが多い。
また、同機構により、従来の文献よりも優れた復元攻撃に対するプライバシー保証を導出できることを示す。
論文 参考訳(メタデータ) (2022-02-15T18:09:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。