論文の概要: No Prior, No Leakage: Revisiting Reconstruction Attacks in Trained Neural Networks
- arxiv url: http://arxiv.org/abs/2509.21296v1
- Date: Thu, 25 Sep 2025 15:14:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:13.023505
- Title: No Prior, No Leakage: Revisiting Reconstruction Attacks in Trained Neural Networks
- Title(参考訳): ニューラルネットワークのリコンストラクション攻撃を再考する、前代未聞
- Authors: Yehonatan Refael, Guy Smorodinsky, Ofir Lindenbaum, Itay Safran,
- Abstract要約: ニューラルネットワークによるトレーニングデータにより、プライバシとセキュリティに対する懸念が高まっている。
近年の研究では, ある条件下では, モデルパラメータから直接トレーニングセットの一部を再構築できることが示されている。
既存の再建手法の弱点と限界を分析し,失敗する条件を同定する。
- 参考スコア(独自算出の注目度): 13.146179839752618
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The memorization of training data by neural networks raises pressing concerns for privacy and security. Recent work has shown that, under certain conditions, portions of the training set can be reconstructed directly from model parameters. Some of these methods exploit implicit bias toward margin maximization, suggesting that properties often regarded as beneficial for generalization may actually compromise privacy. Yet despite striking empirical demonstrations, the reliability of these attacks remains poorly understood and lacks a solid theoretical foundation. In this work, we take a complementary perspective: rather than designing stronger attacks, we analyze the inherent weaknesses and limitations of existing reconstruction methods and identify conditions under which they fail. We rigorously prove that, without incorporating prior knowledge about the data, there exist infinitely many alternative solutions that may lie arbitrarily far from the true training set, rendering reconstruction fundamentally unreliable. Empirically, we further demonstrate that exact duplication of training examples occurs only by chance. Our results refine the theoretical understanding of when training set leakage is possible and offer new insights into mitigating reconstruction attacks. Remarkably, we demonstrate that networks trained more extensively, and therefore satisfying implicit bias conditions more strongly -- are, in fact, less susceptible to reconstruction attacks, reconciling privacy with the need for strong generalization in this setting.
- Abstract(参考訳): ニューラルネットワークによるトレーニングデータの記憶は、プライバシとセキュリティに対する懸念を高める。
近年の研究では, ある条件下では, モデルパラメータから直接トレーニングセットの一部を再構築できることが示されている。
これらの手法のいくつかは、マージンの最大化に対する暗黙の偏見を悪用し、しばしば一般化に有益と見なされる性質が、実際にはプライバシーを侵害する可能性があることを示唆している。
しかし、印象的な実証デモにもかかわらず、これらの攻撃の信頼性はいまだに理解されておらず、しっかりとした理論的基盤が欠如している。
本研究では, より強力な攻撃を設計するのではなく, 既存の再建手法の弱点や限界を分析し, 失敗する状況を特定する。
我々は、データに関する事前の知識を組み入れることなく、真のトレーニングセットから遠ざかる、無限に多くの代替ソリューションが存在することを厳格に証明し、再構築を基本的に信頼できないものにする。
経験的に、トレーニング例の正確な重複は偶然にのみ発生することを実証する。
本研究は, トレーニングセットリークの可能性に関する理論的理解を深め, 再建攻撃の軽減に関する新たな知見を提供する。
注目すべきは、ネットワークがより広範囲にトレーニングされ、従って暗黙のバイアス条件がより強く満たされることを実証することです。
関連論文リスト
- Training Data Reconstruction: Privacy due to Uncertainty? [36.941445388011154]
我々は、$x$のランダムな初期化が、実際のトレーニングデータセットの一部でなく、有効なトレーニングサンプルに類似した再構築につながることを示す。
アフィン層と一隠れ層を用いた実験により, 自然画像の再構成を行うと, 相手側では, 再構成された画像が実際にトレーニングサンプルの一部であったかどうかを判別できないことが示唆された。
論文 参考訳(メタデータ) (2024-12-11T17:00:29Z) - Unlearning Backdoor Threats: Enhancing Backdoor Defense in Multimodal Contrastive Learning via Local Token Unlearning [49.242828934501986]
マルチモーダルコントラスト学習は高品質な機能を構築するための強力なパラダイムとして登場した。
バックドア攻撃は 訓練中に モデルに 悪意ある行動を埋め込む
我々は,革新的なトークンベースの局所的忘れ忘れ学習システムを導入する。
論文 参考訳(メタデータ) (2024-03-24T18:33:15Z) - Bounding Reconstruction Attack Success of Adversaries Without Data
Priors [53.41619942066895]
機械学習(ML)モデルに対する再構成攻撃は、機密データの漏洩の強いリスクをもたらす。
本研究では,現実的な対角的環境下での再建成功に関する公式な上限を提供する。
論文 参考訳(メタデータ) (2024-02-20T09:52:30Z) - Re-thinking Data Availablity Attacks Against Deep Neural Networks [53.64624167867274]
本稿では、未学習例の概念を再検討し、既存のロバストな誤り最小化ノイズが不正確な最適化目標であることを示す。
本稿では,計算時間要件の低減による保護性能の向上を図った新しい最適化パラダイムを提案する。
論文 参考訳(メタデータ) (2023-05-18T04:03:51Z) - Understanding Reconstruction Attacks with the Neural Tangent Kernel and
Dataset Distillation [110.61853418925219]
我々は、データセット再構築攻撃のより強力なバージョンを構築し、無限の幅で設定されたエンペントリアルトレーニングを確実に回復する方法を示す。
理論的にも経験的にも再構成された画像は、データセットの「外部」に傾向を示す。
これらのリコンストラクション攻撃は, テクストデータセット蒸留において, 再構成画像上で再トレーニングを行い, 高い予測精度を得ることができる。
論文 参考訳(メタデータ) (2023-02-02T21:41:59Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Exploring the Security Boundary of Data Reconstruction via Neuron
Exclusivity Analysis [23.07323180340961]
線形整列ユニット(ReLUs)を用いたニューラルネットワーク上の微視的視点による勾配からのデータ再構成のセキュリティ境界について検討する。
ニューラルネットワークの安全性の低い境界にある訓練バッチの再構築において,従来の攻撃よりも大幅に優れる新しい決定論的攻撃アルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-10-26T05:54:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。