論文の概要: A Sample-Level Evaluation and Generative Framework for Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2502.19070v1
- Date: Wed, 26 Feb 2025 11:50:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-27 14:57:43.417848
- Title: A Sample-Level Evaluation and Generative Framework for Model Inversion Attacks
- Title(参考訳): モデル反転攻撃のためのサンプルレベル評価と生成フレームワーク
- Authors: Haoyang Li, Li Bai, Qingqing Ye, Haibo Hu, Yaxin Xiao, Huadi Zheng, Jianliang Xu,
- Abstract要約: モデル反転(MI)攻撃は機械学習において重大なプライバシー上の懸念を引き起こす。
最近のMI攻撃は、現実的なラベルレベルのプライベートデータを再構築することに成功した。
単一対象サンプルのプライベート情報であるサンプルレベルのプライバシも重要であるが,MI文献では未検討である。
- 参考スコア(独自算出の注目度): 26.585927770608105
- License:
- Abstract: Model Inversion (MI) attacks, which reconstruct the training dataset of neural networks, pose significant privacy concerns in machine learning. Recent MI attacks have managed to reconstruct realistic label-level private data, such as the general appearance of a target person from all training images labeled on him. Beyond label-level privacy, in this paper we show sample-level privacy, the private information of a single target sample, is also important but under-explored in the MI literature due to the limitations of existing evaluation metrics. To address this gap, this study introduces a novel metric tailored for training-sample analysis, namely, the Diversity and Distance Composite Score (DDCS), which evaluates the reconstruction fidelity of each training sample by encompassing various MI attack attributes. This, in turn, enhances the precision of sample-level privacy assessments. Leveraging DDCS as a new evaluative lens, we observe that many training samples remain resilient against even the most advanced MI attack. As such, we further propose a transfer learning framework that augments the generative capabilities of MI attackers through the integration of entropy loss and natural gradient descent. Extensive experiments verify the effectiveness of our framework on improving state-of-the-art MI attacks over various metrics including DDCS, coverage and FID. Finally, we demonstrate that DDCS can also be useful for MI defense, by identifying samples susceptible to MI attacks in an unsupervised manner.
- Abstract(参考訳): ニューラルネットワークのトレーニングデータセットを再構築するモデル反転(MI)攻撃は、機械学習において重大なプライバシー上の懸念を生じさせる。
最近のMI攻撃は、ターゲット人物の一般的な出現など、現実的なラベルレベルのプライベートデータを、ラベルにラベル付けされたすべてのトレーニングイメージから再構築することに成功した。
ラベルレベルのプライバシ以外にも,本論文では,単一対象サンプルのプライベート情報であるサンプルレベルのプライバシが,既存の評価基準の限界のため,MI文献においても重要だが未検討であることを示す。
このギャップに対処するため,本研究では,様々なMI攻撃属性を包含することにより,各トレーニング試料の再構成精度を評価する,トレーニングサンプル分析に適した新しい指標であるDDCS(Diversity and Distance Composite Score)を提案する。
これにより、サンプルレベルのプライバシー評価の精度が向上する。
DDCSを新たな評価レンズとして活用することにより、多くのトレーニングサンプルが、最も先進的なMI攻撃に対して回復力を維持していることを観察する。
さらに、エントロピー損失と自然勾配降下の統合により、MI攻撃者の生成能力を増強する移動学習フレームワークを提案する。
DDCS, カバレッジ, FID など, 様々な指標に対するMI攻撃の改善に向けたフレームワークの有効性を, 広範囲にわたる実験により検証した。
最後に, DDCSがMI防御に有用であることを示す。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - CALoR: Towards Comprehensive Model Inversion Defense [43.2642796582236]
Model Inversion Attacks (MIAs)は、プライバシに敏感なトレーニングデータを、リリースされた機械学習モデルにエンコードされた知識から回復することを目的としている。
MIA分野の最近の進歩は、複数のシナリオにおける攻撃性能を大幅に向上させた。
信頼性適応と低ランク圧縮を統合した堅牢な防御機構を提案する。
論文 参考訳(メタデータ) (2024-10-08T08:44:01Z) - Assessing Privacy Risks in Language Models: A Case Study on
Summarization Tasks [65.21536453075275]
我々は要約作業に焦点をあて、会員推測(MI)攻撃について調査する。
テキストの類似性や文書修正に対するモデルの抵抗をMI信号として活用する。
我々は、MI攻撃から保護するための要約モデルの訓練と、プライバシとユーティリティの本質的にのトレードオフについて議論する。
論文 参考訳(メタデータ) (2023-10-20T05:44:39Z) - Why Train More? Effective and Efficient Membership Inference via
Memorization [34.13594460560715]
メンバシップ推論攻撃は、マシンラーニングモデルのプライベートトレーニングデータセット内で、特定のデータサンプルを特定することを目的としている。
戦略的にサンプルを選択することで、MI敵はシャドウモデルの数を最小化しながら攻撃の成功を最大化することができる。
論文 参考訳(メタデータ) (2023-10-12T03:29:53Z) - Defending Pre-trained Language Models as Few-shot Learners against
Backdoor Attacks [72.03945355787776]
軽快でプラガブルで効果的な PLM 防御である MDP を,少人数の学習者として提唱する。
我々は,MDPが攻撃の有効性と回避性の両方を選択できる興味深いジレンマを発生させることを解析的に示す。
論文 参考訳(メタデータ) (2023-09-23T04:41:55Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Investigating Membership Inference Attacks under Data Dependencies [26.70764798408236]
プライバシーに敏感なデータに基づく機械学習モデルのトレーニングが、プライバシーに深刻な影響を及ぼす可能性のある新たな攻撃の扉を開いた。
そのような攻撃の1つは、メンバーシップ推論攻撃 (MIA) であり、特定のデータポイントがモデルをトレーニングするために使用されたかどうかを公開する。
我々は、訓練セットのすべてのメンバーと非メンバーが独立して同一に分散しているという制限的な仮定の下で、防衛を評価した。
論文 参考訳(メタデータ) (2020-10-23T00:16:46Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Membership Inference Attacks and Defenses in Classification Models [19.498313593713043]
分類器に対するMI攻撃について検討する。
我々は、MI攻撃に対するモデルの脆弱性が一般化ギャップと密接に関連していることを発見した。
トレーニング精度を意図的に低減し,ギャップを埋めることを目的としたMI攻撃に対する防御手法を提案する。
論文 参考訳(メタデータ) (2020-02-27T12:35:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。