論文の概要: Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and Defenses
- arxiv url: http://arxiv.org/abs/2402.04013v2
- Date: Wed, 11 Sep 2024 01:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-12 21:47:34.649048
- Title: Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and Defenses
- Title(参考訳): DNNにおけるプライバシ漏洩: モデル反転攻撃と防御に関する調査
- Authors: Hao Fang, Yixiang Qiu, Hongyao Yu, Wenbo Yu, Jiawei Kong, Baoli Chong, Bin Chen, Xuan Wang, Shu-Tao Xia, Ke Xu,
- Abstract要約: Model Inversion(MI)攻撃は、トレーニングされたモデルへのアクセスを悪用することで、トレーニングデータセットに関するプライベート情報を開示する。
この分野の急速な進歩にもかかわらず、我々は既存のMI攻撃と防衛の包括的かつ体系的な概要を欠いている。
我々は,近年のDeep Neural Networks(DNN)に対する攻撃と防御を,複数のモダリティと学習タスクで詳細に分析し,比較する。
- 参考スコア(独自算出の注目度): 40.77270226912783
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Deep Neural Networks (DNNs) have revolutionized various domains with their exceptional performance across numerous applications. However, Model Inversion (MI) attacks, which disclose private information about the training dataset by abusing access to the trained models, have emerged as a formidable privacy threat. Given a trained network, these attacks enable adversaries to reconstruct high-fidelity data that closely aligns with the private training samples, posing significant privacy concerns. Despite the rapid advances in the field, we lack a comprehensive and systematic overview of existing MI attacks and defenses. To fill this gap, this paper thoroughly investigates this realm and presents a holistic survey. Firstly, our work briefly reviews early MI studies on traditional machine learning scenarios. We then elaborately analyze and compare numerous recent attacks and defenses on Deep Neural Networks (DNNs) across multiple modalities and learning tasks. By meticulously analyzing their distinctive features, we summarize and classify these methods into different categories and provide a novel taxonomy. Finally, this paper discusses promising research directions and presents potential solutions to open issues. To facilitate further study on MI attacks and defenses, we have implemented an open-source model inversion toolbox on GitHub (https://github.com/ffhibnese/Model-Inversion-Attack-ToolBox).
- Abstract(参考訳): Deep Neural Networks(DNN)は、多数のアプリケーションにまたがる優れたパフォーマンスで、さまざまなドメインに革命をもたらした。
しかし、トレーニングデータセットに関するプライベート情報を公開し、トレーニングされたモデルへのアクセスを悪用するModel Inversion(MI)攻撃は、恐ろしいプライバシーの脅威として浮上している。
トレーニングされたネットワークを前提として、これらの攻撃により、敵はプライベートトレーニングサンプルと密接に一致した高忠実度データを再構築でき、プライバシー上の懸念を生じさせる。
この分野の急速な進歩にもかかわらず、我々は既存のMI攻撃と防衛の包括的かつ体系的な概要を欠いている。
このギャップを埋めるために,本稿では,この領域を徹底的に調査し,総合的な調査を行う。
まず,従来の機械学習シナリオに関する初期のMI研究を概観する。
次に,近年のDeep Neural Networks(DNN)に対する攻撃と防御を,複数のモダリティと学習タスクで詳細に分析し,比較する。
それらの特徴を巧みに分析することにより、これらの手法を異なるカテゴリーにまとめて分類し、新しい分類法を提供する。
最後に,提案する研究の方向性について論じ,オープンな問題に対する潜在的な解決策を提案する。
MI攻撃と防御に関するさらなる研究を容易にするため、GitHub(https://github.com/ffhibnese/Model-Inversion-Attack-ToolBox)にオープンソースモデルインバージョンツールボックスを実装しました。
関連論文リスト
- Model Inversion Robustness: Can Transfer Learning Help? [27.883074562565877]
Model Inversion (MI)攻撃は、機械学習モデルへのアクセスを悪用することで、プライベートトレーニングデータを再構築することを目的としている。
我々は,MI-robustモデルをレンダリングするために,Transfer Learning-based Defense against Model Inversion (TL-DMI)を提案する。
ベルとホイッスルを使わずにSOTA(State-of-the-art)MIロバスト性を実現する。
論文 参考訳(メタデータ) (2024-05-09T07:24:28Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Data and Model Poisoning Backdoor Attacks on Wireless Federated
Learning, and the Defense Mechanisms: A Comprehensive Survey [28.88186038735176]
無線通信ネットワーク(WCN)への応用については,フェデレートラーニング(FL)がますます検討されている。
一般に、WCNの非独立で同一に分布する(非IID)データは、堅牢性に関する懸念を提起する。
この調査は、最新のバックドア攻撃と防御メカニズムの包括的なレビューを提供する。
論文 参考訳(メタデータ) (2023-12-14T05:52:29Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Students Parrot Their Teachers: Membership Inference on Model
Distillation [54.392069096234074]
知識蒸留によるプライバシを,教師と学生のトレーニングセットの両方で研究する。
私たちの攻撃は、生徒セットと教師セットが類似している場合、または攻撃者が教師セットを毒できる場合、最強です。
論文 参考訳(メタデータ) (2023-03-06T19:16:23Z) - Lessons Learned: Defending Against Property Inference Attacks [0.0]
本研究は,資産推測攻撃(PIA)に対する複数の防衛戦略について検討し,評価する。
PIAは、基礎となるトレーニングデータの統計的特性、例えば、医療訓練データセットにおける男女比を明らかにすることを目的としている。
プロパティアンラーニングによる実験は、プロパティアンラーニングが一般化できないこと、すなわち、PIAのクラス全体に対する保護が示される。
論文 参考訳(メタデータ) (2022-05-18T09:38:37Z) - Knowledge Cross-Distillation for Membership Privacy [0.9087641068861045]
会員推測攻撃(MIA)は、機械学習モデルのトレーニングデータにプライバシー上のリスクをもたらす。
公的なデータを必要としない知識蒸留を用いたMIAに対する新たな防御法を提案する。
論文 参考訳(メタデータ) (2021-11-02T04:16:08Z) - Privacy and Robustness in Federated Learning: Attacks and Defenses [74.62641494122988]
このトピックに関する最初の包括的な調査を実施します。
FLの概念の簡潔な紹介と、1脅威モデル、2堅牢性に対する中毒攻撃と防御、3プライバシーに対する推論攻撃と防御、というユニークな分類学を通じて、私たちはこの重要なトピックのアクセス可能なレビューを提供します。
論文 参考訳(メタデータ) (2020-12-07T12:11:45Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。