論文の概要: Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and
Defenses
- arxiv url: http://arxiv.org/abs/2402.04013v1
- Date: Tue, 6 Feb 2024 14:06:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 14:43:54.939299
- Title: Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and
Defenses
- Title(参考訳): DNNにおけるプライバシ漏洩: モデル反転攻撃と防御に関する調査
- Authors: Hao Fang and Yixiang Qiu and Hongyao Yu and Wenbo Yu and Jiawei Kong
and Baoli Chong and Bin Chen and Xuan Wang and Shu-Tao Xia
- Abstract要約: Model Inversion (MI)攻撃は、事前訓練されたモデルへのアクセスを悪用することで、トレーニングデータに関するプライベート情報を開示することを目的としている。
この分野の急速な進歩にもかかわらず、既存のMI攻撃と防衛の包括的概要は欠如している。
- 参考スコア(独自算出の注目度): 40.46943267456278
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Model Inversion (MI) attacks aim to disclose private information about the
training data by abusing access to the pre-trained models. These attacks enable
adversaries to reconstruct high-fidelity data that closely aligns with the
private training data, which has raised significant privacy concerns. Despite
the rapid advances in the field, we lack a comprehensive overview of existing
MI attacks and defenses. To fill this gap, this paper thoroughly investigates
this field and presents a holistic survey. Firstly, our work briefly reviews
the traditional MI on machine learning scenarios. We then elaborately analyze
and compare numerous recent attacks and defenses on \textbf{D}eep
\textbf{N}eural \textbf{N}etworks (DNNs) across multiple modalities and
learning tasks.
- Abstract(参考訳): Model Inversion (MI)攻撃は、事前訓練されたモデルへのアクセスを悪用することで、トレーニングデータに関するプライベート情報を開示することを目的としている。
これらの攻撃により、敵はプライベートトレーニングデータと密接に一致した高忠実度データを再構築することができる。
この分野の急速な進歩にもかかわらず、既存のMI攻撃と防衛の包括的概要は欠如している。
このギャップを埋めるため,本稿ではこの分野を徹底的に調査し,総合的な調査を行う。
まず、機械学習のシナリオにおける従来のMIについて簡単にレビューします。
次に,複数のモダリティと学習タスクにまたがる \textbf{d}eep \textbf{n}eural \textbf{n}etworks (dnns) の最近の攻撃と防御を詳細に分析,比較した。
関連論文リスト
- Model Inversion Attacks: A Survey of Approaches and Countermeasures [59.986922963781]
近年、新しいタイプのプライバシ攻撃であるモデル反転攻撃(MIA)は、トレーニングのためのプライベートデータの機密性を抽出することを目的としている。
この重要性にもかかわらず、総合的な概要とMIAに関する深い洞察を提供する体系的な研究が欠如している。
本調査は、攻撃と防御の両方において、最新のMIA手法を要約することを目的としている。
論文 参考訳(メタデータ) (2024-11-15T08:09:28Z) - A Survey on Machine Unlearning: Techniques and New Emerged Privacy Risks [42.3024294376025]
機械学習は、プライバシー保護分野における研究ホットスポットである。
最近の研究者は、さまざまな機械学習アプローチの潜在的なプライバシー漏洩を発見した。
我々は、定義、実装方法、現実世界のアプリケーションなど、さまざまな面でプライバシーリスクを分析します。
論文 参考訳(メタデータ) (2024-06-10T11:31:04Z) - Privacy Backdoors: Enhancing Membership Inference through Poisoning Pre-trained Models [112.48136829374741]
本稿では、プライバシーバックドア攻撃という新たな脆弱性を明らかにします。
被害者がバックドアモデルに微調整を行った場合、トレーニングデータは通常のモデルに微調整された場合よりも大幅に高い速度でリークされる。
我々の発見は、機械学習コミュニティにおける重要なプライバシー上の懸念を浮き彫りにし、オープンソースの事前訓練モデルの使用における安全性プロトコルの再評価を求めている。
論文 参考訳(メタデータ) (2024-04-01T16:50:54Z) - Topological safeguard for evasion attack interpreting the neural
networks' behavior [0.0]
本研究は, 新規な回避攻撃検知装置の開発である。
入力サンプルが注入されたとき、モデルによって与えられるニューロンの活性化に関する情報に焦点を当てる。
この目的のためには、これらの情報をすべて検出器に導入するために、巨大なデータ前処理が必要である。
論文 参考訳(メタデータ) (2024-02-12T08:39:40Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - Improving Robustness to Model Inversion Attacks via Mutual Information
Regularization [12.079281416410227]
本稿では,モデル逆転攻撃に対する防御機構について検討する。
MIは、ターゲット機械学習モデルへのアクセスからトレーニングデータ配布に関する情報を推測することを目的とした、プライバシ攻撃の一種である。
我々はMI攻撃に対するMID(Multual Information Regularization based Defense)を提案する。
論文 参考訳(メタデータ) (2020-09-11T06:02:44Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Privacy in Deep Learning: A Survey [16.278779275923448]
多くの分野でのディープラーニングの継続的な進歩は、プロダクションシステムにDeep Neural Networks(DNN)の採用につながっている。
大規模なデータセットと高い計算能力がこれらの進歩の主な貢献者である。
このデータはさまざまな脆弱性によって誤用または漏洩される可能性があるため、プライバシー上の深刻な懸念が生じる。
論文 参考訳(メタデータ) (2020-04-25T23:47:25Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。