論文の概要: On the Vulnerability of Skip Connections to Model Inversion Attacks
- arxiv url: http://arxiv.org/abs/2409.01696v1
- Date: Tue, 3 Sep 2024 08:33:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-06 02:16:32.397432
- Title: On the Vulnerability of Skip Connections to Model Inversion Attacks
- Title(参考訳): モデル反転攻撃に対するスキップ接続の脆弱性について
- Authors: Jun Hao Koh, Sy-Tuyen Ho, Ngoc-Bao Nguyen, Ngai-man Cheung,
- Abstract要約: 本研究では,スキップ接続がモデル反転(MI)攻撃に与える影響について検討する。
Skip接続はMI攻撃を強化し、データのプライバシーを侵害する。
我々はMIレジリエントアーキテクチャの設計を初めて提案する。
- 参考スコア(独自算出の注目度): 22.1843868052012
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skip connections are fundamental architecture designs for modern deep neural networks (DNNs) such as CNNs and ViTs. While they help improve model performance significantly, we identify a vulnerability associated with skip connections to Model Inversion (MI) attacks, a type of privacy attack that aims to reconstruct private training data through abusive exploitation of a model. In this paper, as a pioneer work to understand how DNN architectures affect MI, we study the impact of skip connections on MI. We make the following discoveries: 1) Skip connections reinforce MI attacks and compromise data privacy. 2) Skip connections in the last stage are the most critical to attack. 3) RepVGG, an approach to remove skip connections in the inference-time architectures, could not mitigate the vulnerability to MI attacks. 4) Based on our findings, we propose MI-resilient architecture designs for the first time. Without bells and whistles, we show in extensive experiments that our MI-resilient architectures can outperform state-of-the-art (SOTA) defense methods in MI robustness. Furthermore, our MI-resilient architectures are complementary to existing MI defense methods. Our project is available at https://Pillowkoh.github.io/projects/RoLSS/
- Abstract(参考訳): スキップ接続は、CNNやViTといった現代のディープニューラルネットワーク(DNN)の基本的なアーキテクチャ設計である。
モデル性能は大幅に向上するが、モデルの悪用を通じてプライベートトレーニングデータを再構築することを目的としたプライバシー攻撃である、モデルインバージョン(MI)攻撃への接続をスキップすることに関連する脆弱性を特定する。
本稿では,DNNアーキテクチャがMIに与える影響を理解するための先駆的な研究として,MI上でのスキップ接続の影響について検討する。
以下に発見する。
1)スキップ接続はMI攻撃を強化し、データのプライバシーを侵害する。
2)最終段階のスキップ接続は攻撃に最も重要である。
3) RepVGGは、推論時アーキテクチャにおけるスキップ接続を除去するアプローチであり、脆弱性をMI攻撃に軽減することはできなかった。
4) この結果に基づき, 初めてMIレジリエントアーキテクチャの設計を提案する。
ベルとホイッスルがなければ、我々のMIレジリエントアーキテクチャはMIロバストネスにおけるSOTA(State-of-the-art)ディフェンス法より優れることを示す。
さらに,我々のMIレジリエントアーキテクチャは,既存のMI防御手法を補完するものである。
私たちのプロジェクトはhttps://Pillowkoh.github.io/projects/RoLSS/で利用可能です。
関連論文リスト
- Model Inversion Robustness: Can Transfer Learning Help? [27.883074562565877]
Model Inversion (MI)攻撃は、機械学習モデルへのアクセスを悪用することで、プライベートトレーニングデータを再構築することを目的としている。
我々は,MI-robustモデルをレンダリングするために,Transfer Learning-based Defense against Model Inversion (TL-DMI)を提案する。
ベルとホイッスルを使わずにSOTA(State-of-the-art)MIロバスト性を実現する。
論文 参考訳(メタデータ) (2024-05-09T07:24:28Z) - Evaluating Membership Inference Attacks and Defenses in Federated
Learning [23.080346952364884]
会員推論攻撃(MIA)は、連合学習におけるプライバシー保護への脅威を増大させる。
本稿では,既存のMIAと対応する防衛戦略の評価を行う。
論文 参考訳(メタデータ) (2024-02-09T09:58:35Z) - Privacy Leakage on DNNs: A Survey of Model Inversion Attacks and
Defenses [40.46943267456278]
Model Inversion (MI)攻撃は、事前訓練されたモデルへのアクセスを悪用することで、トレーニングデータに関するプライベート情報を開示することを目的としている。
この分野の急速な進歩にもかかわらず、既存のMI攻撃と防衛の包括的概要は欠如している。
論文 参考訳(メタデータ) (2024-02-06T14:06:23Z) - Robust Mixture-of-Expert Training for Convolutional Neural Networks [141.3531209949845]
スパースゲート型Mixture of Expert (MoE) は高精度で超効率的なモデル推論を実現するための大きな可能性を実証している。
本稿では、AdvMoEと呼ばれるMoEのための新しいルータ-エキスパート交互学習フレームワークを提案する。
その結果,AdvMoEは従来の高密度CNNに比べて1%の対向ロバスト性向上を実現し,親和性に富むMoEの有効性を享受できることがわかった。
論文 参考訳(メタデータ) (2023-08-19T20:58:21Z) - Re-thinking Model Inversion Attacks Against Deep Neural Networks [34.87141698143304]
モデルインバージョン(MI)攻撃は、モデルへのアクセスを悪用することで、プライベートトレーニングデータを推論し、再構築することを目的としている。
MIの最近のアルゴリズムは攻撃性能を改善するために提案されている。
我々は、すべての最先端(SOTA)MIアルゴリズムに関する2つの基本的な問題について研究する。
論文 参考訳(メタデータ) (2023-04-04T09:58:07Z) - Backdoor Defense via Adaptively Splitting Poisoned Dataset [57.70673801469096]
バックドアの防御は、ディープニューラルネットワーク(DNN)がバックドアを攻撃され、悪意ある変更を受けていることの脅威を軽減するために研究されている。
トレーニング時間防衛の核心は, 有毒な試料を選別し, 適切な処理を行うことである。
本フレームワークでは,適応的分割型データセットベースディフェンス(ASD)を提案する。
論文 参考訳(メタデータ) (2023-03-23T02:16:38Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - Knowledge-Enriched Distributional Model Inversion Attacks [49.43828150561947]
モデルインバージョン(MI)攻撃は、モデルパラメータからトレーニングデータを再構成することを目的としている。
本稿では,パブリックデータからプライベートモデルに対する攻撃を行うのに役立つ知識を抽出する,新しい反転型GANを提案する。
実験の結果,これらの手法を組み合わせることで,最先端MI攻撃の成功率を150%向上させることができることがわかった。
論文 参考訳(メタデータ) (2020-10-08T16:20:48Z) - How Does Data Augmentation Affect Privacy in Machine Learning? [94.52721115660626]
拡張データの情報を活用するために,新たなMI攻撃を提案する。
モデルが拡張データで訓練された場合、最適な会員推定値を確立する。
論文 参考訳(メタデータ) (2020-07-21T02:21:10Z) - Skip Connections Matter: On the Transferability of Adversarial Examples
Generated with ResNets [83.12737997548645]
スキップ接続は、現在最先端のディープニューラルネットワーク(DNN)の重要な構成要素である
スキップ接続を使用することで、高度に転送可能な逆例を簡単に生成できる。
我々は、ResNets、DenseNets、Inceptions、Inception-ResNet、Squeeze-and-Excitation Network (SENet)を含む最先端DNNに対する包括的な転送攻撃を行う。
論文 参考訳(メタデータ) (2020-02-14T12:09:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。