論文の概要: Do Backdoors Assist Membership Inference Attacks?
- arxiv url: http://arxiv.org/abs/2303.12589v1
- Date: Wed, 22 Mar 2023 14:19:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-23 13:56:55.499313
- Title: Do Backdoors Assist Membership Inference Attacks?
- Title(参考訳): バックドアはメンバーシップ推論攻撃を支援するか?
- Authors: Yumeki Goto and Nami Ashizawa and Toshiki Shibahara and Naoto Yanai
- Abstract要約: 提案手法では, 相手の期待出力を返すバックドアをベースとした新たなメンバーシップ推論攻撃について検討する。
バックドアはトレーニングと非トレーニングサンプルの損失分布を分離できないことを示す。
- 参考スコア(独自算出の注目度): 0.7971699294672282
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: When an adversary provides poison samples to a machine learning model,
privacy leakage, such as membership inference attacks that infer whether a
sample was included in the training of the model, becomes effective by moving
the sample to an outlier. However, the attacks can be detected because
inference accuracy deteriorates due to poison samples. In this paper, we
discuss a \textit{backdoor-assisted membership inference attack}, a novel
membership inference attack based on backdoors that return the adversary's
expected output for a triggered sample. We found three crucial insights through
experiments with an academic benchmark dataset. We first demonstrate that the
backdoor-assisted membership inference attack is unsuccessful. Second, when we
analyzed loss distributions to understand the reason for the unsuccessful
results, we found that backdoors cannot separate loss distributions of training
and non-training samples. In other words, backdoors cannot affect the
distribution of clean samples. Third, we also show that poison and triggered
samples activate neurons of different distributions. Specifically, backdoors
make any clean sample an inlier, contrary to poisoning samples. As a result, we
confirm that backdoors cannot assist membership inference.
- Abstract(参考訳): 敵が機械学習モデルに毒物サンプルを提供すると、モデルのトレーニングにサンプルが含まれているかどうかを推測する会員推論攻撃などのプライバシー漏洩が、サンプルを外れ値に移動させることで有効になる。
しかし、毒物による推測精度が低下するため、攻撃を検知できる。
本稿では,敵の期待出力をトリガサンプルに返すバックドアに基づく,新たなメンバシップ推論攻撃である \textit{backdoor-assisted membership inference attack}について述べる。
学術ベンチマークデータセットを用いた実験により,3つの重要な洞察を得た。
まず,バックドア支援型メンバシップ推論攻撃が失敗していることを示す。
第2に,失敗の原因を理解するために損失分布を分析すると,バックドアはトレーニングサンプルと非トレーニングサンプルの損失分布を分離できないことがわかった。
言い換えれば、バックドアはクリーンサンプルの分布に影響を与えない。
第3に、毒とトリガーが異なる分布のニューロンを活性化することを示す。
特に、バックドアは、汚染サンプルとは対照的に、清潔なサンプルを不適格にする。
その結果,バックドアがメンバーシップ推論を補助できないことが確認できた。
関連論文リスト
- The Victim and The Beneficiary: Exploiting a Poisoned Model to Train a Clean Model on Poisoned Data [4.9676716806872125]
バックドア攻撃は、ディープニューラルネットワーク(DNN)のトレーニングプロセスに深刻なセキュリティ上の脅威をもたらしている
The Victim and The Beneficiary (V&B) は有毒なモデルを利用して、余分な良性サンプルを使わずにクリーンなモデルを訓練する。
本フレームワークは,良質な試料の性能を維持しつつ,バックドア注入の防止と各種攻撃に対する堅牢化に有効である。
論文 参考訳(メタデータ) (2024-04-17T11:15:58Z) - XGBD: Explanation-Guided Graph Backdoor Detection [21.918945251903523]
バックドア攻撃は、グラフ学習モデルに重大なセキュリティリスクをもたらす。
トポロジ情報を活用するために,説明誘導型バックドア検出手法を提案する。
論文 参考訳(メタデータ) (2023-08-08T17:10:23Z) - Rethinking Backdoor Attacks [122.1008188058615]
バックドア攻撃では、悪意ある構築されたバックドアの例をトレーニングセットに挿入し、結果のモデルを操作に脆弱にする。
このような攻撃に対する防御は、典型的には、これらの挿入された例をトレーニングセットの外れ値として見ることと、堅牢な統計からのテクニックを使用してそれらを検出し、削除することである。
トレーニングデータ分布に関する構造情報がなければ,バックドア攻撃は自然に発生するデータの特徴と区別できないことを示す。
論文 参考訳(メタデータ) (2023-07-19T17:44:54Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Adversarial Fine-tuning for Backdoor Defense: Connect Adversarial
Examples to Triggered Samples [15.57457705138278]
本稿では,バックドアトリガを除去する新たなAFT手法を提案する。
AFTは、クリーンサンプルの性能劣化を明白にすることなく、バックドアトリガを効果的に消去することができる。
論文 参考訳(メタデータ) (2022-02-13T13:41:15Z) - Excess Capacity and Backdoor Poisoning [11.383869751239166]
バックドアデータ中毒攻撃は、攻撃者がいくつかの透かし、ラベルのついたトレーニング例をトレーニングセットに注入する敵攻撃である。
本稿では,分類問題に対するバックドアデータ中毒攻撃を議論できる形式的理論的枠組みを提案する。
論文 参考訳(メタデータ) (2021-09-02T03:04:38Z) - Backdoor Learning Curves: Explaining Backdoor Poisoning Beyond Influence
Functions [26.143147923356626]
インクリメンタルラーニングとインフルエンス関数のレンズによるバックドアラーニングのプロセスについて検討した。
バックドア攻撃の成功は、(i)学習アルゴリズムの複雑さと(ii)トレーニングセットに注入されたバックドアサンプルの割合に本質的に依存していることが示される。
論文 参考訳(メタデータ) (2021-06-14T08:00:48Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。