論文の概要: Dyn-Backdoor: Backdoor Attack on Dynamic Link Prediction
- arxiv url: http://arxiv.org/abs/2110.03875v1
- Date: Fri, 8 Oct 2021 03:08:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-12 02:38:27.494275
- Title: Dyn-Backdoor: Backdoor Attack on Dynamic Link Prediction
- Title(参考訳): dyn-backdoor:動的リンク予測に対するバックドア攻撃
- Authors: Jinyin Chen, Haiyang Xiong, Haibin Zheng, Jian Zhang, Guodong Jiang
and Yi Liu
- Abstract要約: 動的リンク予測(DLP)のための新しいバックドアアタックフレームワークを提案する。
Dyn-BackdoorはGAN(Generative Adversarial Network)により多様な初期トリガーを生成する
実験の結果、Dyn-Backdoorは90%以上の成功率でバックドア攻撃に成功した。
- 参考スコア(独自算出の注目度): 6.712618329144372
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Dynamic link prediction (DLP) makes graph prediction based on historical
information. Since most DLP methods are highly dependent on the training data
to achieve satisfying prediction performance, the quality of the training data
is crucial. Backdoor attacks induce the DLP methods to make wrong prediction by
the malicious training data, i.e., generating a subgraph sequence as the
trigger and embedding it to the training data. However, the vulnerability of
DLP toward backdoor attacks has not been studied yet. To address the issue, we
propose a novel backdoor attack framework on DLP, denoted as Dyn-Backdoor.
Specifically, Dyn-Backdoor generates diverse initial-triggers by a generative
adversarial network (GAN). Then partial links of the initial-triggers are
selected to form a trigger set, according to the gradient information of the
attack discriminator in the GAN, so as to reduce the size of triggers and
improve the concealment of the attack. Experimental results show that
Dyn-Backdoor launches successful backdoor attacks on the state-of-the-art DLP
models with success rate more than 90%. Additionally, we conduct a possible
defense against Dyn-Backdoor to testify its resistance in defensive settings,
highlighting the needs of defenses for backdoor attacks on DLP.
- Abstract(参考訳): 動的リンク予測(DLP)は、履歴情報に基づいてグラフ予測を行う。
多くのDLP法はトレーニングデータに強く依存し,満足度の高い予測性能を実現するため,トレーニングデータの品質が重要である。
バックドア攻撃は、悪質なトレーニングデータ、すなわちトリガーとしてサブグラフシーケンスを生成し、トレーニングデータに埋め込むことで誤った予測を行うdlpメソッドを誘導する。
しかし、バックドア攻撃に対するDLPの脆弱性はまだ研究されていない。
そこで本研究では,Dyn-Backdoorと呼ばれるDLPのバックドア攻撃フレームワークを提案する。
具体的には、dyn-backdoorはgenerative adversarial network (gan)によって様々な初期トリガーを生成する。
そして、初期トリガーの部分リンクを選択して、GANの攻撃判別器の勾配情報に従ってトリガーセットを形成し、トリガーのサイズを小さくし、攻撃の隠蔽を改善する。
実験の結果、Dyn-Backdoorは、90%以上の成功率を持つ最先端のDLPモデルに対するバックドア攻撃に成功した。
さらに,Dyn-Backdoorに対する防御策として,Dyn-Backdoorに対する防御効果を実証し,DLPに対するバックドア攻撃に対する防御の必要性を強調した。
関連論文リスト
- Unlearn to Relearn Backdoors: Deferred Backdoor Functionality Attacks on Deep Learning Models [6.937795040660591]
バックドア攻撃の新たなパラダイムとして,Deferred Activated Backdoor Functionality (DABF)を紹介した。
従来の攻撃とは異なり、DABFは当初バックドアを隠蔽し、起動しても良質な出力を生成する。
DABF攻撃は、マシンラーニングモデルのライフサイクルで一般的なプラクティスを利用して、モデル更新と初期デプロイ後の微調整を実行する。
論文 参考訳(メタデータ) (2024-11-10T07:01:53Z) - Long-Tailed Backdoor Attack Using Dynamic Data Augmentation Operations [50.1394620328318]
既存のバックドア攻撃は主にバランスの取れたデータセットに焦点を当てている。
動的データ拡張操作(D$2$AO)という効果的なバックドア攻撃を提案する。
本手法は,クリーンな精度を維持しつつ,最先端の攻撃性能を実現することができる。
論文 参考訳(メタデータ) (2024-10-16T18:44:22Z) - Mitigating Backdoor Attack by Injecting Proactive Defensive Backdoor [63.84477483795964]
データ中毒のバックドア攻撃は、機械学習モデルにとって深刻なセキュリティ上の脅威である。
本稿では,トレーニング中のバックドアディフェンスに着目し,データセットが有害になりうる場合でもクリーンなモデルをトレーニングすることを目的とした。
PDB(Proactive Defensive Backdoor)と呼ばれる新しい防衛手法を提案する。
論文 参考訳(メタデータ) (2024-05-25T07:52:26Z) - From Shortcuts to Triggers: Backdoor Defense with Denoised PoE [51.287157951953226]
言語モデルは、しばしば多様なバックドア攻撃、特にデータ中毒の危険にさらされる。
既存のバックドア防御手法は主に明示的なトリガーによるバックドア攻撃に焦点を当てている。
我々は,様々なバックドア攻撃を防御するために,エンド・ツー・エンドアンサンブルに基づくバックドア防御フレームワークDPoEを提案する。
論文 参考訳(メタデータ) (2023-05-24T08:59:25Z) - Confidence Matters: Inspecting Backdoors in Deep Neural Networks via
Distribution Transfer [27.631616436623588]
本稿では,新しい観測結果を基にしたバックドアディフェンスDTInspectorを提案する。
DTInspectorは、ほとんどの高信頼データの予測を変える可能性のあるパッチを学び、それからバックドアの存在を決定する。
論文 参考訳(メタデータ) (2022-08-13T08:16:28Z) - Turn the Combination Lock: Learnable Textual Backdoor Attacks via Word
Substitution [57.51117978504175]
最近の研究では、ニューラルネットワーク処理(NLP)モデルがバックドア攻撃に弱いことが示されている。
バックドアを注入すると、モデルは通常、良質な例で実行されるが、バックドアがアクティブになったときに攻撃者が特定した予測を生成する。
単語置換の学習可能な組み合わせによって活性化される見えないバックドアを提示する。
論文 参考訳(メタデータ) (2021-06-11T13:03:17Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - BadNL: Backdoor Attacks against NLP Models with Semantic-preserving
Improvements [33.309299864983295]
我々は,新たな攻撃方法を含む一般的なNLPバックドア攻撃フレームワークであるBadNLを提案する。
我々の攻撃は、原モデルの実用性に無視できる効果で、ほぼ完璧な攻撃成功率を達成する。
論文 参考訳(メタデータ) (2020-06-01T16:17:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。