論文の概要: Link-Backdoor: Backdoor Attack on Link Prediction via Node Injection
- arxiv url: http://arxiv.org/abs/2208.06776v1
- Date: Sun, 14 Aug 2022 04:30:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-16 14:27:06.795632
- Title: Link-Backdoor: Backdoor Attack on Link Prediction via Node Injection
- Title(参考訳): Link-Backdoor: Node注入によるリンク予測のバックドア攻撃
- Authors: Haibin Zheng, Haiyang Xiong, Haonan Ma, Guohan Huang, Jinyin Chen
- Abstract要約: グラフの未発見または潜在的リンクを推測するリンク予測は、現実世界で広く適用されている。
本稿では,既存のリンク予測手法のトレーニング脆弱性を明らかにするために,Link-Backdoorを提案する。
- 参考スコア(独自算出の注目度): 1.9109292348200242
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Link prediction, inferring the undiscovered or potential links of the graph,
is widely applied in the real-world. By facilitating labeled links of the graph
as the training data, numerous deep learning based link prediction methods have
been studied, which have dominant prediction accuracy compared with non-deep
methods. However,the threats of maliciously crafted training graph will leave a
specific backdoor in the deep model, thus when some specific examples are fed
into the model, it will make wrong prediction, defined as backdoor attack. It
is an important aspect that has been overlooked in the current literature. In
this paper, we prompt the concept of backdoor attack on link prediction, and
propose Link-Backdoor to reveal the training vulnerability of the existing link
prediction methods. Specifically, the Link-Backdoor combines the fake nodes
with the nodes of the target link to form a trigger. Moreover, it optimizes the
trigger by the gradient information from the target model. Consequently, the
link prediction model trained on the backdoored dataset will predict the link
with trigger to the target state. Extensive experiments on five benchmark
datasets and five well-performing link prediction models demonstrate that the
Link-Backdoor achieves the state-of-the-art attack success rate under both
white-box (i.e., available of the target model parameter)and black-box (i.e.,
unavailable of the target model parameter) scenarios. Additionally, we testify
the attack under defensive circumstance, and the results indicate that the
Link-Backdoor still can construct successful attack on the well-performing link
prediction methods. The code and data are available at
https://github.com/Seaocn/Link-Backdoor.
- Abstract(参考訳): グラフの未発見あるいは潜在的なリンクを推測するリンク予測は、実世界で広く適用されている。
学習データとしてグラフのラベル付きリンクを容易にすることにより,非深層手法に比べて予測精度が優勢な,ディープラーニングに基づくリンク予測手法が数多く研究されている。
しかし、悪意のあるトレーニンググラフの脅威は、特定のバックドアをディープモデルに残すため、特定のサンプルがモデルに入力されると、バックドア攻撃として定義された誤った予測を行う。
現在の文献では見過ごされている重要な側面である。
本稿では,リンク予測におけるバックドア攻撃の概念を推し進め,既存のリンク予測手法のトレーニング脆弱性を明らかにするためにLink-Backdoorを提案する。
具体的には、リンクバックドアは偽のノードとターゲットリンクのノードを結合してトリガーを形成する。
さらに、ターゲットモデルからの勾配情報によってトリガーを最適化する。
その結果、バックドアデータセットでトレーニングされたリンク予測モデルは、ターゲット状態へのトリガーによるリンクを予測する。
5つのベンチマークデータセットと5つの優れたリンク予測モデルに関する広範な実験により、リンクバックドアがホワイトボックス(すなわち、ターゲットモデルパラメータが利用できる)とブラックボックス(すなわち、ターゲットモデルパラメータが使用できない)の両方のシナリオで最先端の攻撃成功率を達成したことが示されている。
さらに, 防御的状況下での攻撃を検証した結果, リンクバックドアは良好な性能のリンク予測手法で攻撃を成功させることができた。
コードとデータはhttps://github.com/seaocn/link-backdoorで入手できる。
関連論文リスト
- A backdoor attack against link prediction tasks with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-05T06:45:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Defense via Deconfounded Representation Learning [17.28760299048368]
我々は、信頼性の高い分類のための非定型表現を学ぶために、因果性に着想を得たバックドアディフェンス(CBD)を提案する。
CBDは、良性サンプルの予測において高い精度を維持しながら、バックドアの脅威を減らすのに有効である。
論文 参考訳(メタデータ) (2023-03-13T02:25:59Z) - Untargeted Backdoor Attack against Object Detection [69.63097724439886]
我々は,タスク特性に基づいて,無目標で毒のみのバックドア攻撃を設計する。
攻撃によって、バックドアがターゲットモデルに埋め込まれると、トリガーパターンでスタンプされたオブジェクトの検出を失う可能性があることを示す。
論文 参考訳(メタデータ) (2022-11-02T17:05:45Z) - On the Effectiveness of Adversarial Training against Backdoor Attacks [111.8963365326168]
バックドアモデルは、事前に定義されたトリガーパターンが存在する場合、常にターゲットクラスを予測する。
一般的には、敵の訓練はバックドア攻撃に対する防御であると信じられている。
本稿では,様々なバックドア攻撃に対して良好な堅牢性を提供するハイブリッド戦略を提案する。
論文 参考訳(メタデータ) (2022-02-22T02:24:46Z) - Neighboring Backdoor Attacks on Graph Convolutional Network [30.586278223198086]
本稿では,隣接するバックドアと呼ばれる,グラフデータに特有の新しいバックドアを提案する。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
論文 参考訳(メタデータ) (2022-01-17T03:49:32Z) - Dyn-Backdoor: Backdoor Attack on Dynamic Link Prediction [6.712618329144372]
動的リンク予測(DLP)のための新しいバックドアアタックフレームワークを提案する。
Dyn-BackdoorはGAN(Generative Adversarial Network)により多様な初期トリガーを生成する
実験の結果、Dyn-Backdoorは90%以上の成功率でバックドア攻撃に成功した。
論文 参考訳(メタデータ) (2021-10-08T03:08:35Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Learning: A Survey [75.59571756777342]
バックドア攻撃はディープニューラルネットワーク(DNN)に隠れたバックドアを埋め込む
バックドア学習は、急速に成長する研究分野である。
本稿では,この領域を包括的に調査する。
論文 参考訳(メタデータ) (2020-07-17T04:09:20Z) - Clean-Label Backdoor Attacks on Video Recognition Models [87.46539956587908]
画像バックドア攻撃は、ビデオでははるかに効果が低いことを示す。
本稿では,映像認識モデルに対するバックドアトリガとして,ユニバーサル・ディバイサル・トリガーを提案する。
提案したバックドア攻撃は,最先端のバックドア防御・検出手法に耐性がある。
論文 参考訳(メタデータ) (2020-03-06T04:51:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。