論文の概要: Neighboring Backdoor Attacks on Graph Convolutional Network
- arxiv url: http://arxiv.org/abs/2201.06202v1
- Date: Mon, 17 Jan 2022 03:49:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-21 08:13:50.710175
- Title: Neighboring Backdoor Attacks on Graph Convolutional Network
- Title(参考訳): グラフ畳み込みネットワークにおける隣接バックドア攻撃
- Authors: Liang Chen, Qibiao Peng, Jintang Li, Yang Liu, Jiawei Chen, Yong Li,
Zibin Zheng
- Abstract要約: 本稿では,隣接するバックドアと呼ばれる,グラフデータに特有の新しいバックドアを提案する。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
- 参考スコア(独自算出の注目度): 30.586278223198086
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Backdoor attacks have been widely studied to hide the misclassification rules
in the normal models, which are only activated when the model is aware of the
specific inputs (i.e., the trigger). However, despite their success in the
conventional Euclidean space, there are few studies of backdoor attacks on
graph structured data. In this paper, we propose a new type of backdoor which
is specific to graph data, called neighboring backdoor. Considering the
discreteness of graph data, how to effectively design the triggers while
retaining the model accuracy on the original task is the major challenge. To
address such a challenge, we set the trigger as a single node, and the backdoor
is activated when the trigger node is connected to the target node. To preserve
the model accuracy, the model parameters are not allowed to be modified. Thus,
when the trigger node is not connected, the model performs normally. Under
these settings, in this work, we focus on generating the features of the
trigger node. Two types of backdoors are proposed: (1) Linear Graph Convolution
Backdoor which finds an approximation solution for the feature generation (can
be viewed as an integer programming problem) by looking at the linear part of
GCNs. (2) Variants of existing graph attacks. We extend current gradient-based
attack methods to our backdoor attack scenario. Extensive experiments on two
social networks and two citation networks datasets demonstrate that all
proposed backdoors can achieve an almost 100\% attack success rate while having
no impact on predictive accuracy.
- Abstract(参考訳): バックドア攻撃は、モデルが特定の入力(トリガー)を認識した時にのみ起動される通常のモデルにおける誤分類規則を隠すために広く研究されている。
しかし、従来のユークリッド空間での成功にもかかわらず、グラフ構造データに対するバックドア攻撃の研究はほとんどない。
本稿では,隣接するバックドアと呼ばれるグラフデータに特有の新しいタイプのバックドアを提案する。
グラフデータの離散性を考えると、元のタスクでモデルの精度を維持しながらトリガを効果的に設計する方法が大きな課題である。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
モデルの精度を維持するために、モデルのパラメータを変更することは許されない。
したがって、トリガーノードが接続されていない場合、モデルは正常に実行される。
これらの設定の下で、この作業では、トリガーノードの機能の生成に重点を置いています。
1) 特徴生成の近似解を求める線形グラフ畳み込みバックドア(整数計画問題と見なすことができる)は、gcnsの線形部分を調べることで得られる。
(2)既存のグラフ攻撃の変種。
我々は現在の勾配に基づく攻撃方法をバックドア攻撃シナリオに拡張する。
2つのソーシャルネットワークと2つの引用ネットワークデータセットに関する大規模な実験により、提案されたバックドアはすべて、予測精度に影響を与えることなく、およそ100倍の攻撃成功率を達成可能であることが示された。
関連論文リスト
- Robustness-Inspired Defense Against Backdoor Attacks on Graph Neural Networks [30.82433380830665]
グラフニューラルネットワーク(GNN)は,ノード分類やグラフ分類といったタスクにおいて,有望な結果を達成している。
最近の研究で、GNNはバックドア攻撃に弱いことが判明し、実際の採用に重大な脅威をもたらしている。
本研究では,裏口検出にランダムなエッジドロップを用いることにより,汚染ノードとクリーンノードを効率的に識別できることを理論的に示す。
論文 参考訳(メタデータ) (2024-06-14T08:46:26Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - A backdoor attack against link prediction tasks with graph neural
networks [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
論文 参考訳(メタデータ) (2024-01-05T06:45:48Z) - Backdoor Attack with Sparse and Invisible Trigger [57.41876708712008]
ディープニューラルネットワーク(DNN)は、バックドア攻撃に対して脆弱である。
バックドアアタックは、訓練段階の脅威を脅かしている。
軽度で目に見えないバックドアアタック(SIBA)を提案する。
論文 参考訳(メタデータ) (2023-05-11T10:05:57Z) - Backdoor Learning on Sequence to Sequence Models [94.23904400441957]
本稿では,シークエンス・ツー・シークエンス(seq2seq)モデルがバックドア攻撃に対して脆弱かどうかを検討する。
具体的には、データセットの0.2%のサンプルを注入するだけで、Seq2seqモデルに指定されたキーワードと文全体を生成することができる。
機械翻訳とテキスト要約に関する大規模な実験を行い、提案手法が複数のデータセットやモデルに対して90%以上の攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2023-05-03T20:31:13Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Imperceptible Backdoor Attack: From Input Space to Feature
Representation [24.82632240825927]
バックドア攻撃はディープニューラルネットワーク(DNN)への脅威が急速に高まっている
本稿では,既存の攻撃手法の欠点を分析し,新たな非受容的バックドア攻撃を提案する。
我々のトリガーは、良性画像の1%以下のピクセルしか変更せず、大きさは1。
論文 参考訳(メタデータ) (2022-05-06T13:02:26Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Backdoor Attacks to Graph Neural Networks [73.56867080030091]
グラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃を提案する。
我々のバックドア攻撃では、GNNは、事前に定義されたサブグラフがテストグラフに注入されると、テストグラフに対するアタッカー・チョーセンターゲットラベルを予測する。
実験の結果,我々のバックドア攻撃はクリーンなテストグラフに対するGNNの予測精度に小さな影響を与えていることがわかった。
論文 参考訳(メタデータ) (2020-06-19T14:51:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。