論文の概要: A backdoor attack against link prediction tasks with graph neural
networks
- arxiv url: http://arxiv.org/abs/2401.02663v1
- Date: Fri, 5 Jan 2024 06:45:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-08 15:57:56.564641
- Title: A backdoor attack against link prediction tasks with graph neural
networks
- Title(参考訳): グラフニューラルネットワークを用いたリンク予測タスクに対するバックドア攻撃
- Authors: Jiazhu Dai, Haoyu Sun
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスである。
近年の研究では、GNNモデルがバックドア攻撃に弱いことが報告されている。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are a class of deep learning models capable of
processing graph-structured data, and they have demonstrated significant
performance in a variety of real-world applications. Recent studies have found
that GNN models are vulnerable to backdoor attacks. When specific patterns
(called backdoor triggers, e.g., subgraphs, nodes, etc.) appear in the input
data, the backdoor embedded in the GNN models is activated, which misclassifies
the input data into the target class label specified by the attacker, whereas
when there are no backdoor triggers in the input, the backdoor embedded in the
GNN models is not activated, and the models work normally. Backdoor attacks are
highly stealthy and expose GNN models to serious security risks. Currently,
research on backdoor attacks against GNNs mainly focus on tasks such as graph
classification and node classification, and backdoor attacks against link
prediction tasks are rarely studied. In this paper, we propose a backdoor
attack against the link prediction tasks based on GNNs and reveal the existence
of such security vulnerability in GNN models, which make the backdoored GNN
models to incorrectly predict unlinked two nodes as having a link relationship
when a trigger appear. The method uses a single node as the trigger and poison
selected node pairs in the training graph, and then the backdoor will be
embedded in the GNN models through the training process. In the inference
stage, the backdoor in the GNN models can be activated by simply linking the
trigger node to the two end nodes of the unlinked node pairs in the input data,
causing the GNN models to produce incorrect link prediction results for the
target node pairs.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理可能なディープラーニングモデルのクラスであり、様々な現実世界のアプリケーションで顕著なパフォーマンスを示している。
近年の研究では、GNNモデルはバックドア攻撃に弱いことが判明している。
入力データに特定のパターン(バックドアトリガ(サブグラフ、ノードなど)が現れると、GNNモデルに埋め込まれたバックドアがアクティベートされ、攻撃者が指定したターゲットクラスラベルに入力データを誤分類するが、入力にバックドアトリガがない場合には、GNNモデルに埋め込まれたバックドアがアクティベートされず、モデルが正常に動作する。
バックドア攻撃は非常にステルス性が高く、GNNモデルを深刻なセキュリティリスクに晒している。
現在、GNNに対するバックドア攻撃の研究は主にグラフ分類やノード分類などのタスクに焦点を当てており、リンク予測タスクに対するバックドア攻撃はほとんど研究されていない。
本稿では,GNNに基づくリンク予測タスクに対するバックドア攻撃を提案し,GNNモデルにそのような脆弱性があることを明らかにする。
この方法は、トレーニンググラフのトリガーとして1つのノードを使用し、選択されたノードペアは、トレーニングプロセスを通じて、バックドアをgnnモデルに埋め込む。
推論段階では、入力データ中の未リンクノード対の2つの終端ノードにトリガーノードを単にリンクすることで、gnnモデルのバックドアを活性化することができ、gnnモデルがターゲットノード対に対して不正確なリンク予測結果を生成することができる。
関連論文リスト
- Graph Neural Backdoor: Fundamentals, Methodologies, Applications, and Future Directions [7.392996857661765]
GNNの強化にもかかわらず、最近の研究はバックドア攻撃に対する潜在的な脆弱性を実証的に実証している。
この調査は、グラフバックドアの原則を探求し、ディフェンダーに洞察を提供し、将来のセキュリティ研究を促進することを目的としている。
論文 参考訳(メタデータ) (2024-06-15T09:23:46Z) - Link Stealing Attacks Against Inductive Graph Neural Networks [60.931106032824275]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理するように設計されたニューラルネットワークの一種である。
これまでの研究によると、トランスダクティブGNNは一連のプライバシー攻撃に弱い。
本稿では,リンク盗難攻撃のレンズを通して,誘導型GNNの包括的プライバシー分析を行う。
論文 参考訳(メタデータ) (2024-05-09T14:03:52Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Transferable Graph Backdoor Attack [13.110473828583725]
グラフニューラルネットワーク(GNN)は多くのグラフマイニングタスクで大きな成功を収めています。
GNNは、グラフ構造とノードの特徴の両方において、目立たない摂動に対して脆弱である。
本稿では,TRAP攻撃,Transferable GRAPhバックドア攻撃について述べる。
論文 参考訳(メタデータ) (2022-06-21T06:25:37Z) - Neighboring Backdoor Attacks on Graph Convolutional Network [30.586278223198086]
本稿では,隣接するバックドアと呼ばれる,グラフデータに特有の新しいバックドアを提案する。
このような課題に対処するため、我々はトリガーを単一ノードとして設定し、トリガーノードがターゲットノードに接続されているときにバックドアが起動する。
論文 参考訳(メタデータ) (2022-01-17T03:49:32Z) - Explainability-based Backdoor Attacks Against Graph Neural Networks [9.179577599489559]
ニューラルネットワークにはバックドア攻撃に関する多くの研究があるが、グラフニューラルネットワーク(gnn)を考えるものはごくわずかである。
我々は2つの強力なGNN説明可能性アプローチを適用し、最適なトリガー注入位置を選択し、2つの攻撃目標を達成します。
ベンチマークデータセットと最先端ニューラルネットワークモデルを用いた実験結果から,提案手法の有効性を示す。
論文 参考訳(メタデータ) (2021-04-08T10:43:40Z) - Black-box Detection of Backdoor Attacks with Limited Information and
Data [56.0735480850555]
モデルへのクエリアクセスのみを用いてバックドア攻撃を同定するブラックボックスバックドア検出(B3D)手法を提案する。
バックドア検出に加えて,同定されたバックドアモデルを用いた信頼性の高い予測手法を提案する。
論文 参考訳(メタデータ) (2021-03-24T12:06:40Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Stealing Links from Graph Neural Networks [72.85344230133248]
最近、ニューラルネットワークはグラフニューラルネットワーク(GNN)として知られるグラフデータに拡張された。
優れたパフォーマンスのため、GNNは医療分析、レコメンダシステム、不正検出など多くのアプリケーションを持っている。
グラフ上でトレーニングされたGNNモデルの出力からグラフを盗む最初の攻撃を提案する。
論文 参考訳(メタデータ) (2020-05-05T13:22:35Z) - Defending against Backdoor Attack on Deep Neural Networks [98.45955746226106]
トレーニングデータの一部にバックドアトリガーを注入する、いわゆるテキストバックドア攻撃について検討する。
実験の結果,本手法は攻撃成功率を効果的に低減し,クリーン画像の分類精度も高いことがわかった。
論文 参考訳(メタデータ) (2020-02-26T02:03:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。