論文の概要: AHSG: Adversarial Attacks on High-level Semantics in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2412.07468v1
- Date: Tue, 10 Dec 2024 12:35:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-11 14:36:15.753041
- Title: AHSG: Adversarial Attacks on High-level Semantics in Graph Neural Networks
- Title(参考訳): AHSG:グラフニューラルネットワークにおける高レベルのセマンティックスに対する敵攻撃
- Authors: Kai Yuan, Xiaobing Pei, Haoran Yang,
- Abstract要約: グラフニューラルネットワーク(GNN)は、グラフ学習タスクにおける優れたパフォーマンスのために、研究者の間で大きな関心を集めている。
GNNの既存の敵攻撃法では、攻撃されたグラフと元のグラフの間の距離は、通常、攻撃予算またはグローバルグラフ特性の測定値である。
一次意味論の保持を保証するグラフ構造攻撃モデルを提案する。
- 参考スコア(独自算出の注目度): 10.087216264788099
- License:
- Abstract: Graph Neural Networks (GNNs) have garnered significant interest among researchers due to their impressive performance in graph learning tasks. However, like other deep neural networks, GNNs are also vulnerable to adversarial attacks. In existing adversarial attack methods for GNNs, the metric between the attacked graph and the original graph is usually the attack budget or a measure of global graph properties. However, we have found that it is possible to generate attack graphs that disrupt the primary semantics even within these constraints. To address this problem, we propose a Adversarial Attacks on High-level Semantics in Graph Neural Networks (AHSG), which is a graph structure attack model that ensures the retention of primary semantics. The latent representations of each node can extract rich semantic information by applying convolutional operations on graph data. These representations contain both task-relevant primary semantic information and task-irrelevant secondary semantic information. The latent representations of same-class nodes with the same primary semantics can fulfill the objective of modifying secondary semantics while preserving the primary semantics. Finally, the latent representations with attack effects is mapped to an attack graph using Projected Gradient Descent (PGD) algorithm. By attacking graph deep learning models with some advanced defense strategies, we validate that AHSG has superior attack effectiveness compared to other attack methods. Additionally, we employ Contextual Stochastic Block Models (CSBMs) as a proxy for the primary semantics to detect the attacked graph, confirming that AHSG almost does not disrupt the original primary semantics of the graph.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ学習タスクにおける優れたパフォーマンスのために、研究者の間で大きな関心を集めている。
しかし、他のディープニューラルネットワークと同様に、GNNも敵の攻撃に対して脆弱である。
GNNの既存の敵攻撃法では、攻撃されたグラフと元のグラフの間の距離は、通常、攻撃予算またはグローバルグラフ特性の測定値である。
しかし,これらの制約の中でも,主要なセマンティクスを乱すようなアタックグラフを生成することが可能であることが判明した。
この問題に対処するために,グラフ構造攻撃モデルであるグラフニューラルネットワークにおける高レベルセマンティックス(AHSG)のアタックを提案する。
各ノードの潜在表現は、グラフデータに畳み込み演算を適用することにより、リッチな意味情報を抽出することができる。
これらの表現はタスク関連一次意味情報とタスク関連二次意味情報の両方を含む。
同じプライマリセマンティクスを持つ同クラスのノードの潜在表現は、プライマリセマンティクスを保持しながらセカンダリセマンティクスを変更する目的を満たすことができる。
最後に、攻撃効果を持つ潜伏表現を、投影勾配 Descent (PGD) アルゴリズムを用いてアタックグラフにマッピングする。
グラフ深層学習モデルをいくつかの先進的な防衛戦略で攻撃することにより、AHSGが他の攻撃方法よりも優れた攻撃効果を有することを示す。
さらに、攻撃されたグラフを検出するために、プライマリセマンティクスのプロキシとしてコンテキスト確率ブロックモデル(CSBM)を用い、AHSGがグラフの元のプライマリセマンティクスをほとんど破壊しないことを確認した。
関連論文リスト
- Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Model Inversion Attacks against Graph Neural Networks [65.35955643325038]
グラフニューラルネットワーク(GNN)に対するモデル反転攻撃について検討する。
本稿では,プライベートトレーニンググラフデータを推測するためにGraphMIを提案する。
実験の結果,このような防御効果は十分ではないことが示され,プライバシー攻撃に対するより高度な防御が求められている。
論文 参考訳(メタデータ) (2022-09-16T09:13:43Z) - A Hard Label Black-box Adversarial Attack Against Graph Neural Networks [25.081630882605985]
我々は,グラフ構造の摂動によるグラフ分類のためのGNNに対する敵対的攻撃について,系統的研究を行った。
我々は、高い攻撃成功率を維持しながら、グラフ内で摂動するエッジの数を最小化する最適化問題として、我々の攻撃を定式化する。
実世界の3つのデータセットに対する実験結果から,クエリや摂動を少なくして,グラフ分類のための代表的GNNを効果的に攻撃できることが示された。
論文 参考訳(メタデータ) (2021-08-21T14:01:34Z) - GraphAttacker: A General Multi-Task GraphAttack Framework [4.218118583619758]
グラフニューラルネットワーク(GNN)は多くの実世界のアプリケーションでグラフ解析タスクにうまく活用されている。
攻撃者が生成した敵のサンプルは ほとんど知覚不能な摂動で 優れた攻撃性能を達成しました
本稿では,グラフ解析タスクに応じて構造と攻撃戦略を柔軟に調整可能な,新しい汎用グラフ攻撃フレームワークであるgraphattackerを提案する。
論文 参考訳(メタデータ) (2021-01-18T03:06:41Z) - Adversarial Attack on Large Scale Graph [58.741365277995044]
近年の研究では、グラフニューラルネットワーク(GNN)は堅牢性の欠如により摂動に弱いことが示されている。
現在、GNN攻撃に関するほとんどの研究は、主に攻撃を誘導し、優れたパフォーマンスを達成するために勾配情報を使用している。
主な理由は、攻撃にグラフ全体を使わなければならないため、データスケールが大きくなるにつれて、時間と空間の複雑さが増大するからです。
本稿では,グラフデータに対する敵攻撃の影響を測定するために,DAC(Degree Assortativity Change)という実用的な指標を提案する。
論文 参考訳(メタデータ) (2020-09-08T02:17:55Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Adversarial Attack on Hierarchical Graph Pooling Neural Networks [14.72310134429243]
グラフ分類タスクにおけるグラフニューラルネットワーク(GNN)の堅牢性について検討する。
本稿では,グラフ分類タスクに対する逆攻撃フレームワークを提案する。
我々の知る限りでは、これは階層的なGNNベースのグラフ分類モデルに対する敵攻撃に関する最初の研究である。
論文 参考訳(メタデータ) (2020-05-23T16:19:47Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。