論文の概要: What Does the Gradient Tell When Attacking the Graph Structure
- arxiv url: http://arxiv.org/abs/2208.12815v1
- Date: Fri, 26 Aug 2022 15:45:20 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-30 13:00:24.091490
- Title: What Does the Gradient Tell When Attacking the Graph Structure
- Title(参考訳): 勾配はグラフ構造を攻撃するときに何がわかるか
- Authors: Zihan Liu, Ge Wang, Yun Luo, Stan Z. Li
- Abstract要約: グラフニューラルネットワークは敵の攻撃に弱い。
サイレンシベースの攻撃者は、削除するよりもエッジを追加する傾向がある。
そこで本研究では,攻撃の非受容性を高めるために,ホモフィリ分散を制限する正規化項を提案する。
- 参考スコア(独自算出の注目度): 44.44204591087092
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have proven that graph neural networks are vulnerable to
adversarial attacks. Attackers can rely solely on the training labels to
disrupt the performance of the agnostic victim model by edge perturbations.
Researchers observe that the saliency-based attackers tend to add edges rather
than delete them, which is previously explained by the fact that adding edges
pollutes the nodes' features by aggregation while removing edges only leads to
some loss of information. In this paper, we further prove that the attackers
perturb graphs by adding inter-class edges, which also manifests as a reduction
in the homophily of the perturbed graph. From this point of view,
saliency-based attackers still have room for improvement in capability and
imperceptibility. The message passing of the GNN-based surrogate model leads to
the oversmoothing of nodes connected by inter-class edges, preventing attackers
from obtaining the distinctiveness of node features. To solve this issue, we
introduce a multi-hop aggregated message passing to preserve attribute
differences between nodes. In addition, we propose a regularization term to
restrict the homophily variance to enhance the attack imperceptibility.
Experiments verify that our proposed surrogate model improves the attacker's
versatility and the regularization term helps to limit the homophily of the
perturbed graph.
- Abstract(参考訳): 最近の研究では、グラフニューラルネットワークは敵の攻撃に弱いことが証明されている。
攻撃者は、エッジの摂動によって無知な被害者モデルのパフォーマンスを乱すために、トレーニングラベルのみに頼ることができる。
研究者は、サリエンシベースの攻撃者はそれらを削除するよりもエッジを追加する傾向があり、これは以前、エッジを追加すると、エッジを削除しながら集約によってノードの機能を汚染するという事実によって説明されていた。
本稿ではさらに,クラス間エッジを付加することで,攻撃者がグラフを摂動させることを証明し,摂動グラフのホモフィリの低減も示す。
この観点から見れば、サラジェンシーベースの攻撃者には、能力と不可避性を改善する余地がある。
gnnベースのサロゲートモデルのメッセージパッシングは、クラス間エッジで接続されたノードのオーバームーシングにつながり、攻撃者がノードの特徴の識別性を得るのを防ぐ。
そこで本研究では,ノード間の属性差を保存するマルチホップ集約メッセージパッシングを提案する。
さらに,同相分散を制限して攻撃不可能性を高める正規化項を提案する。
実験により,提案するサロゲートモデルが攻撃者の汎用性を改善し,正規化項が摂動グラフの相同性を制限するのに役立つことを検証した。
関連論文リスト
- Towards Reasonable Budget Allocation in Untargeted Graph Structure
Attacks via Gradient Debias [50.628150015907565]
クロスエントロピー損失関数は、分類タスクにおける摂動スキームを評価するために用いられる。
従来の手法ではノードレベルの分類モデルを攻撃する攻撃対象として負のクロスエントロピー損失を用いる。
本稿では、予算配分の観点から、これまでの不合理な攻撃目標について論じる。
論文 参考訳(メタデータ) (2023-03-29T13:02:02Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - Surrogate Representation Learning with Isometric Mapping for Gray-box
Graph Adversarial Attacks [27.317964031440546]
グレーボックスグラフ攻撃は、被害者モデルに関する限られた知識を持つ攻撃を使用することで、被害者モデルのパフォーマンスを損なうことを目的としている。
ノード属性やグラフ構造の勾配を求めるため、攻撃者は監督下で訓練された仮想代理モデルを構築する。
本稿では,グラフ逆数攻撃の伝達性に及ぼす代理モデルの表現学習の影響について検討する。
論文 参考訳(メタデータ) (2021-10-20T10:47:34Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - BinarizedAttack: Structural Poisoning Attacks to Graph-based Anomaly
Detection [20.666171188140503]
グラフに基づく異常検出(GAD)は,グラフの強力な表現能力によって普及しつつある。
皮肉なことに、これらのGADツールは、データ間の関係を活用できるというユニークな利点のために、新たな攻撃面を公開する。
本稿では, この脆弱性を利用して, 代表的な回帰型GADシステムOddBallに対して, 標的となる新しいタイプの構造的中毒攻撃を設計する。
論文 参考訳(メタデータ) (2021-06-18T08:20:23Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Towards More Practical Adversarial Attacks on Graph Neural Networks [14.78539966828287]
グラフニューラルネットワーク(GNN)に対するブラックボックス攻撃を,新規で現実的な制約の下で検討する。
我々は,GNNモデルの構造的帰納バイアスが,この種の攻撃に有効であることを示す。
論文 参考訳(メタデータ) (2020-06-09T05:27:39Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。