論文の概要: AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack
- arxiv url: http://arxiv.org/abs/2005.03482v6
- Date: Thu, 17 Jun 2021 01:41:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-06 06:26:40.839357
- Title: AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack
- Title(参考訳): AN-GCN:エッジ障害に対する匿名グラフ畳み込みネットワーク防御
- Authors: Ao Liu, Beibei Li, Tao Li, Pan Zhou, Rui wang
- Abstract要約: 近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
- 参考スコア(独自算出の注目度): 53.06334363586119
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have revealed the vulnerability of graph convolutional
networks (GCNs) to edge-perturbing attacks, such as maliciously inserting or
deleting graph edges. However, a theoretical proof of such vulnerability
remains a big challenge, and effective defense schemes are still open issues.
In this paper, we first generalize the formulation of edge-perturbing attacks
and strictly prove the vulnerability of GCNs to such attacks in node
classification tasks. Following this, an anonymous graph convolutional network,
named AN-GCN, is proposed to counter against edge-perturbing attacks.
Specifically, we present a node localization theorem to demonstrate how the GCN
locates nodes during its training phase. In addition, we design a staggered
Gaussian noise based node position generator, and devise a spectral graph
convolution based discriminator in detecting the generated node positions.
Further, we give the optimization of the above generator and discriminator.
AN-GCN can classify nodes without taking their position as input. It is
demonstrated that the AN-GCN is secure against edge-perturbing attacks in node
classification tasks, as AN-GCN classifies nodes without the edge information
and thus makes it impossible for attackers to perturb edges anymore. Extensive
evaluations demonstrated the effectiveness of the general edge-perturbing
attack model in manipulating the classification results of the target nodes.
More importantly, the proposed AN-GCN can achieve 82.7% in node classification
accuracy without the edge-reading permission, which outperforms the
state-of-the-art GCN.
- Abstract(参考訳): 最近の研究では、グラフエッジを悪意ある挿入や削除といったエッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
しかし、そのような脆弱性の理論的証明は依然として大きな課題であり、効果的な防衛計画はまだ未解決の問題である。
本稿では,まずエッジ摂動攻撃の定式化を一般化し,ノード分類タスクにおけるGCNの脆弱性を厳密に証明する。
その後、匿名グラフ畳み込みネットワークAN-GCNが提案され、エッジ摂動攻撃に対抗する。
具体的には、GCNがトレーニング期間中にどのようにノードを配置するかを示すノードローカライゼーション定理を示す。
また、ガウス雑音に基づくノード位置生成器の設計を行い、生成されたノード位置を検出する際にスペクトルグラフ畳み込みに基づく判別器を考案する。
さらに,上記の生成器と判別器の最適化を行う。
AN-GCNは入力として位置を取ることなくノードを分類できる。
AN-GCNは、エッジ情報のないノードを分類するため、ノード分類タスクにおけるエッジ摂動攻撃に対して安全であることが示されている。
対象ノードの分類結果を操作する際,汎用エッジ摂動攻撃モデルの有効性を広範囲に評価した。
さらに重要なことに、提案されたAN-GCNはエッジ読み取り許可なしで82.7%のノード分類精度を達成でき、最先端GCNより優れている。
関連論文リスト
- Cost Aware Untargeted Poisoning Attack against Graph Neural Networks, [5.660584039688214]
本稿では,攻撃予算の配分を改善するため,コスト・アウェア・ポジショニング・アタック(CA-アタック)と呼ばれる新たなアタック・ロス・フレームワークを提案する。
実験の結果,提案したCA攻撃は既存の攻撃戦略を大幅に強化することが示された。
論文 参考訳(メタデータ) (2023-12-12T10:54:02Z) - Graph Agent Network: Empowering Nodes with Inference Capabilities for Adversarial Resilience [50.460555688927826]
グラフニューラルネットワーク(GNN)の脆弱性に対処するグラフエージェントネットワーク(GAgN)を提案する。
GAgNはグラフ構造化エージェントネットワークであり、各ノードは1-hop-viewエージェントとして設計されている。
エージェントの限られたビューは、悪意のあるメッセージがGAgNでグローバルに伝播するのを防ぎ、グローバル最適化ベースのセカンダリアタックに抵抗する。
論文 参考訳(メタデータ) (2023-06-12T07:27:31Z) - Robust Mid-Pass Filtering Graph Convolutional Networks [47.50194731200042]
グラフ畳み込みネットワーク(GCN)は現在、グラフ構造データを扱う上で最も有望なパラダイムである。
近年の研究では、GCNは敵の攻撃に弱いことが示されている。
そこで我々は,これらの課題を克服するために,シンプルで効果的なミッドパスフィルタGCN(Mid-GCN)を提案する。
論文 参考訳(メタデータ) (2023-02-16T03:07:09Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - Adversarial Camouflage for Node Injection Attack on Graphs [64.5888846198005]
グラフニューラルネットワーク(GNN)に対するノードインジェクション攻撃は、GNNのパフォーマンスを高い攻撃成功率で低下させる能力のため、近年注目を集めている。
本研究は,これらの攻撃が現実的なシナリオでしばしば失敗することを示す。
これを解決するため,我々はカモフラージュノードインジェクション攻撃(camouflage node Injection attack)に取り組んだ。
論文 参考訳(メタデータ) (2022-08-03T02:48:23Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Deperturbation of Online Social Networks via Bayesian Label Transition [5.037076816350975]
オンラインソーシャルネットワーク(OSN)は、ユーザの活動と関心に基づいて、異なるカテゴリに分類する。
少数のユーザ(いわゆる摂動器)はOSN上でランダムな活動を行うことができ、GCNベースのノード分類タスクの性能を著しく低下させる。
我々は,ラベル遷移の概念を用いたGCNディフェンスモデル,すなわちGraphLTを開発した。
論文 参考訳(メタデータ) (2020-10-27T08:15:12Z) - Investigating and Mitigating Degree-Related Biases in Graph
Convolutional Networks [62.8504260693664]
グラフ畳み込みネットワーク(GCN)は、グラフ上の半教師付き学習タスクに対して有望な結果を示す。
本稿では,ノード次数分布に関するGCNを解析する。
本稿では,GCNの次数バイアスを緩和する自己監督型DegreeSpecific GCN(SL-DSGC)を開発した。
論文 参考訳(メタデータ) (2020-06-28T16:26:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。