論文の概要: I-GCN: Robust Graph Convolutional Network via Influence Mechanism
- arxiv url: http://arxiv.org/abs/2012.06110v1
- Date: Fri, 11 Dec 2020 04:03:15 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-11 03:06:28.906093
- Title: I-GCN: Robust Graph Convolutional Network via Influence Mechanism
- Title(参考訳): I-GCN:影響メカニズムによるロバストグラフ畳み込みネットワーク
- Authors: Haoxi Zhan, Xiaobing Pei
- Abstract要約: 近年の研究では、グラフ畳み込みネットワーク(gcns)が逆摂動に苦しむことが示されている。
本稿では,GCNのロバスト性を大幅に向上させるメカニズムであるインフルエンス機構を提案する。
提案モデルは,非標的攻撃に対する防御において,最先端手法よりも高い精度を実現することができる。
- 参考スコア(独自算出の注目度): 3.3504365823045035
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning models for graphs, especially Graph Convolutional Networks
(GCNs), have achieved remarkable performance in the task of semi-supervised
node classification. However, recent studies show that GCNs suffer from
adversarial perturbations. Such vulnerability to adversarial attacks
significantly decreases the stability of GCNs when being applied to
security-critical applications. Defense methods such as preprocessing,
attention mechanism and adversarial training have been discussed by various
studies. While being able to achieve desirable performance when the
perturbation rates are low, such methods are still vulnerable to high
perturbation rates. Meanwhile, some defending algorithms perform poorly when
the node features are not visible. Therefore, in this paper, we propose a novel
mechanism called influence mechanism, which is able to enhance the robustness
of the GCNs significantly. The influence mechanism divides the effect of each
node into two parts: introverted influence which tries to maintain its own
features and extroverted influence which exerts influences on other nodes.
Utilizing the influence mechanism, we propose the Influence GCN (I-GCN) model.
Extensive experiments show that our proposed model is able to achieve higher
accuracy rates than state-of-the-art methods when defending against
non-targeted attacks.
- Abstract(参考訳): グラフの深層学習モデル、特にグラフ畳み込みネットワーク(GCN)は、半教師付きノード分類のタスクにおいて顕著な性能を発揮している。
しかし近年の研究では、GCNは逆行性摂動に悩まされている。
このような攻撃に対する脆弱性は、セキュリティクリティカルなアプリケーションに適用される際のGCNの安定性を著しく低下させる。
各種研究により, 前処理, 注意機構, 対人訓練などの防衛手法が議論されている。
摂動率が低い場合に望ましい性能を達成することができるが、そのような手法は高い摂動率に対して脆弱である。
一方、一部の防御アルゴリズムは、ノード機能が見えない場合に性能が悪い。
そこで,本論文では,gcnsのロバスト性を高めるために,影響機構と呼ばれる新しいメカニズムを提案する。
影響メカニズムは、各ノードの効果を2つの部分に分割する: 内向的な影響は、自身の特徴を維持しようとするものであり、外向的な影響は、他のノードに影響を及ぼす。
影響メカニズムを利用して,影響GCN(I-GCN)モデルを提案する。
広範な実験により,提案手法は,非標的攻撃に対する防御において,最先端手法よりも高い精度が得られることを示した。
関連論文リスト
- GAIM: Attacking Graph Neural Networks via Adversarial Influence Maximization [12.651079126612121]
我々は,厳密なブラックボックス設定を考慮しつつ,ノードベースで行う統合逆攻撃手法を提案する。
提案手法では,対象ノードの選択と特徴摂動の構成を単一最適化問題に統一する。
ラベル指向攻撃に対応するため,本手法を拡張し,適用範囲を広げる。
論文 参考訳(メタデータ) (2024-08-20T15:41:20Z) - HGAttack: Transferable Heterogeneous Graph Adversarial Attack [63.35560741500611]
ヘテロジニアスグラフニューラルネットワーク(HGNN)は、Webやeコマースなどの分野でのパフォーマンスでますます認識されている。
本稿ではヘテロジニアスグラフに対する最初の専用グレーボックス回避手法であるHGAttackを紹介する。
論文 参考訳(メタデータ) (2024-01-18T12:47:13Z) - HC-Ref: Hierarchical Constrained Refinement for Robust Adversarial
Training of GNNs [7.635985143883581]
コンピュータビジョンにおける敵の攻撃に対する最も効果的な防御機構の1つとされる敵の訓練は、GNNの堅牢性を高めるという大きな約束を持っている。
本稿では,GNNと下流分類器の対摂動性を高める階層的制約改善フレームワーク(HC-Ref)を提案する。
論文 参考訳(メタデータ) (2023-12-08T07:32:56Z) - Everything Perturbed All at Once: Enabling Differentiable Graph Attacks [61.61327182050706]
グラフニューラルネットワーク(GNN)は敵の攻撃に弱いことが示されている。
本稿では,DGA(Dariable Graph Attack)と呼ばれる新しい攻撃手法を提案し,効果的な攻撃を効率的に生成する。
最先端と比較して、DGAは6倍のトレーニング時間と11倍のGPUメモリフットプリントでほぼ同等の攻撃性能を達成する。
論文 参考訳(メタデータ) (2023-08-29T20:14:42Z) - Resisting Graph Adversarial Attack via Cooperative Homophilous
Augmentation [60.50994154879244]
最近の研究では、グラフニューラルネットワークは弱く、小さな摂動によって簡単に騙されることが示されている。
本研究では,グラフインジェクションアタック(Graph Injection Attack)という,新興だが重要な攻撃に焦点を当てる。
本稿では,グラフデータとモデルの協調的同好性増強によるGIAに対する汎用防衛フレームワークCHAGNNを提案する。
論文 参考訳(メタデータ) (2022-11-15T11:44:31Z) - GANI: Global Attacks on Graph Neural Networks via Imperceptible Node
Injections [20.18085461668842]
グラフニューラルネットワーク(GNN)は、様々なグラフ関連タスクで成功している。
近年の研究では、多くのGNNが敵の攻撃に弱いことが示されている。
本稿では,偽ノードを注入することで,現実的な攻撃操作に焦点を当てる。
論文 参考訳(メタデータ) (2022-10-23T02:12:26Z) - GUARD: Graph Universal Adversarial Defense [54.81496179947696]
GUARD(Graph Universal Adversarial Defense)という,シンプルで効果的な手法を提案する。
GUARDは、各ノードを共通の防御パッチで攻撃から保護する。
GUARDは、複数の敵攻撃に対する複数の確立されたGCNの堅牢性を大幅に改善し、最先端の防御手法を大きなマージンで上回る。
論文 参考訳(メタデータ) (2022-04-20T22:18:12Z) - Understanding Structural Vulnerability in Graph Convolutional Networks [27.602802961213236]
グラフ畳み込みネットワーク(GCN)は、グラフ構造に対する敵攻撃に対して脆弱である。
構造逆例はGCNの非ロバストアグリゲーションスキームに起因していると考えられる。
その結果,GCN の構造的攻撃に対するロバスト性は著しく向上する可能性が示唆された。
論文 参考訳(メタデータ) (2021-08-13T15:07:44Z) - Improving Robustness of Graph Neural Networks with Heterophily-Inspired
Designs [18.524164548051417]
多くのグラフニューラルネットワーク(GNN)は、敵の攻撃に敏感であり、グラフ構造が意図的に乱れた場合、性能損失を被る可能性がある。
ノード特徴がホモフィリで、衝撃的な構造的攻撃が常にヘテロフィリのレベルを上昇させるという標準的なシナリオを示す。
我々は、(i)エゴエンベディングと(ii)アグリゲータの分離したアグリゲータ、および(ii)アグリゲーションの範囲を小さくすることで、GNNのロバスト性を大幅に向上させる2つの設計を提案する。
論文 参考訳(メタデータ) (2021-06-14T21:39:36Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - AN-GCN: An Anonymous Graph Convolutional Network Defense Against
Edge-Perturbing Attack [53.06334363586119]
近年の研究では、エッジ摂動攻撃に対するグラフ畳み込みネットワーク(GCN)の脆弱性が明らかにされている。
まず、エッジ摂動攻撃の定式化を一般化し、ノード分類タスクにおけるこのような攻撃に対するGCNの脆弱性を厳密に証明する。
これに続いて、匿名グラフ畳み込みネットワークAN-GCNがエッジ摂動攻撃に対抗するために提案されている。
論文 参考訳(メタデータ) (2020-05-06T08:15:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。