論文の概要: Can Directed Graph Neural Networks be Adversarially Robust?
- arxiv url: http://arxiv.org/abs/2306.02002v1
- Date: Sat, 3 Jun 2023 04:56:04 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 20:55:56.004469
- Title: Can Directed Graph Neural Networks be Adversarially Robust?
- Title(参考訳): 有向グラフニューラルネットワークは敵対的に堅牢か?
- Authors: Zhichao Hou, Xitong Zhang, Wei Wang, Charu C. Aggarwal, Xiaorui Liu
- Abstract要約: 本研究では,グラフニューラルネットワーク(GNN)の堅牢性とレジリエンスを高めるために,有向グラフがもたらす深い信頼感を活用することを目的とする。
我々は,新しい,現実的なグラフアタック設定を導入し,プラグイン層として革新的で普遍的で効率的なメッセージパッシングフレームワークを提案する。
このフレームワークはクリーンな精度と最先端の堅牢なパフォーマンスに優れており、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
- 参考スコア(独自算出の注目度): 26.376780541893154
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The existing research on robust Graph Neural Networks (GNNs) fails to
acknowledge the significance of directed graphs in providing rich information
about networks' inherent structure. This work presents the first investigation
into the robustness of GNNs in the context of directed graphs, aiming to
harness the profound trust implications offered by directed graphs to bolster
the robustness and resilience of GNNs. Our study reveals that existing directed
GNNs are not adversarially robust. In pursuit of our goal, we introduce a new
and realistic directed graph attack setting and propose an innovative,
universal, and efficient message-passing framework as a plug-in layer to
significantly enhance the robustness of GNNs. Combined with existing defense
strategies, this framework achieves outstanding clean accuracy and
state-of-the-art robust performance, offering superior defense against both
transfer and adaptive attacks. The findings in this study reveal a novel and
promising direction for this crucial research area. The code will be made
publicly available upon the acceptance of this work.
- Abstract(参考訳): 既存のロバストグラフニューラルネットワーク(gnns)の研究は、ネットワーク固有の構造に関する豊富な情報を提供する際に有向グラフの重要性を認識していない。
本研究は、有向グラフの文脈におけるGNNの堅牢性に関する最初の研究であり、有向グラフがもたらす深い信頼感を利用して、GNNの堅牢性とレジリエンスを高めることを目的としている。
本研究により,既存の指向性GNNは逆向きに堅牢ではないことが明らかとなった。
目的を追求するために,GNNの堅牢性を大幅に向上させるために,新しい,現実的なグラフアタック設定を導入し,革新的な,普遍的で効率的なメッセージパッシングフレームワークをプラグイン層として提案する。
既存の防御戦略と組み合わさって、クリーンな精度と最先端の堅牢な性能を実現し、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
本研究は,本研究領域の新規かつ有望な方向性を明らかにするものである。
この作業が受け入れられ次第、コードは公開される予定だ。
関連論文リスト
- Explainable AI Security: Exploring Robustness of Graph Neural Networks to Adversarial Attacks [14.89001880258583]
グラフニューラルネットワーク(GNN)は非常に成功したが、最近の研究では、GNNは敵の攻撃に弱いことが示されている。
本稿では,グラフデータパターン,モデル固有因子,および敵対例の転送可能性を考慮することで,GNNの対角的ロバスト性について検討する。
この作業は、GNNの脆弱性を照らし、堅牢なGNNを設計するための多くの有望な道を開く。
論文 参考訳(メタデータ) (2024-06-20T01:24:18Z) - Expressivity of Graph Neural Networks Through the Lens of Adversarial Robustness [42.129871250427016]
我々は、理論的に可能であり、実証的に達成された表現力の間の大きなギャップを明らかにするためのツールとして、敵の頑健性を用いる。
また,グラフ構造に対する小さな摂動に対しても,より強力なGNNが一般化できないことを示す。
論文 参考訳(メタデータ) (2023-08-16T07:05:41Z) - Adversarially Robust Neural Architecture Search for Graph Neural
Networks [45.548352741415556]
グラフニューラルネットワーク(GNN)は、リスクに敏感なドメインにGNNを適用するという大きな脅威である敵攻撃の傾向にある。
既存の防御手法は、新しいデータ/タスクや敵攻撃に直面するパフォーマンスを保証せず、アーキテクチャの観点からGNNの堅牢性を理解するための洞察も提供しない。
GNN(G-RNA)のための新しいロバストニューラルネットワーク探索フレームワークを提案する。
G-RNAは、敵の攻撃下で、手動で設計された堅牢なGNNとバニラグラフNASベースラインを12.1%から23.4%上回っている。
論文 参考訳(メタデータ) (2023-04-09T06:00:50Z) - Trustworthy Graph Neural Networks: Aspects, Methods and Trends [115.84291569988748]
グラフニューラルネットワーク(GNN)は,さまざまな実世界のシナリオに対して,有能なグラフ学習手法として登場した。
パフォーマンス指向のGNNは、敵の攻撃に対する脆弱性のような潜在的な副作用を示す。
こうした意図しない害を避けるためには、信頼度に特徴付けられる有能なGNNを構築する必要がある。
論文 参考訳(メタデータ) (2022-05-16T02:21:09Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - Jointly Attacking Graph Neural Network and its Explanations [50.231829335996814]
グラフニューラルネットワーク(GNN)は多くのグラフ関連タスクのパフォーマンスを向上した。
近年の研究では、GNNは敵の攻撃に対して非常に脆弱であることが示されており、敵はグラフを変更することでGNNの予測を誤認することができる。
本稿では、GNNモデルとその説明の両方を同時に利用して攻撃できる新しい攻撃フレームワーク(GEAttack)を提案する。
論文 参考訳(メタデータ) (2021-08-07T07:44:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - Graph Structure Learning for Robust Graph Neural Networks [63.04935468644495]
グラフニューラルネットワーク(GNN)は、グラフの表現学習において強力なツールである。
近年の研究では、GNNは敵攻撃と呼ばれる、慎重に構築された摂動に弱いことが示されている。
本稿では,構造グラフと頑健なグラフニューラルネットワークモデルを共同で学習できる汎用フレームワークであるPro-GNNを提案する。
論文 参考訳(メタデータ) (2020-05-20T17:07:05Z) - Adversarial Attacks and Defenses on Graphs: A Review, A Tool and
Empirical Studies [73.39668293190019]
敵攻撃は入力に対する小さな摂動によって容易に騙される。
グラフニューラルネットワーク(GNN)がこの脆弱性を継承することを実証している。
本調査では,既存の攻撃と防御を分類し,対応する最先端の手法を概観する。
論文 参考訳(メタデータ) (2020-03-02T04:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。