論文の概要: Adversarially Robust Neural Architecture Search for Graph Neural
Networks
- arxiv url: http://arxiv.org/abs/2304.04168v1
- Date: Sun, 9 Apr 2023 06:00:50 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 17:20:53.967468
- Title: Adversarially Robust Neural Architecture Search for Graph Neural
Networks
- Title(参考訳): グラフニューラルネットワークのための可逆的ロバストニューラルネットワーク探索
- Authors: Beini Xie, Heng Chang, Ziwei Zhang, Xin Wang, Daixin Wang, Zhiqiang
Zhang, Rex Ying, Wenwu Zhu
- Abstract要約: グラフニューラルネットワーク(GNN)は、リスクに敏感なドメインにGNNを適用するという大きな脅威である敵攻撃の傾向にある。
既存の防御手法は、新しいデータ/タスクや敵攻撃に直面するパフォーマンスを保証せず、アーキテクチャの観点からGNNの堅牢性を理解するための洞察も提供しない。
GNN(G-RNA)のための新しいロバストニューラルネットワーク探索フレームワークを提案する。
G-RNAは、敵の攻撃下で、手動で設計された堅牢なGNNとバニラグラフNASベースラインを12.1%から23.4%上回っている。
- 参考スコア(独自算出の注目度): 45.548352741415556
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) obtain tremendous success in modeling relational
data. Still, they are prone to adversarial attacks, which are massive threats
to applying GNNs to risk-sensitive domains. Existing defensive methods neither
guarantee performance facing new data/tasks or adversarial attacks nor provide
insights to understand GNN robustness from an architectural perspective. Neural
Architecture Search (NAS) has the potential to solve this problem by automating
GNN architecture designs. Nevertheless, current graph NAS approaches lack
robust design and are vulnerable to adversarial attacks. To tackle these
challenges, we propose a novel Robust Neural Architecture search framework for
GNNs (G-RNA). Specifically, we design a robust search space for the
message-passing mechanism by adding graph structure mask operations into the
search space, which comprises various defensive operation candidates and allows
us to search for defensive GNNs. Furthermore, we define a robustness metric to
guide the search procedure, which helps to filter robust architectures. In this
way, G-RNA helps understand GNN robustness from an architectural perspective
and effectively searches for optimal adversarial robust GNNs. Extensive
experimental results on benchmark datasets show that G-RNA significantly
outperforms manually designed robust GNNs and vanilla graph NAS baselines by
12.1% to 23.4% under adversarial attacks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、関係データのモデリングにおいて大きな成功を収めている。
それでも彼らは、GNNを危険に敏感なドメインに適用する大きな脅威である敵攻撃の傾向にある。
既存の防御手法は、新しいデータ/タスクや敵攻撃に直面するパフォーマンスを保証せず、アーキテクチャの観点からGNNの堅牢性を理解するための洞察も提供しない。
ニューラルアーキテクチャサーチ(NAS)は、GNNアーキテクチャ設計を自動化することでこの問題を解決する可能性がある。
それでも、現在のグラフNASアプローチには堅牢な設計がなく、敵攻撃に弱い。
これらの課題に対処するために、GNN(G-RNA)のための新しいロバストニューラルネットワーク検索フレームワークを提案する。
具体的には,様々な防御的操作候補を含むグラフ構造マスク操作を探索空間に追加することにより,メッセージパッシング機構のためのロバストな検索空間を設計する。
さらに,探索手順を案内するロバストネス指標を定義し,ロバストなアーキテクチャのフィルタリングを支援する。
このようにして、G-RNAはアーキテクチャの観点からGNNの堅牢性を理解し、最適対向性GNNを効果的に検索する。
ベンチマークデータセットの大規模な実験結果によると、G-RNAは敵の攻撃下で、手動で設計された堅牢なGNNとバニラグラフNASベースラインを12.1%から23.4%上回っている。
関連論文リスト
- A Simple and Yet Fairly Effective Defense for Graph Neural Networks [18.140756786259615]
グラフニューラルネットワーク(GNN)は、グラフ構造化データ上での機械学習の主要なアプローチとして登場した。
既存の対向性摂動に対する防御法は、時間的複雑さに悩まされている。
本稿では,ノイズを基礎となるモデルのアーキテクチャに組み込む新しい防御手法であるNoisyGNNを紹介する。
論文 参考訳(メタデータ) (2024-02-21T18:16:48Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Can Directed Graph Neural Networks be Adversarially Robust? [26.376780541893154]
本研究では,グラフニューラルネットワーク(GNN)の堅牢性とレジリエンスを高めるために,有向グラフがもたらす深い信頼感を活用することを目的とする。
我々は,新しい,現実的なグラフアタック設定を導入し,プラグイン層として革新的で普遍的で効率的なメッセージパッシングフレームワークを提案する。
このフレームワークはクリーンな精度と最先端の堅牢なパフォーマンスに優れており、転送攻撃と適応攻撃の両方に対して優れた防御を提供する。
論文 参考訳(メタデータ) (2023-06-03T04:56:04Z) - PyGFI: Analyzing and Enhancing Robustness of Graph Neural Networks
Against Hardware Errors [3.2780036095732035]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習において,有望な学習パラダイムとして登場した。
本稿では,ハードウェア故障とGNN精度の関係を理解することを目的とした,GNNレジリエンスの大規模かつ実証的研究を行う。
論文 参考訳(メタデータ) (2022-12-07T06:14:14Z) - EvenNet: Ignoring Odd-Hop Neighbors Improves Robustness of Graph Neural
Networks [51.42338058718487]
グラフニューラルネットワーク(GNN)は、グラフ機械学習における有望なパフォーマンスについて、広範な研究の注目を集めている。
GCNやGPRGNNのような既存のアプローチは、テストグラフ上のホモフィリな変化に直面しても堅牢ではない。
偶数多項式グラフフィルタに対応するスペクトルGNNであるEvenNetを提案する。
論文 参考訳(メタデータ) (2022-05-27T10:48:14Z) - GARNET: Reduced-Rank Topology Learning for Robust and Scalable Graph
Neural Networks [15.448462928073635]
グラフニューラルネットワーク(GNN)は、非ユークリッドデータでの学習を含むさまざまなアプリケーションにますます導入されている。
近年の研究では、GNNはグラフ敵攻撃に弱いことが示されている。
本稿では,GNNモデルの対角的ロバスト性を高めるため,スケーラブルなスペクトル法であるGARNETを提案する。
論文 参考訳(メタデータ) (2022-01-30T06:32:44Z) - Robustness of Graph Neural Networks at Scale [63.45769413975601]
我々は,グラフニューラルネットワーク(GNN)を大規模に攻撃し,防御する方法を研究する。
効率のよい表現を維持するために,2つのスパシティ対応一階最適化攻撃を提案する。
GNNに対する世界的な攻撃には、一般的なサロゲート損失が適していないことを示す。
論文 参考訳(メタデータ) (2021-10-26T21:31:17Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Uncertainty-Matching Graph Neural Networks to Defend Against Poisoning
Attacks [43.60973654460398]
グラフニューラルネットワーク(GNN)は、ニューラルネットワークからグラフ構造化データへの一般化である。
GNNは敵の攻撃に弱い、すなわち、構造に対する小さな摂動は、非自明な性能劣化を引き起こす可能性がある。
本稿では,GNNモデルの堅牢性向上を目的とした不確実性マッチングGNN(UM-GNN)を提案する。
論文 参考訳(メタデータ) (2020-09-30T05:29:42Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。