論文の概要: Randomized Message-Interception Smoothing: Gray-box Certificates for
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2301.02039v1
- Date: Thu, 5 Jan 2023 12:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:27:51.704825
- Title: Randomized Message-Interception Smoothing: Gray-box Certificates for
Graph Neural Networks
- Title(参考訳): ランダム化メッセージインターセプション平滑化:グラフニューラルネットワーク用グレーボックス証明書
- Authors: Yan Scholten, Jan Schuchardt, Simon Geisler, Aleksandar Bojchevski,
Stephan G\"unnemann
- Abstract要約: グラフニューラルネットワーク(GNN)のための新しいグレーボックス証明書を提案する。
我々はランダムにメッセージを傍受し、敵に制御されたノードからのメッセージがターゲットノードに到達する確率を分析する。
我々の証明書は、より遠くからの攻撃に対してより強力な保証を提供する。
- 参考スコア(独自算出の注目度): 68.4543263023324
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Randomized smoothing is one of the most promising frameworks for certifying
the adversarial robustness of machine learning models, including Graph Neural
Networks (GNNs). Yet, existing randomized smoothing certificates for GNNs are
overly pessimistic since they treat the model as a black box, ignoring the
underlying architecture. To remedy this, we propose novel gray-box certificates
that exploit the message-passing principle of GNNs: We randomly intercept
messages and carefully analyze the probability that messages from adversarially
controlled nodes reach their target nodes. Compared to existing certificates,
we certify robustness to much stronger adversaries that control entire nodes in
the graph and can arbitrarily manipulate node features. Our certificates
provide stronger guarantees for attacks at larger distances, as messages from
farther-away nodes are more likely to get intercepted. We demonstrate the
effectiveness of our method on various models and datasets. Since our gray-box
certificates consider the underlying graph structure, we can significantly
improve certifiable robustness by applying graph sparsification.
- Abstract(参考訳): ランダム化スムーシング(Randomized smoothing)は、グラフニューラルネットワーク(GNN)を含む機械学習モデルの対角的堅牢性を証明する最も有望なフレームワークの1つである。
しかし、GNNの既存のランダム化スムース化証明書は、モデルをブラックボックスとして扱い、基盤となるアーキテクチャを無視しているため、悲観的すぎる。
メッセージをランダムにインターセプトし、敵に制御されたノードからのメッセージがターゲットノードに到達する確率を慎重に分析する。
既存の証明書と比較して、グラフ内のノード全体を制御し、任意のノード機能を操作できる強力な敵に対して、堅牢性を確認します。
我々の証明書は、遠く離れたノードからのメッセージが傍受される可能性が高いため、より大規模な攻撃に対してより強力な保証を提供する。
各種モデルとデータセットにおける本手法の有効性を示す。
グレーボックス証明書は基本となるグラフ構造を考慮するので、グラフスパーシフィケーションを適用することで、検証可能な堅牢性を大幅に向上できます。
関連論文リスト
- Provable Robustness of (Graph) Neural Networks Against Data Poisoning and Backdoor Attacks [50.87615167799367]
グラフニューラルネットワーク(GNN)は、特定のグラフのノード特徴をターゲットとして、バックドアを含む有毒な攻撃に対して認証する。
コンボリューションベースのGNNとPageRankベースのGNNの最悪の動作におけるグラフ構造の役割とその接続性に関する基本的な知見を提供する。
論文 参考訳(メタデータ) (2024-07-15T16:12:51Z) - ADEdgeDrop: Adversarial Edge Dropping for Robust Graph Neural Networks [53.41164429486268]
グラフニューラルネットワーク(GNN)は、近隣ノードからグラフ構造化情報を収集する強力な能力を示した。
GNNの性能は、ノイズや冗長なグラフデータによって引き起こされる一般化の貧弱さと脆弱な堅牢性によって制限される。
本稿では,エッジの除去を誘導する対向エッジ予測器を利用する新しい対向エッジドロップ法 (ADEdgeDrop) を提案する。
論文 参考訳(メタデータ) (2024-03-14T08:31:39Z) - Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Learning Node Representations against Perturbations [21.66982904572156]
近年のグラフニューラルネットワーク (GNN) はノード表現学習において顕著な性能を発揮している。
GNNにおける摂動に対するノード表現の学習方法について検討する。
本稿では,信頼度の高いノード表現を教師なしで学習するSIGNNAP(Stable-Identifiability GNN Against Perturbations)を提案する。
論文 参考訳(メタデータ) (2020-08-26T07:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。