論文の概要: Randomized Message-Interception Smoothing: Gray-box Certificates for
Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2301.02039v1
- Date: Thu, 5 Jan 2023 12:21:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-06 14:27:51.704825
- Title: Randomized Message-Interception Smoothing: Gray-box Certificates for
Graph Neural Networks
- Title(参考訳): ランダム化メッセージインターセプション平滑化:グラフニューラルネットワーク用グレーボックス証明書
- Authors: Yan Scholten, Jan Schuchardt, Simon Geisler, Aleksandar Bojchevski,
Stephan G\"unnemann
- Abstract要約: グラフニューラルネットワーク(GNN)のための新しいグレーボックス証明書を提案する。
我々はランダムにメッセージを傍受し、敵に制御されたノードからのメッセージがターゲットノードに到達する確率を分析する。
我々の証明書は、より遠くからの攻撃に対してより強力な保証を提供する。
- 参考スコア(独自算出の注目度): 68.4543263023324
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Randomized smoothing is one of the most promising frameworks for certifying
the adversarial robustness of machine learning models, including Graph Neural
Networks (GNNs). Yet, existing randomized smoothing certificates for GNNs are
overly pessimistic since they treat the model as a black box, ignoring the
underlying architecture. To remedy this, we propose novel gray-box certificates
that exploit the message-passing principle of GNNs: We randomly intercept
messages and carefully analyze the probability that messages from adversarially
controlled nodes reach their target nodes. Compared to existing certificates,
we certify robustness to much stronger adversaries that control entire nodes in
the graph and can arbitrarily manipulate node features. Our certificates
provide stronger guarantees for attacks at larger distances, as messages from
farther-away nodes are more likely to get intercepted. We demonstrate the
effectiveness of our method on various models and datasets. Since our gray-box
certificates consider the underlying graph structure, we can significantly
improve certifiable robustness by applying graph sparsification.
- Abstract(参考訳): ランダム化スムーシング(Randomized smoothing)は、グラフニューラルネットワーク(GNN)を含む機械学習モデルの対角的堅牢性を証明する最も有望なフレームワークの1つである。
しかし、GNNの既存のランダム化スムース化証明書は、モデルをブラックボックスとして扱い、基盤となるアーキテクチャを無視しているため、悲観的すぎる。
メッセージをランダムにインターセプトし、敵に制御されたノードからのメッセージがターゲットノードに到達する確率を慎重に分析する。
既存の証明書と比較して、グラフ内のノード全体を制御し、任意のノード機能を操作できる強力な敵に対して、堅牢性を確認します。
我々の証明書は、遠く離れたノードからのメッセージが傍受される可能性が高いため、より大規模な攻撃に対してより強力な保証を提供する。
各種モデルとデータセットにおける本手法の有効性を示す。
グレーボックス証明書は基本となるグラフ構造を考慮するので、グラフスパーシフィケーションを適用することで、検証可能な堅牢性を大幅に向上できます。
関連論文リスト
- Learning Scalable Structural Representations for Link Prediction with
Bloom Signatures [39.63963077346406]
グラフニューラルネットワーク(GNN)は、リンク予測タスクでサブ最適に実行されることが知られている。
本稿では,Bloomシグネチャを用いたGNNのメッセージパッシングフレームワークを拡張し,構造的リンク表現の学習を提案する。
提案モデルでは,既存のエッジワイドGNNモデルと同等あるいは優れた性能を実現している。
論文 参考訳(メタデータ) (2023-12-28T02:21:40Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - CONVERT:Contrastive Graph Clustering with Reliable Augmentation [110.46658439733106]
信頼性オーグメンテーション(CONVERT)を用いたContrastiVe Graph ClustEringネットワークを提案する。
本手法では,データ拡張を可逆的パーターブ・リカバリネットワークにより処理する。
セマンティクスの信頼性をさらに保証するために、ネットワークを制約する新たなセマンティクス損失が提示される。
論文 参考訳(メタデータ) (2023-08-17T13:07:09Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - Refined Edge Usage of Graph Neural Networks for Edge Prediction [51.06557652109059]
We propose a novel edge prediction paradigm named Edge-aware Message PassIng neuRal nEtworks (EMPIRE)。
まず,各エッジをトポロジや監督のためにのみ使用するエッジ分割手法を提案する。
監視エッジで接続されたペアと接続されていないペアの差を強調するために、さらにメッセージを重み付けして、その差を反映できる相対的なペアを強調します。
論文 参考訳(メタデータ) (2022-12-25T23:19:56Z) - Sparse Vicious Attacks on Graph Neural Networks [3.246307337376473]
この研究は、GNNベースのリンク予測モデルに対する特定のホワイトボックス攻撃に焦点を当てている。
本稿では,このタイプのリンク予測攻撃をマウントする新しいフレームワークと手法であるSAVAGEを提案する。
実世界のデータセットと合成データセットを用いて行った実験は、SAVAGEを通じて実施された敵攻撃が実際に高い攻撃成功率を達成することを示した。
論文 参考訳(メタデータ) (2022-09-20T12:51:24Z) - SoftEdge: Regularizing Graph Classification with Random Soft Edges [18.165965620873745]
グラフデータ拡張はグラフニューラルネットワーク(GNN)の正規化において重要な役割を果たす
単純なエッジとノード操作は、同じ構造を持つグラフや、GNNをメッセージパッシングするための区別できない構造を生成することができる。
我々は,任意のグラフのエッジの一部にランダムな重みを割り当てて,そのグラフ上の動的近傍を構築するSoftEdgeを提案する。
論文 参考訳(メタデータ) (2022-04-21T20:12:36Z) - Black-box Node Injection Attack for Graph Neural Networks [29.88729779937473]
被害者のGNNモデルを回避するためにノードを注入する可能性について検討する。
具体的には,グラフ強化学習フレームワークGA2Cを提案する。
本稿では,既存の最先端手法よりもGA2Cの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-02-18T19:17:43Z) - Efficient Robustness Certificates for Discrete Data: Sparsity-Aware
Randomized Smoothing for Graphs, Images and More [85.52940587312256]
本稿では,初期作業を想定したランダム化平滑化フレームワークに基づくモデル非依存の証明書を提案する。
このアプローチがさまざまなモデル、データセット、タスクに対して有効であることを示します。
論文 参考訳(メタデータ) (2020-08-29T10:09:02Z) - Learning Node Representations against Perturbations [21.66982904572156]
近年のグラフニューラルネットワーク (GNN) はノード表現学習において顕著な性能を発揮している。
GNNにおける摂動に対するノード表現の学習方法について検討する。
本稿では,信頼度の高いノード表現を教師なしで学習するSIGNNAP(Stable-Identifiability GNN Against Perturbations)を提案する。
論文 参考訳(メタデータ) (2020-08-26T07:11:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。