論文の概要: Inferring Properties of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2401.03790v1
- Date: Mon, 8 Jan 2024 10:17:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-09 16:57:28.889822
- Title: Inferring Properties of Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークの推論特性
- Authors: Dat Nguyen (1), Hieu M. Vu (2), Cong-Thanh Le (1), Bach Le (1), David
Lo (4), Corina Pasareanu (5) ((1) University of Melbourne, (2) Independent
Researcher, (3) George Mason University, (4) Singapore Management University,
(5) Carnegie Mellon University)
- Abstract要約: GNNにおける最初の自動プロパティ推論手法であるGNNInferを提案する。
GNNInferはまず、GNNの予測に大きく貢献する代表的影響力のある構造の集合を識別する。
我々は、GNNInferが、人気のある現実世界のGNNの潜在的な特性を推測するのに効果的であることを示し、さらに、これらの特性がGNNのバックドア攻撃を効果的に防御するのに役立ちます。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose GNNInfer, the first automatic property inference technique for
GNNs. To tackle the challenge of varying input structures in GNNs, GNNInfer
first identifies a set of representative influential structures that contribute
significantly towards the prediction of a GNN. Using these structures, GNNInfer
converts each pair of an influential structure and the GNN to their equivalent
FNN and then leverages existing property inference techniques to effectively
capture properties of the GNN that are specific to the influential structures.
GNNINfer then generalizes the captured properties to any input graphs that
contain the influential structures. Finally, GNNInfer improves the correctness
of the inferred properties by building a model (either a decision tree or
linear regression) that estimates the deviation of GNN output from the inferred
properties given full input graphs. The learned model helps GNNInfer extend the
inferred properties with constraints to the input and output of the GNN,
obtaining stronger properties that hold on full input graphs.
Our experiments show that GNNInfer is effective in inferring likely
properties of popular real-world GNNs, and more importantly, these inferred
properties help effectively defend against GNNs' backdoor attacks. In
particular, out of the 13 ground truth properties, GNNInfer re-discovered 8
correct properties and discovered likely correct properties that approximate
the remaining 5 ground truth properties. Using properties inferred by GNNInfer
to defend against the state-of-the-art backdoor attack technique on GNNs,
namely UGBA, experiments show that GNNInfer's defense success rate is up to 30
times better than existing baselines.
- Abstract(参考訳): GNNにおける最初の自動プロパティ推論手法であるGNNInferを提案する。
GNNにおける入力構造の変化に対処するため、GNNInferはまず、GNNの予測に大きく貢献する代表的影響力を持つ構造の集合を同定する。
これらの構造を用いて、gnninferは、影響のある構造とgnnの各対を等価なfnnに変換し、既存のプロパティ推論技術を利用して、影響のある構造に特有のgnnのプロパティを効果的にキャプチャする。
GNNINferは取得したプロパティを、影響力のある構造を含む任意の入力グラフに一般化する。
最後に、GNNInferは、完全な入力グラフが与えられた推論特性からGNN出力の偏差を推定するモデル(決定木または線形回帰)を構築することにより、推論特性の正しさを改善する。
学習モデルは、GNNInferがGNNの入力と出力に制約のある推論プロパティを拡張し、完全な入力グラフを保持する強いプロパティを得るのに役立つ。
我々の実験は、GNNInferが、人気のある現実世界のGNNの潜在的な特性を推測するのに効果的であることを示し、さらに重要なのは、これらの特性がGNNのバックドア攻撃を効果的に防御するのに役立ちます。
特に、13の基底真理特性のうち、GNNInferは8つの正しい性質を再発見し、残りの5つの基底真理特性を近似するおそらく正しい性質を発見した。
GNNInferが推定したプロパティを使用して、GNNの最先端のバックドア攻撃テクニック、すなわちUGBAを防御する実験により、GNNInferの防衛成功率は、既存のベースラインの最大30倍であることが示された。
関連論文リスト
- Is Graph Convolution Always Beneficial For Every Feature? [14.15740180531667]
The Topological Feature Informativeness (TFI) is a novel metric to distinguish between GNN-favored and GNN-favored features。
本稿では,GNNとGNNが好む特徴を別々に処理する簡易かつ効果的なグラフ特徴選択法を提案する。
論文 参考訳(メタデータ) (2024-11-12T09:28:55Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - GNN-Ensemble: Towards Random Decision Graph Neural Networks [3.7620848582312405]
グラフニューラルネットワーク(GNN)は、グラフ構造化データに広く応用されている。
GNNは、大量のテストデータに基づいて推論を行うために、限られた量のトレーニングデータから潜伏パターンを学習する必要がある。
本稿では、GNNのアンサンブル学習を一歩前進させ、精度、堅牢性、敵攻撃を改善した。
論文 参考訳(メタデータ) (2023-03-20T18:24:01Z) - Graph Neural Networks are Inherently Good Generalizers: Insights by
Bridging GNNs and MLPs [71.93227401463199]
本稿では、P(ropagational)MLPと呼ばれる中間モデルクラスを導入することにより、GNNの性能向上を本質的な能力に向ける。
PMLPは、トレーニングにおいてはるかに効率的でありながら、GNNと同等(あるいはそれ以上)に動作することを観察する。
論文 参考訳(メタデータ) (2022-12-18T08:17:32Z) - Optimization of Graph Neural Networks: Implicit Acceleration by Skip
Connections and More Depth [57.10183643449905]
グラフニューラルネットワーク(GNN)は表現力と一般化のレンズから研究されている。
GNNのダイナミクスを深部スキップ最適化により研究する。
本研究は,GNNの成功に対する最初の理論的支援を提供する。
論文 参考訳(メタデータ) (2021-05-10T17:59:01Z) - The Surprising Power of Graph Neural Networks with Random Node
Initialization [54.4101931234922]
グラフニューラルネットワーク(GNN)は、関係データ上での表現学習に有効なモデルである。
標準 GNN はその表現力に制限があり、Weisfeiler-Leman グラフ同型(英語版)の能力以外の区別はできない。
本研究では,ランダムノード(RNI)を用いたGNNの表現力の解析を行う。
我々はこれらのモデルが普遍的であることを証明し、GNNが高次特性の計算に頼らない最初の結果である。
論文 参考訳(メタデータ) (2020-10-02T19:53:05Z) - GPT-GNN: Generative Pre-Training of Graph Neural Networks [93.35945182085948]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングにおいて強力であることが示されている。
生成事前学習によりGNNを初期化するためのGPT-GNNフレームワークを提案する。
GPT-GNNは、様々な下流タスクにおいて、事前トレーニングを最大9.1%行うことなく、最先端のGNNモデルを大幅に上回ることを示す。
論文 参考訳(メタデータ) (2020-06-27T20:12:33Z) - Eigen-GNN: A Graph Structure Preserving Plug-in for GNNs [95.63153473559865]
グラフニューラルネットワーク(GNN)は、グラフ上の新たな機械学習モデルである。
既存のGNNモデルの多くは浅く、本質的に機能中心である。
我々は,既存の浅いGNNがグラフ構造をよく保存できないことを経験的かつ解析的に示す。
本稿では,グラフ構造保存におけるGNNの能力を高めるプラグインモジュールであるEigen-GNNを提案する。
論文 参考訳(メタデータ) (2020-06-08T02:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。