論文の概要: Editable Graph Neural Network for Node Classifications
- arxiv url: http://arxiv.org/abs/2305.15529v1
- Date: Wed, 24 May 2023 19:35:42 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-26 18:49:04.637039
- Title: Editable Graph Neural Network for Node Classifications
- Title(参考訳): ノード分類のための編集可能なグラフニューラルネットワーク
- Authors: Zirui Liu, Zhimeng Jiang, Shaochen Zhong, Kaixiong Zhou, Li Li, Rui
Chen, Soo-Hyun Choi, Xia Hu
- Abstract要約: 本稿では,アンダーライン編集可能なアンダーライングラフ (UnderlineEditable UnderlineGraph underlineNeural UnderlineNetworks (EGNN) を提案する。
EGNNは、モデル編集中にGNNの重みが凍結される基礎となるGNNを単純に縫う。
- 参考スコア(独自算出の注目度): 43.39295712456175
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite Graph Neural Networks (GNNs) have achieved prominent success in many
graph-based learning problem, such as credit risk assessment in financial
networks and fake news detection in social networks. However, the trained GNNs
still make errors and these errors may cause serious negative impact on
society. \textit{Model editing}, which corrects the model behavior on wrongly
predicted target samples while leaving model predictions unchanged on unrelated
samples, has garnered significant interest in the fields of computer vision and
natural language processing. However, model editing for graph neural networks
(GNNs) is rarely explored, despite GNNs' widespread applicability. To fill the
gap, we first observe that existing model editing methods significantly
deteriorate prediction accuracy (up to $50\%$ accuracy drop) in GNNs while a
slight accuracy drop in multi-layer perception (MLP). The rationale behind this
observation is that the node aggregation in GNNs will spread the editing effect
throughout the whole graph. This propagation pushes the node representation far
from its original one. Motivated by this observation, we propose
\underline{E}ditable \underline{G}raph \underline{N}eural \underline{N}etworks
(EGNN), a neighbor propagation-free approach to correct the model prediction on
misclassified nodes. Specifically, EGNN simply stitches an MLP to the
underlying GNNs, where the weights of GNNs are frozen during model editing. In
this way, EGNN disables the propagation during editing while still utilizing
the neighbor propagation scheme for node prediction to obtain satisfactory
results. Experiments demonstrate that EGNN outperforms existing baselines in
terms of effectiveness (correcting wrong predictions with lower accuracy drop),
generalizability (correcting wrong predictions for other similar nodes), and
efficiency (low training time and memory) on various graph datasets.
- Abstract(参考訳): グラフニューラルネットワーク(gnns)は、金融ネットワークにおける信用リスク評価やソーシャルネットワークにおける偽ニュース検出など、多くのグラフベースの学習問題で顕著な成功を収めている。
しかし、訓練されたGNNは依然として誤りを犯し、これらの誤りは社会に重大な悪影響を及ぼす可能性がある。
間違った予測対象のサンプルに対するモデルの振る舞いを補正する \textit{model editing} は、関係のないサンプルではモデル予測を変更せず、コンピュータビジョンや自然言語処理の分野で大きな関心を集めている。
しかし、グラフニューラルネットワーク(GNN)のモデル編集は、GNNの広範な適用性にもかかわらず、ほとんど研究されていない。
このギャップを埋めるために、既存のモデル編集手法がGNNの予測精度を著しく低下させ(最大50\%の精度低下)、多層認識(MLP)ではわずかに精度低下することを示した。
この観察の背景にある理論的根拠は、GNNのノード集約がグラフ全体に編集効果を広げるということである。
この伝播はノード表現を元の表現から遠くまで押し上げる。
本研究の目的は,非正規化ノード上でのモデル予測を補正するための,近傍の伝搬自由アプローチである \underline{E}ditable \underline{G}raph \underline{N}eural \underline{N}etworks (EGNN) を提案することである。
具体的には、EGNNは、モデル編集中にGNNの重みが凍結される、下層のGNNにMPPを縫い付ける。
このようにして、EGNNは、ノード予測に隣接する伝搬スキームを利用して編集中の伝搬を無効にし、良好な結果を得る。
実験によると、EGNNは既存のベースラインよりも、有効性(精度低下の予測の誤りの修正)、一般化可能性(他の類似ノードの誤予測の修正)、各種グラフデータセットの効率性(トレーニング時間とメモリの低下)が優れている。
関連論文リスト
- Gradient Rewiring for Editable Graph Neural Network Training [84.77778876113099]
underlineGradient underlineRewiringメソッドは、textbfGREという、アンダーライン編集可能なグラフニューラルネットワークトレーニングのためのものだ。
そこで本稿では,textbfGRE という名前のアンダーライン編集可能なグラフニューラルネットワークトレーニングのための,シンプルで効果的なアンダーライングラディエントアンダーラインリスイッチ法を提案する。
論文 参考訳(メタデータ) (2024-10-21T01:01:50Z) - RoCP-GNN: Robust Conformal Prediction for Graph Neural Networks in Node-Classification [0.0]
グラフニューラルネットワーク(GNN)は、グラフ構造化データの結果を予測する強力なツールとして登場した。
この問題に対処する一つの方法は、事前に定義された確率マージンを持つ真のラベルを含む予測セットを提供することである。
我々は,GNNに対するロバスト・コンフォーマル予測(RoCP-GNN)と呼ばれる新しい手法を提案する。
我々のアプローチはグラフベース半教師付き学習(SSL)の領域における予測の不確実性を定量化しながら、任意の予測的GNNモデルで結果を確実に予測する。
論文 参考訳(メタデータ) (2024-08-25T12:51:19Z) - In-n-Out: Calibrating Graph Neural Networks for Link Prediction [22.729733086532875]
グラフニューラルネットワーク(GNN)は、負の予測では過信であり、正の予測では過信であることを示す。
リンク予測のためにGNNを校正する最初の方法であるIN-N-OUTを提案する。
論文 参考訳(メタデータ) (2024-03-07T15:54:46Z) - GNNEvaluator: Evaluating GNN Performance On Unseen Graphs Without Labels [81.93520935479984]
本稿では,ラベル付きおよび観測されたグラフに基づいて学習した特定のGNNモデルの性能を評価することを目的とした,新しい問題であるGNNモデル評価について検討する。
本稿では,(1) DiscGraph セット構築と(2) GNNEvaluator トレーニングと推論を含む2段階の GNN モデル評価フレームワークを提案する。
DiscGraphセットからの効果的なトレーニング監督の下で、GNNEvaluatorは、評価対象であるGNNモデルのノード分類精度を正確に推定することを学ぶ。
論文 参考訳(メタデータ) (2023-10-23T05:51:59Z) - Interpreting Unfairness in Graph Neural Networks via Training Node
Attribution [46.384034587689136]
本稿では,GNNの不公平さを学習ノードの影響によって解釈する新たな問題について検討する。
具体的には,GNNに現れるバイアスを測定するために,確率分布分散(PDD)という新しい手法を提案する。
PDDの有効性と実世界のデータセットを用いた実験による影響評価の有効性を検証する。
論文 参考訳(メタデータ) (2022-11-25T21:52:30Z) - On Structural Explanation of Bias in Graph Neural Networks [40.323880315453906]
グラフニューラルネットワーク (GNN) は, 様々なグラフ解析問題において, 満足度の高い性能を示す。
GNNは特定の人口集団に対して偏見のある結果をもたらす可能性がある。
本稿では,GNNにおけるバイアスの構造的説明に関する新しい研究課題について検討する。
論文 参考訳(メタデータ) (2022-06-24T06:49:21Z) - Network In Graph Neural Network [9.951298152023691]
本稿では,任意のGNNモデルに対して,モデルをより深くすることでモデル容量を増大させるモデルに依存しない手法を提案する。
GNNレイヤの追加や拡張の代わりに、NGNNは、各GNNレイヤに非線形フィードフォワードニューラルネットワーク層を挿入することで、GNNモデルを深めている。
論文 参考訳(メタデータ) (2021-11-23T03:58:56Z) - Shift-Robust GNNs: Overcoming the Limitations of Localized Graph
Training data [52.771780951404565]
Shift-Robust GNN (SR-GNN) は、バイアス付きトレーニングデータとグラフの真の推論分布の分布差を考慮に入れた設計である。
SR-GNNが他のGNNベースラインを精度良く上回り、バイアス付きトレーニングデータから生じる負の効果の少なくとも40%を排除していることを示す。
論文 参考訳(メタデータ) (2021-08-02T18:00:38Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。