論文の概要: Graph Unlearning with Efficient Partial Retraining
- arxiv url: http://arxiv.org/abs/2403.07353v2
- Date: Wed, 13 Mar 2024 04:43:23 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 10:59:22.216341
- Title: Graph Unlearning with Efficient Partial Retraining
- Title(参考訳): 部分的学習を効果的に行うグラフアンラーニング
- Authors: Jiahao Zhang, Lin Wang, Shijie Wang, Wenqi Fan
- Abstract要約: グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
GNNは、望ましくないグラフデータに基づいてトレーニングされ、パフォーマンスと信頼性を低下させることができる。
学習不能なGNNのモデルユーティリティをよりよく維持するグラフアンラーニングフレームワークであるGraphRevokerを提案する。
- 参考スコア(独自算出の注目度): 28.433619085748447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) have achieved remarkable success in various
real-world applications. However, GNNs may be trained on undesirable graph
data, which can degrade their performance and reliability. To enable trained
GNNs to efficiently unlearn unwanted data, a desirable solution is
retraining-based graph unlearning, which partitions the training graph into
subgraphs and trains sub-models on them, allowing fast unlearning through
partial retraining. However, the graph partition process causes information
loss in the training graph, resulting in the low model utility of sub-GNN
models. In this paper, we propose GraphRevoker, a novel graph unlearning
framework that better maintains the model utility of unlearnable GNNs.
Specifically, we preserve the graph property with graph property-aware sharding
and effectively aggregate the sub-GNN models for prediction with graph
contrastive sub-model aggregation. We conduct extensive experiments to
demonstrate the superiority of our proposed approach.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションで顕著な成功を収めている。
しかし、GNNは望ましくないグラフデータに基づいて訓練され、パフォーマンスと信頼性が低下する可能性がある。
トレーニングされたGNNが望ましくないデータを効率的に解けるようにするために、トレーニンググラフをサブグラフに分割し、サブモデルをトレーニングし、部分的なリトレーニングを通じて高速なアンラーニングを可能にする、リトレーニングベースのグラフアンラーニングが望ましいソリューションである。
しかし、グラフ分割プロセスはトレーニンググラフに情報損失をもたらし、結果としてサブGNNモデルの低モデルの有用性をもたらす。
本稿では,学習不能なGNNのモデルユーティリティをよりよく維持するグラフアンラーニングフレームワークであるGraphRevokerを提案する。
具体的には,グラフ特性を考慮したシャーディングを用いてグラフ特性を保存し,グラフコントラッシブなサブモデルアグリゲーションを用いた予測のためのサブGNNモデルを効果的に集約する。
提案手法の優位性を実証するための広範な実験を行う。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - SizeShiftReg: a Regularization Method for Improving Size-Generalization
in Graph Neural Networks [5.008597638379227]
グラフニューラルネットワーク(GNN)は,グラフ分類のデファクトモデルとなっている。
テストデータへのアクセスを必要とせずに,任意のGNNに適用可能な正規化戦略を提案する。
我々の正規化は、粗い手法を用いてトレーニンググラフのサイズの変化をシミュレートする考え方に基づいている。
論文 参考訳(メタデータ) (2022-07-16T09:50:45Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - OOD-GNN: Out-of-Distribution Generalized Graph Neural Network [73.67049248445277]
グラフニューラルネットワーク(GNN)は、グラフデータのテストとトレーニングを同一の分布から行うことで、優れたパフォーマンスを実現している。
既存のGNNでは、テストとグラフデータのトレーニングの間に分散シフトが存在する場合、その性能が著しく低下する。
本稿では,学習グラフと異なる分布を持つ未確認試験グラフに対して,満足な性能を実現するために,アウト・オブ・ディストリビューション一般化グラフニューラルネットワーク(OOD-GNN)を提案する。
論文 参考訳(メタデータ) (2021-12-07T16:29:10Z) - Increase and Conquer: Training Graph Neural Networks on Growing Graphs [116.03137405192356]
本稿では,このグラフからBernoulliをサンプリングしたグラフ上でGNNをトレーニングすることで,WNN(Graphon Neural Network)を学習する問題を考察する。
これらの結果から着想を得た大規模グラフ上でGNNを学習するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-06-07T15:05:59Z) - Training Robust Graph Neural Networks with Topology Adaptive Edge
Dropping [116.26579152942162]
グラフニューラルネットワーク(GNN)は、グラフ構造情報を利用してネットワークデータから表現をモデル化する処理アーキテクチャである。
彼らの成功にもかかわらず、GNNは限られた訓練データから得られる準最適一般化性能に悩まされている。
本稿では、一般化性能を改善し、堅牢なGNNモデルを学習するためのトポロジ適応エッジドロップ法を提案する。
論文 参考訳(メタデータ) (2021-06-05T13:20:36Z) - GraphTheta: A Distributed Graph Neural Network Learning System With
Flexible Training Strategy [5.466414428765544]
新しい分散グラフ学習システムGraphThetaを紹介します。
複数のトレーニング戦略をサポートし、大規模グラフ上で効率的でスケーラブルな学習を可能にします。
この仕事は、文学における10億規模のネットワーク上で実施された最大のエッジアトリビュートGNN学習タスクを表します。
論文 参考訳(メタデータ) (2021-04-21T14:51:33Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。