論文の概要: GNNDelete: A General Strategy for Unlearning in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2302.13406v1
- Date: Sun, 26 Feb 2023 21:04:53 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-28 17:16:57.705014
- Title: GNNDelete: A General Strategy for Unlearning in Graph Neural Networks
- Title(参考訳): GNNDelete: グラフニューラルネットワークにおけるアンラーニングの一般的な戦略
- Authors: Jiali Cheng, George Dasoulas, Huan He, Chirag Agarwal, Marinka Zitnik
- Abstract要約: グラフアンラーニングには、ノード、ノードラベル、トレーニングされたグラフニューラルネットワーク(GNN)モデルからのリレーションなどのグラフ要素の削除が含まれる。
GNNDeleteは、2つの重要な特性、すなわちDeleted Edge ConsistencyとNeighborhood Influenceを最適化する新しいモデル非依存層演算子である。
GNNDeleteは、エッジ、ノード、ノードの特徴削除タスクで38.8%(AUC)、削除されたエッジと非削除されたエッジを区別する32.2%で、既存のアプローチを上回っている。
- 参考スコア(独自算出の注目度): 17.803840691445906
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Graph unlearning, which involves deleting graph elements such as nodes, node
labels, and relationships from a trained graph neural network (GNN) model, is
crucial for real-world applications where data elements may become irrelevant,
inaccurate, or privacy-sensitive. However, existing methods for graph
unlearning either deteriorate model weights shared across all nodes or fail to
effectively delete edges due to their strong dependence on local graph
neighborhoods. To address these limitations, we introduce GNNDelete, a novel
model-agnostic layer-wise operator that optimizes two critical properties,
namely, Deleted Edge Consistency and Neighborhood Influence, for graph
unlearning. Deleted Edge Consistency ensures that the influence of deleted
elements is removed from both model weights and neighboring representations,
while Neighborhood Influence guarantees that the remaining model knowledge is
preserved after deletion. GNNDelete updates representations to delete nodes and
edges from the model while retaining the rest of the learned knowledge. We
conduct experiments on seven real-world graphs, showing that GNNDelete
outperforms existing approaches by up to 38.8% (AUC) on edge, node, and node
feature deletion tasks, and 32.2% on distinguishing deleted edges from
non-deleted ones. Additionally, GNNDelete is efficient, taking 12.3x less time
and 9.3x less space than retraining GNN from scratch on WordNet18.
- Abstract(参考訳): ノード、ノードラベル、関係などのグラフ要素をトレーニングされたグラフニューラルネットワーク(gnn)モデルから削除することを含むグラフアンラーニングは、データ要素が無関係、不正確、あるいはプライバシに敏感な現実のアプリケーションにとって極めて重要である。
しかしながら、既存のグラフアンラーニング手法では、すべてのノードで共有されるモデルの重み付けを劣化させるか、ローカルなグラフ近傍に依存するためエッジを効果的に削除できない。
これらの制約に対処するため、グラフアンラーニングのために、Deleted Edge ConsistencyとNeighborhood Influenceという2つの重要な特性を最適化する新しいモデル非依存層演算子であるGNNDeleteを導入する。
削除エッジ一貫性(Deleted Edge Consistency)は、削除された要素の影響がモデルウェイトと近隣表現の両方から除去されることを保証する。
GNNDeleteは、学習した知識の残りを保持しながら、モデルからノードとエッジを削除する表現を更新する。
GNNDeleteは、エッジ、ノード、ノードの特徴削除タスクにおいて、最大38.8%(AUC)で既存のアプローチを上回り、非削除エッジと削除エッジを区別する32.2%の性能を示す。
さらに、GNNDeleteは、WordNet18上でGNNをスクラッチからトレーニングするよりも、12.3倍、9.3倍の時間を要する。
関連論文リスト
- Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck [5.707725771108279]
本稿では,CGRL (Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck) を用いたノード分類手法を提案する。
提案手法は既存の最先端アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T05:45:21Z) - Deep Manifold Graph Auto-Encoder for Attributed Graph Embedding [51.75091298017941]
本稿では,属性付きグラフデータに対する新しいDeep Manifold (Variational) Graph Auto-Encoder (DMVGAE/DMGAE)を提案する。
提案手法は,最先端のベースラインアルゴリズムを,一般的なデータセット間でのダウンストリームタスクの差を大きく越える。
論文 参考訳(メタデータ) (2024-01-12T17:57:07Z) - Efficient Link Prediction via GNN Layers Induced by Negative Sampling [92.05291395292537]
リンク予測のためのグラフニューラルネットワーク(GNN)は、緩やかに2つの広いカテゴリに分けられる。
まず、Emphnode-wiseアーキテクチャは各ノードの個別の埋め込みをプリコンパイルし、後に単純なデコーダで結合して予測を行う。
第二に、エンフェッジワイド法は、ペアワイド関係の表現を強化するために、エッジ固有のサブグラフ埋め込みの形成に依存している。
論文 参考訳(メタデータ) (2023-10-14T07:02:54Z) - Distill to Delete: Unlearning in Graph Networks with Knowledge Distillation [10.335361310419826]
グラフアンラーニングは、事前学習されたグラフニューラルネットワーク(GNN)から情報を削除するための重要な方法である
我々の研究は、知識蒸留によるグラフアンラーニングにおけるこれらの課題に、GNN(D2DGN)で除去する新たなアプローチを採っている。
D2DGNは、エッジおよびノードアンラーニングタスクにおいて、様々な実世界のグラフデータセットで評価された場合、既存のメソッドのパフォーマンスを最大43.1%(AUC)まで上回る。
論文 参考訳(メタデータ) (2023-09-28T05:09:14Z) - BOURNE: Bootstrapped Self-supervised Learning Framework for Unified
Graph Anomaly Detection [50.26074811655596]
自己指導型自己学習(BOURNE)に基づく新しい統合グラフ異常検出フレームワークを提案する。
ノードとエッジ間のコンテキスト埋め込みを交換することで、ノードとエッジの異常を相互に検出できる。
BOURNEは、負のサンプリングを必要としないため、大きなグラフを扱う際の効率を高めることができる。
論文 参考訳(メタデータ) (2023-07-28T00:44:57Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Are All Edges Necessary? A Unified Framework for Graph Purification [6.795209119198288]
グラフのすべてのエッジが機械学習モデルのトレーニングに必要ではない。
本稿では,新たな視点からグラフデータを浄化するために,エッジをドロップする手法を提案する。
論文 参考訳(メタデータ) (2022-11-09T20:28:25Z) - Position-based Hash Embeddings For Scaling Graph Neural Networks [8.87527266373087]
グラフニューラルネットワーク(GNN)は、ノードのエゴネットワークのトポロジとエゴネットワークのノードの特徴を考慮したノード表現を演算する。
ノードが高品質な機能を持っていない場合、GNNはノードの埋め込みを計算するために埋め込み層を学び、それらを入力機能として使用する。
この埋め込みレイヤに関連するメモリを削減するため、NLPやレコメンダシステムのようなアプリケーションで一般的に使用されるハッシュベースのアプローチが利用可能である。
本稿では,グラフ内のノードの位置を利用して,必要なメモリを大幅に削減する手法を提案する。
論文 参考訳(メタデータ) (2021-08-31T22:42:25Z) - CatGCN: Graph Convolutional Networks with Categorical Node Features [99.555850712725]
CatGCNはグラフ学習に適したノード機能である。
エンドツーエンドでCatGCNを訓練し、半教師付きノード分類でそれを実証する。
論文 参考訳(メタデータ) (2020-09-11T09:25:17Z) - CAGNN: Cluster-Aware Graph Neural Networks for Unsupervised Graph
Representation Learning [19.432449825536423]
教師なしグラフ表現学習は、教師なしの低次元ノード埋め込みを学習することを目的としている。
本稿では、自己教師付き手法を用いた教師なしグラフ表現学習のための新しいクラスタ対応グラフニューラルネットワーク(CAGNN)モデルを提案する。
論文 参考訳(メタデータ) (2020-09-03T13:57:18Z) - Bilinear Graph Neural Network with Neighbor Interactions [106.80781016591577]
グラフニューラルネットワーク(GNN)は,グラフデータ上で表現を学習し,予測を行う強力なモデルである。
本稿では,グラフ畳み込み演算子を提案し,隣接するノードの表現の対の相互作用で重み付け和を増大させる。
このフレームワークをBGNN(Bilinear Graph Neural Network)と呼び、隣ノード間の双方向相互作用によるGNN表現能力を向上させる。
論文 参考訳(メタデータ) (2020-02-10T06:43:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。