論文の概要: Node-level Contrastive Unlearning on Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2503.02959v1
- Date: Tue, 04 Mar 2025 19:34:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-06 15:52:30.506479
- Title: Node-level Contrastive Unlearning on Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークによるノードレベルのコントラスト学習
- Authors: Hong kyu Lee, Qiuchen Zhang, Carl Yang, Li Xiong,
- Abstract要約: グラフアンラーニングは、グラフ上でトレーニングされたグラフニューラルネットワーク(GNN)からグラフエンティティ(ノードとエッジ)のサブセットを削除することを目的としている。
既存の作業では、グラフのパーティショニングや影響関数、その他のレイヤを使用して、グラフのアンラーニングを実現している。
本稿では,埋め込み空間を利用して,より効果的なグラフアンラーニングを実現する。
- 参考スコア(独自算出の注目度): 27.60189451838526
- License:
- Abstract: Graph unlearning aims to remove a subset of graph entities (i.e. nodes and edges) from a graph neural network (GNN) trained on the graph. Unlike machine unlearning for models trained on Euclidean-structured data, effectively unlearning a model trained on non-Euclidean-structured data, such as graphs, is challenging because graph entities exhibit mutual dependencies. Existing works utilize graph partitioning, influence function, or additional layers to achieve graph unlearning. However, none of them can achieve high scalability and effectiveness without additional constraints. In this paper, we achieve more effective graph unlearning by utilizing the embedding space. The primary training objective of a GNN is to generate proper embeddings for each node that encapsulates both structural information and node feature representations. Thus, directly optimizing the embedding space can effectively remove the target nodes' information from the model. Based on this intuition, we propose node-level contrastive unlearning (Node-CUL). It removes the influence of the target nodes (unlearning nodes) by contrasting the embeddings of remaining nodes and neighbors of unlearning nodes. Through iterative updates, the embeddings of unlearning nodes gradually become similar to those of unseen nodes, effectively removing the learned information without directly incorporating unseen data. In addition, we introduce a neighborhood reconstruction method that optimizes the embeddings of the neighbors in order to remove influence of unlearning nodes to maintain the utility of the GNN model. Experiments on various graph data and models show that our Node-CUL achieves the best unlearn efficacy and enhanced model utility with requiring comparable computing resources with existing frameworks.
- Abstract(参考訳): グラフアンラーニングは、グラフ上でトレーニングされたグラフニューラルネットワーク(GNN)からグラフエンティティ(ノードとエッジ)のサブセットを削除することを目的としている。
ユークリッド構造データで訓練されたモデルに対する機械学習とは異なり、グラフのような非ユークリッド構造データで訓練されたモデルを効果的に学習することは困難である。
既存の作業では、グラフのパーティショニングや影響関数、その他のレイヤを使用して、グラフのアンラーニングを実現している。
しかし、いずれも追加の制約なしで高いスケーラビリティと効率を達成することはできません。
本稿では,埋め込み空間を利用して,より効果的なグラフアンラーニングを実現する。
GNNの主な訓練目的は、構造情報とノードの特徴表現の両方をカプセル化した各ノードに対して適切な埋め込みを生成することである。
これにより、埋め込み空間を直接最適化することで、対象ノードの情報をモデルから効果的に除去することができる。
この直感に基づいて,ノードレベルのコントラスト学習(Node-CUL)を提案する。
残りのノードと未学習ノードの隣接ノードの埋め込みを対比することにより、ターゲットノード(未学習ノード)の影響を除去する。
反復的な更新によって、未学習ノードの埋め込みは、徐々に未学習ノードの埋め込みと類似し、未学習データを直接組み込むことなく、学習情報を効果的に除去する。
さらに,非学習ノードの影響を除去し,GNNモデルの実用性を維持するために,近隣住民の埋め込みを最適化する地区再構築手法を提案する。
さまざまなグラフデータとモデルの実験から、Node-CULは、既存のフレームワークに匹敵する計算リソースを必要とすることなく、最高の未学習の有効性と強化されたモデルユーティリティを実現しています。
関連論文リスト
- Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck [5.707725771108279]
本稿では,CGRL (Contrastive Graph Representation Learning with Adversarial Cross-view Reconstruction and Information Bottleneck) を用いたノード分類手法を提案する。
提案手法は既存の最先端アルゴリズムを著しく上回っている。
論文 参考訳(メタデータ) (2024-08-01T05:45:21Z) - GraphEdit: Large Language Models for Graph Structure Learning [62.618818029177355]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Efficiently Forgetting What You Have Learned in Graph Representation
Learning via Projection [19.57394670843742]
線形GNNにおける非学習問題を考察し、非線形構造への拡張を導入する。
学習するノードの集合が与えられた場合、事前学習されたモデルの重みパラメータを、忘れられるノードの特徴とは無関係な部分空間に投影することで学習するPROJECTORを提案する。
論文 参考訳(メタデータ) (2023-02-17T16:49:10Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - EIGNN: Efficient Infinite-Depth Graph Neural Networks [51.97361378423152]
グラフニューラルネットワーク(GNN)は多くのアプリケーションでグラフ構造化データのモデリングに広く利用されている。
この制限により、無限深度GNNモデルを提案し、これをEIGNN(Efficient Infinite-Depth Graph Neural Networks)と呼ぶ。
EIGNNは、最近のベースラインよりも長距離依存関係をキャプチャする能力が優れており、常に最先端のパフォーマンスを実現していることを示す。
論文 参考訳(メタデータ) (2022-02-22T08:16:58Z) - Graph Neural Network with Curriculum Learning for Imbalanced Node
Classification [21.085314408929058]
グラフニューラルネットワーク(GNN)は,ノード分類などのグラフベースの学習タスクの新興技術である。
本研究では,ノードラベルの不均衡に対するGNNの脆弱性を明らかにする。
本稿では,2つのモジュールからなるカリキュラム学習(GNN-CL)を備えたグラフニューラルネットワークフレームワークを提案する。
論文 参考訳(メタデータ) (2022-02-05T10:46:11Z) - Uniting Heterogeneity, Inductiveness, and Efficiency for Graph
Representation Learning [68.97378785686723]
グラフニューラルネットワーク(GNN)は,グラフ上のノード表現学習の性能を大幅に向上させた。
GNNの過半数クラスは均質グラフのためにのみ設計されており、より有益な異種グラフに劣る適応性をもたらす。
本稿では,低次ノードと高次ノードの両方のエッジに付随するヘテロジニアスなノード特徴をパッケージ化する,新しい帰納的メタパスフリーメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2021-04-04T23:31:39Z) - Node2Seq: Towards Trainable Convolutions in Graph Neural Networks [59.378148590027735]
今回提案するグラフネットワーク層であるNode2Seqは,隣接ノードの重みを明示的に調整可能なノード埋め込みを学習する。
対象ノードに対して,当手法は注意メカニズムを介して隣接ノードをソートし,さらに1D畳み込みニューラルネットワーク(CNN)を用いて情報集約のための明示的な重み付けを行う。
また, 特徴学習のための非局所的情報を, 注意スコアに基づいて適応的に組み込むことを提案する。
論文 参考訳(メタデータ) (2021-01-06T03:05:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。