論文の概要: Certified Graph Unlearning
- arxiv url: http://arxiv.org/abs/2206.09140v1
- Date: Sat, 18 Jun 2022 07:41:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-26 08:18:39.757831
- Title: Certified Graph Unlearning
- Title(参考訳): 認定グラフアンラーニング
- Authors: Eli Chien, Chao Pan, Olgica Milenkovic
- Abstract要約: グラフ構造化データは実際にユビキタスであり、しばしばグラフニューラルネットワーク(GNN)を使用して処理される
我々は,GNNのemph認定グラフアンラーニングのための最初のフレームワークを紹介する。
ノード機能、エッジ、ノードアンラーニングの3つの異なるタイプのアンラーニング要求を検討する必要がある。
- 参考スコア(独自算出の注目度): 39.29148804411811
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph-structured data is ubiquitous in practice and often processed using
graph neural networks (GNNs). With the adoption of recent laws ensuring the
``right to be forgotten'', the problem of graph data removal has become of
significant importance. To address the problem, we introduce the first known
framework for \emph{certified graph unlearning} of GNNs. In contrast to
standard machine unlearning, new analytical and heuristic unlearning challenges
arise when dealing with complex graph data. First, three different types of
unlearning requests need to be considered, including node feature, edge and
node unlearning. Second, to establish provable performance guarantees, one
needs to address challenges associated with feature mixing during propagation.
The underlying analysis is illustrated on the example of simple graph
convolutions (SGC) and their generalized PageRank (GPR) extensions, thereby
laying the theoretical foundation for certified unlearning of GNNs. Our
empirical studies on six benchmark datasets demonstrate excellent
performance-complexity trade-offs when compared to complete retraining methods
and approaches that do not leverage graph information. For example, when
unlearning $20\%$ of the nodes on the Cora dataset, our approach suffers only a
$0.1\%$ loss in test accuracy while offering a $4$-fold speed-up compared to
complete retraining. Our scheme also outperforms unlearning methods that do not
leverage graph information with a $12\%$ increase in test accuracy for a
comparable time complexity.
- Abstract(参考訳): グラフ構造化データは実際にはユビキタスであり、グラフニューラルネットワーク(GNN)を使用して処理されることが多い。
近年の「忘れられる権利」を保障する法律の採用により、グラフデータ削除の問題は重要になっている。
この問題に対処するために、GNNのemph{certified graph unlearning} のための最初のフレームワークを紹介する。
標準的な機械学習とは対照的に、複雑なグラフデータを扱う際に、新しい分析的およびヒューリスティックな未学習の課題が発生する。
まず、ノード機能、エッジ、ノードアンラーニングを含む3つの異なるタイプのアンラーニング要求を検討する必要があります。
第二に、実現可能なパフォーマンス保証を確立するためには、伝搬中の機能混合に関連する課題に対処する必要がある。
基礎となる分析は、単純なグラフ畳み込み(SGC)とその一般化されたPageRank(GPR)拡張の例に示されており、それによってGNNの認定未学習の理論的基礎が築かれる。
6つのベンチマークデータセットに関する実証的研究は、グラフ情報を利用しない完全再トレーニング手法やアプローチと比較して、優れた性能・複雑さのトレードオフを示す。
例えば、Coraデータセット上のノードの20ドル%をアンラーニングする場合、我々のアプローチはテストの精度が0.1セント%低下する一方、完全な再トレーニングに比べて4ドル分のスピードアップを提供する。
また,グラフ情報の活用を行なわない未学習手法を同等の時間でテスト精度を12 %以上向上させる手法よりも優れていた。
関連論文リスト
- Loss-aware Curriculum Learning for Heterogeneous Graph Neural Networks [30.333265803394998]
異種グラフニューラルネットワーク(GNN)の性能向上のためのカリキュラム学習手法の適用について検討する。
データの品質をよりよく分類するために、データの全ノードの品質を測定するLTSと呼ばれる損失認識トレーニングスケジュールを設計する。
本研究は,複雑なグラフ構造データ解析のためのHGNNの能力向上のためのカリキュラム学習の有効性を示すものである。
論文 参考訳(メタデータ) (2024-02-29T05:44:41Z) - Two Heads Are Better Than One: Boosting Graph Sparse Training via
Semantic and Topological Awareness [80.87683145376305]
グラフニューラルネットワーク(GNN)は、様々なグラフ学習タスクに優れるが、大規模グラフに適用した場合、計算上の課題に直面している。
データレベルで空間を動的に操作するグラフスパーストレーニング(GST)を提案する。
GSTは、最大位相整合性と性能劣化のないスパースグラフを生成する。
論文 参考訳(メタデータ) (2024-02-02T09:10:35Z) - NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Unlearning Graph Classifiers with Limited Data Resources [39.29148804411811]
制御されたデータ削除は、データに敏感なWebアプリケーションのための機械学習モデルの重要機能になりつつある。
グラフニューラルネットワーク(GNN)の効率的な機械学習を実現する方法はまだほとんど知られていない。
我々の主な貢献は GST に基づく非線形近似グラフアンラーニング法である。
第2の貢献は、提案した未学習機構の計算複雑性の理論解析である。
第3のコントリビューションは広範囲なシミュレーションの結果であり、削除要求毎のGNNの完全再トレーニングと比較して、新しいGSTベースのアプローチは平均10.38倍のスピードアップを提供する。
論文 参考訳(メタデータ) (2022-11-06T20:46:50Z) - Diving into Unified Data-Model Sparsity for Class-Imbalanced Graph
Representation Learning [30.23894624193583]
非ユークリッドグラフデータに基づくグラフニューラルネットワーク(GNN)トレーニングは、しばしば比較的高い時間コストに直面する。
グラフ決定(Graph Decantation, GraphDec)と呼ばれる統一されたデータモデル動的疎結合フレームワークを開発し, 大規模なクラス不均衡グラフデータのトレーニングによる課題に対処する。
論文 参考訳(メタデータ) (2022-10-01T01:47:00Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - Combining Label Propagation and Simple Models Out-performs Graph Neural
Networks [52.121819834353865]
多くの標準的なトランスダクティブノード分類ベンチマークでは、最先端のGNNの性能を超えたり、一致させることができる。
これをC&S(Correct and Smooth)と呼ぶ。
我々のアプローチは、様々なベンチマークで最先端のGNNの性能を上回るか、ほぼ一致している。
論文 参考訳(メタデータ) (2020-10-27T02:10:52Z) - Co-embedding of Nodes and Edges with Graph Neural Networks [13.020745622327894]
グラフ埋め込みは、高次元および非ユークリッド特徴空間でデータ構造を変換しエンコードする方法である。
CensNetは一般的なグラフ埋め込みフレームワークで、ノードとエッジの両方を潜在機能空間に埋め込む。
提案手法は,4つのグラフ学習課題における最先端のパフォーマンスを達成または一致させる。
論文 参考訳(メタデータ) (2020-10-25T22:39:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。