論文の概要: GIF: A General Graph Unlearning Strategy via Influence Function
- arxiv url: http://arxiv.org/abs/2304.02835v1
- Date: Thu, 6 Apr 2023 03:02:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-07 15:35:20.105775
- Title: GIF: A General Graph Unlearning Strategy via Influence Function
- Title(参考訳): gif:インフルエンス機能による一般グラフ学習戦略
- Authors: Jiancan Wu, Yi Yang, Yuchun Qian, Yongduo Sui, Xiang Wang, Xiangnan He
- Abstract要約: Graph Influence Function (GIF)は、削除されたデータにおける$epsilon$-massの摂動に応答してパラメータの変化を効率的に正確に推定できる、モデルに依存しない未学習の手法である。
我々は,4つの代表的GNNモデルと3つのベンチマークデータセットについて広範な実験を行い,未学習の有効性,モデルの有用性,未学習効率の観点からGIFの優位性を正当化する。
- 参考スコア(独自算出の注目度): 63.52038638220563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: With the greater emphasis on privacy and security in our society, the problem
of graph unlearning -- revoking the influence of specific data on the trained
GNN model, is drawing increasing attention. However, ranging from machine
unlearning to recently emerged graph unlearning methods, existing efforts
either resort to retraining paradigm, or perform approximate erasure that fails
to consider the inter-dependency between connected neighbors or imposes
constraints on GNN structure, therefore hard to achieve satisfying
performance-complexity trade-offs.
In this work, we explore the influence function tailored for graph
unlearning, so as to improve the unlearning efficacy and efficiency for graph
unlearning. We first present a unified problem formulation of diverse graph
unlearning tasks \wrt node, edge, and feature. Then, we recognize the crux to
the inability of traditional influence function for graph unlearning, and
devise Graph Influence Function (GIF), a model-agnostic unlearning method that
can efficiently and accurately estimate parameter changes in response to a
$\epsilon$-mass perturbation in deleted data. The idea is to supplement the
objective of the traditional influence function with an additional loss term of
the influenced neighbors due to the structural dependency. Further deductions
on the closed-form solution of parameter changes provide a better understanding
of the unlearning mechanism. We conduct extensive experiments on four
representative GNN models and three benchmark datasets to justify the
superiority of GIF for diverse graph unlearning tasks in terms of unlearning
efficacy, model utility, and unlearning efficiency. Our implementations are
available at \url{https://github.com/wujcan/GIF-torch/}.
- Abstract(参考訳): 社会におけるプライバシーとセキュリティの重視により、訓練されたGNNモデルに対する特定のデータの影響を排除したグラフアンラーニングの問題が注目されている。
しかし、機械学習から最近出現したグラフ学習手法まで、既存の取り組みは、パラダイムのリトレーニングや、接続された隣人間の相互依存を考慮せず、あるいはgnn構造に制約を課さない近似消去を行うかのどちらかである。
本研究では,グラフアンラーニングに適した影響関数を探索し,グラフアンラーニングにおける非ラーニングの有効性と効率を改善する。
まず,多様なグラフアンラーニングタスクであるノード,エッジ,特徴の統一的な問題を定式化する。
そして,グラフアンラーニングにおける従来の影響関数の欠如を認識し,削除データにおける$\epsilon$-mass摂動に応答してパラメータ変化を効率的に正確に推定できるモデルに依存しない非ラーニング手法であるグラフインフルエンス関数(GIF)を考案する。
従来の影響関数の目的を、構造依存による影響のある隣人の損失項を追加することで補うことが目的である。
パラメータ変更のクローズドフォームソリューションに関するさらなる推論は、未学習のメカニズムをよりよく理解する。
代表的なgnnモデル4つとベンチマークデータセット3つについて広範な実験を行い,学習効率,モデルの有用性,学習効率の面での多彩なグラフ学習タスクに対するgifの優位性を正当化する。
我々の実装は \url{https://github.com/wujcan/GIF-torch/} で利用可能です。
関連論文リスト
- Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - Community-Centric Graph Unlearning [10.906555492206959]
我々は、新しいグラフ構造マッピング・アンラーニング・パラダイム(GSMU)と、それに基づく新しい手法CGE(Community-centric Graph Eraser)を提案する。
CGEは、コミュニティのサブグラフをノードにマッピングすることで、少ないマップ付きグラフ内でノードレベルの未学習操作の再構築を可能にする。
論文 参考訳(メタデータ) (2024-08-19T05:37:35Z) - Gradient Transformation: Towards Efficient and Model-Agnostic Unlearning for Dynamic Graph Neural Networks [66.70786325911124]
グラフアンラーニングは、ユーザのプライバシ保護と、望ましくないデータによるネガティブな影響軽減に不可欠なツールとして登場した。
DGNNの普及に伴い、動的グラフアンラーニングの実装を検討することが不可欠となる。
DGNNアンラーニングを実装するために,効率的,効率的,モデルに依存しない,事後処理手法を提案する。
論文 参考訳(メタデータ) (2024-05-23T10:26:18Z) - Learning Strong Graph Neural Networks with Weak Information [64.64996100343602]
我々は、弱い情報(GLWI)を用いたグラフ学習問題に対する原則的アプローチを開発する。
非完全構造を持つ入力グラフ上で長距離情報伝搬を行うデュアルチャネルGNNフレームワークであるD$2$PTを提案するが、グローバルな意味的類似性を符号化するグローバルグラフも提案する。
論文 参考訳(メタデータ) (2023-05-29T04:51:09Z) - Characterizing the Influence of Graph Elements [24.241010101383505]
グラフ畳み込みネットワーク(GCN)の影響関数は、入力グラフからトレーニングノード/エッジを除去する効果に光を当てることができる。
本研究では,SGCモデルの効果関数を用いて,トレーニングノードやエッジの除去がSGCのテスト性能に与える影響を,モデルの再学習を伴わずに評価できることを示した。
論文 参考訳(メタデータ) (2022-10-14T01:04:28Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z) - Neural Stochastic Block Model & Scalable Community-Based Graph Learning [8.00785050036369]
本稿では,グラフ学習のためのスケーラブルなコミュニティベースニューラルネットワークを提案する。
このフレームワークは,コミュニティ検出とリンク予測のタスクを通じて,グラフトポロジを学習する。
グラフアライメントと異常相関検出の2つの応用について検討する。
論文 参考訳(メタデータ) (2020-05-16T03:28:50Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。