論文の概要: Inductive Graph Unlearning
- arxiv url: http://arxiv.org/abs/2304.03093v2
- Date: Fri, 7 Apr 2023 05:59:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 14:19:03.648387
- Title: Inductive Graph Unlearning
- Title(参考訳): インダクティブグラフアンラーニング
- Authors: Cheng-Long Wang, Mengdi Huai, Di Wang
- Abstract要約: textitGraphEraserは、グラフが静的で、テストノードの属性とエッジがトレーニング中に見えるような、トランスダクティブグラフ設定用に設計されている。
グラフが動的になり、テストグラフ情報が事前に見えないような帰納的設定には適さない。
本稿では,公平性とバランスのよいグラフ分割,効率的なサブグラフ修復,類似性に基づく集約という,3つのコンポーネントからなるGUIDEを提案する。
- 参考スコア(独自算出の注目度): 23.051237635521108
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As a way to implement the "right to be forgotten" in machine learning,
\textit{machine unlearning} aims to completely remove the contributions and
information of the samples to be deleted from a trained model without affecting
the contributions of other samples. Recently, many frameworks for machine
unlearning have been proposed, and most of them focus on image and text data.
To extend machine unlearning to graph data, \textit{GraphEraser} has been
proposed. However, a critical issue is that \textit{GraphEraser} is
specifically designed for the transductive graph setting, where the graph is
static and attributes and edges of test nodes are visible during training. It
is unsuitable for the inductive setting, where the graph could be dynamic and
the test graph information is invisible in advance. Such inductive capability
is essential for production machine learning systems with evolving graphs like
social media and transaction networks. To fill this gap, we propose the
\underline{{\bf G}}\underline{{\bf U}}ided \underline{{\bf I}}n\underline{{\bf
D}}uctiv\underline{{\bf E}} Graph Unlearning framework (GUIDE). GUIDE consists
of three components: guided graph partitioning with fairness and balance,
efficient subgraph repair, and similarity-based aggregation. Empirically, we
evaluate our method on several inductive benchmarks and evolving transaction
graphs. Generally speaking, GUIDE can be efficiently implemented on the
inductive graph learning tasks for its low graph partition cost, no matter on
computation or structure information. The code will be available here:
https://github.com/Happy2Git/GUIDE.
- Abstract(参考訳): 機械学習で"忘れられる権利"を実装する方法として、 \textit{machine unlearning}は、トレーニングされたモデルから削除されるサンプルのコントリビューションと情報を、他のサンプルのコントリビューションに影響を与えることなく完全に削除することを目的としている。
近年,機械学習のための多くのフレームワークが提案されており,そのほとんどは画像とテキストデータに重点を置いている。
機械学習をグラフデータに拡張するために、 \textit{GraphEraser} が提案されている。
しかし、重要な問題は \textit{grapheraser} は、グラフが静的で属性とテストノードのエッジがトレーニング中に見えるトランスダクティブグラフ設定用に特別に設計されていることである。
グラフが動的になり、テストグラフ情報が事前に見えないような帰納的設定には適さない。
このようなインダクティブな能力は、ソーシャルメディアやトランザクションネットワークのような進化するグラフを持つ機械学習システムにとって不可欠である。
このギャップを埋めるために、我々は \underline{{\bf G}}\underline{{\bf U}}ided \underline{{\bf I}}n\underline{{\bf D}}uctiv\underline{{\bf E}} Graph Unlearning framework (GUIDE)を提案する。
GUIDEは3つのコンポーネントから構成される: 公正性とバランスのグラフ分割、効率的なサブグラフ修復、類似性に基づく集約。
実験では,いくつかのインダクティブベンチマークと進化するトランザクショングラフを用いて,提案手法を評価する。
一般に、GUIDEは計算や構造情報に関係なく、低グラフ分割コストでインダクティブグラフ学習タスクに効率的に実装することができる。
コードはここで入手できる。 https://github.com/happy2git/guide。
関連論文リスト
- Inductive Graph Alignment Prompt: Bridging the Gap between Graph
Pre-training and Inductive Fine-tuning From Spectral Perspective [13.277779426525056]
グラフ事前学習と微調整」パラダイムはグラフニューラルネットワーク(GNN)を大幅に改善した
しかし、事前学習と微調整の段階でのデータとタスクの差が大きいため、モデルの性能は依然として限られている。
Inductive Graph Alignment Prompt(IGAP)と呼ばれる新しいグラフプロンプト方式を提案する。
論文 参考訳(メタデータ) (2024-02-21T06:25:54Z) - Explanation Graph Generation via Pre-trained Language Models: An
Empirical Study with Contrastive Learning [84.35102534158621]
エンドツーエンドで説明グラフを生成する事前学習言語モデルについて検討する。
本稿では,ノードとエッジの編集操作によるグラフ摂動の簡易かつ効果的な方法を提案する。
提案手法は,説明グラフの構造的精度と意味的精度を両立させる。
論文 参考訳(メタデータ) (2022-04-11T00:58:27Z) - Synthetic Graph Generation to Benchmark Graph Learning [7.914804101579097]
グラフ学習アルゴリズムは多くのグラフ解析タスクで最先端のパフォーマンスを達成した。
1つの理由は、グラフ学習アルゴリズムのパフォーマンスをベンチマークするために実際に使用されるデータセットが極めて少ないためである。
本稿では,合成グラフの生成と,制御シナリオにおけるグラフ学習アルゴリズムの挙動について検討する。
論文 参考訳(メタデータ) (2022-04-04T10:48:32Z) - Neural Graph Matching for Pre-training Graph Neural Networks [72.32801428070749]
グラフニューラルネットワーク(GNN)は、構造データのモデリングにおいて強力な能力を示している。
GMPTと呼ばれる新しいグラフマッチングベースのGNN事前学習フレームワークを提案する。
提案手法は,完全自己指導型プレトレーニングと粗粒型プレトレーニングに適用できる。
論文 参考訳(メタデータ) (2022-03-03T09:53:53Z) - Bringing Your Own View: Graph Contrastive Learning without Prefabricated
Data Augmentations [94.41860307845812]
Self-supervisionは最近、グラフ学習の新しいフロンティアに力を入れている。
GraphCLは、グラフデータ拡張のアドホックな手作業による選択によって反映されたプレハブ付きプリファブリックを使用する。
グラフ生成器のパラメータ空間における学習可能な連続前処理へと拡張した。
我々は、情報最小化(InfoMin)と情報ボトルネック(InfoBN)の2つの原則を利用して、学習した事前情報を規則化する。
論文 参考訳(メタデータ) (2022-01-04T15:49:18Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - Inference Attacks Against Graph Neural Networks [33.19531086886817]
グラフの埋め込みは、グラフ分析問題を解決する強力なツールである。
グラフ埋め込みの共有は興味深いが、関連するプライバシーリスクは未調査だ。
3つの推論攻撃を組み込むことで,グラフ埋め込みの情報漏洩を系統的に調査する。
論文 参考訳(メタデータ) (2021-10-06T10:08:11Z) - Structural Information Preserving for Graph-to-Text Generation [59.00642847499138]
グラフ・トゥ・テキスト生成の課題は、入力グラフの意味を保存した文を生成することである。
入力情報を保存するためのモデルとして,より豊かなトレーニング信号を活用することで,この問題に取り組むことを提案する。
グラフからテキストへの生成のための2つのベンチマークに関する実験は、最先端のベースラインに対するアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-12T20:09:01Z) - Graph topology inference benchmarks for machine learning [16.857405938139525]
本稿では,グラフ推論手法の相対的メリットと限界を明らかにするために,いくつかのベンチマークを導入する。
我々はまた、文学において最も顕著な技法のいくつかを対比している。
論文 参考訳(メタデータ) (2020-07-16T09:40:32Z) - Unsupervised Graph Embedding via Adaptive Graph Learning [85.28555417981063]
グラフオートエンコーダ(GAE)は、グラフ埋め込みのための表現学習において強力なツールである。
本稿では,2つの新しい教師なしグラフ埋め込み法,適応グラフ学習(BAGE)による教師なしグラフ埋め込み,変分適応グラフ学習(VBAGE)による教師なしグラフ埋め込みを提案する。
いくつかのデータセットに関する実験的研究により、我々の手法がノードクラスタリング、ノード分類、グラフ可視化タスクにおいて、ベースラインよりも優れていることが実証された。
論文 参考訳(メタデータ) (2020-03-10T02:33:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。