論文の概要: IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2407.19398v1
- Date: Sun, 28 Jul 2024 04:59:59 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-30 18:22:10.257116
- Title: IDEA: A Flexible Framework of Certified Unlearning for Graph Neural Networks
- Title(参考訳): IDEA: グラフニューラルネットワークの未学習認定フレームワーク
- Authors: Yushun Dong, Binchi Zhang, Zhenyu Lei, Na Zou, Jundong Li,
- Abstract要約: グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
トレーニングされたGNNがデプロイされ、潜在的攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
我々は,GNNのための柔軟で認定されたアンラーニングを実現するために,IDEAというフレームワークを提案する。
- 参考スコア(独自算出の注目度): 68.6374698896505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) have been increasingly deployed in a plethora of applications. However, the graph data used for training may contain sensitive personal information of the involved individuals. Once trained, GNNs typically encode such information in their learnable parameters. As a consequence, privacy leakage may happen when the trained GNNs are deployed and exposed to potential attackers. Facing such a threat, machine unlearning for GNNs has become an emerging technique that aims to remove certain personal information from a trained GNN. Among these techniques, certified unlearning stands out, as it provides a solid theoretical guarantee of the information removal effectiveness. Nevertheless, most of the existing certified unlearning methods for GNNs are only designed to handle node and edge unlearning requests. Meanwhile, these approaches are usually tailored for either a specific design of GNN or a specially designed training objective. These disadvantages significantly jeopardize their flexibility. In this paper, we propose a principled framework named IDEA to achieve flexible and certified unlearning for GNNs. Specifically, we first instantiate four types of unlearning requests on graphs, and then we propose an approximation approach to flexibly handle these unlearning requests over diverse GNNs. We further provide theoretical guarantee of the effectiveness for the proposed approach as a certification. Different from existing alternatives, IDEA is not designed for any specific GNNs or optimization objectives to perform certified unlearning, and thus can be easily generalized. Extensive experiments on real-world datasets demonstrate the superiority of IDEA in multiple key perspectives.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、ますます多くのアプリケーションにデプロイされている。
しかし、トレーニングに使用されるグラフデータには、関係する個人の機密情報が含まれている可能性がある。
トレーニングが完了すると、GNNは通常、これらの情報を学習可能なパラメータにエンコードする。
その結果、トレーニングされたGNNがデプロイされ、潜在的な攻撃者に対して公開されると、プライバシリークが発生する可能性がある。
このような脅威に直面したGNNの機械学習は、訓練されたGNNから特定の個人情報を削除することを目的とした、新たな技術になりつつある。
これらの技術の中で、情報除去の有効性の確固たる理論的保証を提供するため、認定されていない未学習が際立っている。
それでも、GNNの既存の認定アンラーニングメソッドのほとんどは、ノードとエッジアンラーニングリクエストのみを扱うように設計されている。
一方、これらのアプローチは通常、GNNの特定の設計または特別に設計された訓練目的のために調整されている。
これらの欠点は柔軟性を著しく損なう。
本稿では,GNNのための柔軟で認定されたアンラーニングを実現するための,IDEAというフレームワークを提案する。
具体的には、まずグラフ上で4種類の未学習要求をインスタンス化し、次に、これらの未学習要求を多様なGNN上で柔軟に処理するための近似手法を提案する。
さらに,提案手法の有効性を検証として理論的に保証する。
既存の選択肢とは異なり、IDEAは認定されていない学習を実行するための特定のGNNや最適化目的のために設計されておらず、簡単に一般化できる。
実世界のデータセットに関する大規模な実験は、複数の重要な視点でIDEAの優位性を示している。
関連論文リスト
- Stealing Training Graphs from Graph Neural Networks [54.52392250297907]
グラフニューラルネットワーク(GNN)は、様々なタスクにおけるグラフのモデリングにおいて有望な結果を示している。
ニューラルネットワークがトレーニングサンプルを記憶できるため、GNNのモデルパラメータはプライベートトレーニングデータをリークするリスクが高い。
訓練されたGNNからグラフを盗むという新しい問題について検討する。
論文 参考訳(メタデータ) (2024-11-17T23:15:36Z) - ELEGANT: Certified Defense on the Fairness of Graph Neural Networks [94.10433608311604]
グラフニューラルネットワーク(GNN)は,グラフベースのタスクにおいて,目立ったグラフ学習モデルとして登場した。
悪意のある攻撃者は、入力グラフデータに摂動を追加することで、予測の公平度を容易に損なうことができる。
本稿では, ELEGANT というフレームワークを提案し, GNN の公正度レベルにおける認証防御の新たな課題について検討する。
論文 参考訳(メタデータ) (2023-11-05T20:29:40Z) - On Strengthening and Defending Graph Reconstruction Attack with Markov
Chain Approximation [40.21760151203987]
本研究は,ノードの隣接性を再構築することを目的としたグラフ再構成攻撃の総合的研究である。
我々は、GNNにおける様々な要因が、驚くほどのプライベートリンクの漏洩につながることを示している。
そこで我々は,(1)よりプライベートな情報を抽出する適応設計のチェーンベース攻撃法,(2)精度の低い攻撃忠実度を鋭く低減するチェーンベース防御法,という2つの情報理論誘導機構を提案する。
論文 参考訳(メタデータ) (2023-06-15T13:00:56Z) - MentorGNN: Deriving Curriculum for Pre-Training GNNs [61.97574489259085]
本稿では,グラフ間のGNNの事前学習プロセスの監視を目的とした,MentorGNNというエンドツーエンドモデルを提案する。
我々は、事前学習したGNNの一般化誤差に自然かつ解釈可能な上限を導出することにより、関係データ(グラフ)に対するドメイン適応の問題に新たな光を当てた。
論文 参考訳(メタデータ) (2022-08-21T15:12:08Z) - A Comprehensive Survey on Trustworthy Graph Neural Networks: Privacy,
Robustness, Fairness, and Explainability [59.80140875337769]
グラフニューラルネットワーク(GNN)は近年,急速な発展を遂げている。
GNNは個人情報をリークしたり、敵対的攻撃に弱いり、トレーニングデータから社会的バイアスを継承したり、拡大したりすることができる。
本稿では、プライバシー、堅牢性、公正性、説明可能性の計算面におけるGNNの包括的調査を行う。
論文 参考訳(メタデータ) (2022-04-18T21:41:07Z) - An Adaptive Graph Pre-training Framework for Localized Collaborative
Filtering [79.17319280791237]
局所的協調フィルタリング(ADAPT)のための適応グラフ事前学習フレームワークを提案する。
ADAPTは、異なるグラフにまたがる共通知識と、各グラフの特異性の両方をキャプチャする。
ユーザ/イテムの埋め込みを転送する必要はなく、異なるグラフにまたがる共通知識と各グラフのユニークさの両方をキャプチャできる。
論文 参考訳(メタデータ) (2021-12-14T06:53:13Z) - IGNNITION: Bridging the Gap Between Graph Neural Networks and Networking
Systems [4.1591055164123665]
本稿では,ネットワークシステムのためのグラフニューラルネットワーク(GNN)の高速プロトタイピングを可能にする,新しいオープンソースフレームワークIGNNITIONを提案する。
IGNNITIONは、GNNの背後にある複雑さを隠す直感的な高レベルの抽象化に基づいている。
IGNNITIONが生成するGNNモデルは,ネイティブ実装の精度と性能の点で同等であることを示す。
論文 参考訳(メタデータ) (2021-09-14T14:28:21Z) - EDITS: Modeling and Mitigating Data Bias for Graph Neural Networks [29.974829042502375]
本研究では,属性ネットワークのバイアスを軽減するためのフレームワーク EDITS を開発した。
EDITSはモデルに依存しない方法で動作し、ダウンストリームタスクに適用される特定のGNNとは独立している。
論文 参考訳(メタデータ) (2021-08-11T14:07:01Z) - Graph-Free Knowledge Distillation for Graph Neural Networks [30.38128029453977]
グラフデータのないグラフニューラルネットワークから知識を蒸留する最初の専用アプローチを提案する。
グラフフリーkd (gfkd) は知識伝達のためのグラフトポロジ構造を多項分布でモデル化することで学習する。
グラフデータやGNNにおける様々な種類の事前知識を扱うための戦略を提供する。
論文 参考訳(メタデータ) (2021-05-16T21:38:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。