論文の概要: Federated Graph Unlearning
- arxiv url: http://arxiv.org/abs/2508.02485v1
- Date: Mon, 04 Aug 2025 14:57:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.387686
- Title: Federated Graph Unlearning
- Title(参考訳): フェデレートグラフアンラーニング
- Authors: Yuming Ai, Xunkai Li, Jiaqi Chao, Bowen Fan, Zhengyu Wu, Yinlin Zhu, Rong-Hua Li, Guoren Wang,
- Abstract要約: データプライバシの要求は、Federated Graph Learningのようなフレームワークの開発につながっている。
提案するフレームワークでは,特定の未学習要求に合わせた分岐戦略を採用している。
このフレームワークは、クライアントとメタアンラーニングの両方のシナリオで、モデルの予測精度を大幅に改善する。
- 参考スコア(独自算出の注目度): 23.00839112398916
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The demand for data privacy has led to the development of frameworks like Federated Graph Learning (FGL), which facilitate decentralized model training. However, a significant operational challenge in such systems is adhering to the right to be forgotten. This principle necessitates robust mechanisms for two distinct types of data removal: the selective erasure of specific entities and their associated knowledge from local subgraphs and the wholesale removal of a user's entire dataset and influence. Existing methods often struggle to fully address both unlearning requirements, frequently resulting in incomplete data removal or the persistence of residual knowledge within the system. This work introduces a unified framework, conceived to provide a comprehensive solution to these challenges. The proposed framework employs a bifurcated strategy tailored to the specific unlearning request. For fine-grained Meta Unlearning, it uses prototype gradients to direct the initial local forgetting process, which is then refined by generating adversarial graphs to eliminate any remaining data traces among affected clients. In the case of complete client unlearning, the framework utilizes adversarial graph generation exclusively to purge the departed client's contributions from the remaining network. Extensive experiments on multiple benchmark datasets validate the proposed approach. The framework achieves substantial improvements in model prediction accuracy across both client and meta-unlearning scenarios when compared to existing methods. Furthermore, additional studies confirm its utility as a plug-in module, where it materially enhances the predictive capabilities and unlearning effectiveness of other established methods.
- Abstract(参考訳): データプライバシの要求は、分散モデルトレーニングを容易にするFederated Graph Learning(FGL)のようなフレームワークの開発につながった。
しかし、そのようなシステムにおける重要な運用上の課題は、忘れられる権利に固執することである。
この原則は、特定のエンティティの選択的消去とその関連する知識をローカルなサブグラフから取り除き、ユーザーのデータセット全体と影響を包括的に除去する、2つの異なるタイプのデータ削除のための堅牢なメカニズムを必要とする。
既存の手法は、未学習の要件の両方に完全に対処するのに苦労することが多く、多くの場合、不完全なデータ削除やシステム内の残留した知識の持続性をもたらす。
この作業は、これらの課題に対する包括的な解決策を提供するために考案された統一されたフレームワークを導入する。
提案するフレームワークでは,特定の未学習要求に合わせた分岐戦略を採用している。
詳細なMeta Unlearningでは、プロトタイプのグラデーションを使用して、初期ローカルな忘れ処理を指示します。
完全なクライアントアンラーニングの場合、フレームワークは、残されたクライアントのコントリビューションを残りのネットワークから除去するために、逆グラフ生成のみを利用する。
複数のベンチマークデータセットに関する大規模な実験は、提案されたアプローチを検証する。
このフレームワークは,既存手法と比較して,クライアントシナリオとメタアンラーニングシナリオの両方において,モデル予測精度を大幅に向上させる。
さらに、プラグインモジュールとしての有用性を確認し、他の確立されたメソッドの予測能力と未学習の有効性を大幅に向上させる。
関連論文リスト
- Federated Unlearning Model Recovery in Data with Skewed Label Distributions [10.236494861079779]
本稿では,スキューラベル分布を用いたフェデレーション・アンラーニングの回復手法を提案する。
まず、難解なクラスデータを補うために、深層学習とオーバーサンプリングを組み込んだ戦略を採用する。
そして、密度に基づく復調法を適用して、生成されたデータからノイズを除去する。
残りのすべてのクライアントは、強化されたローカルデータセットを活用し、未学習モデルのパフォーマンスを効果的に回復するための反復的なトレーニングに従事します。
論文 参考訳(メタデータ) (2024-12-18T03:25:11Z) - Navigating Towards Fairness with Data Selection [27.731128352096555]
ラベルバイアスを効率的かつ柔軟に緩和するデータ選択法を提案する。
提案手法では,ゼロショット予測器をプロキシモデルとして利用し,クリーンなホールトアウトセットでのトレーニングをシミュレートする。
我々のモダリティ非依存手法は,実験評価において,ラベルバイアスの処理と多種多様なデータセット間の公正性向上に効果的かつ効果的であることが証明された。
論文 参考訳(メタデータ) (2024-12-15T06:11:05Z) - Erase then Rectify: A Training-Free Parameter Editing Approach for Cost-Effective Graph Unlearning [17.85404473268992]
グラフアンラーニングは、訓練されたグラフニューラルネットワーク(GNN)からノード、エッジ、属性の影響を排除することを目的としている。
既存のグラフアンラーニング技術は、しばしば残りのデータに対する追加のトレーニングを必要とし、かなりの計算コストをもたらす。
本稿では,2段階の学習自由アプローチであるETR(Erase then Rectify)を提案する。
論文 参考訳(メタデータ) (2024-09-25T07:20:59Z) - Update Selective Parameters: Federated Machine Unlearning Based on Model Explanation [46.86767774669831]
モデル説明の概念に基づく、より効率的で効率的なフェデレーション・アンラーニング・スキームを提案する。
我々は、未学習のデータに対して、すでに訓練済みのモデルの中で最も影響力のあるチャネルを選択します。
論文 参考訳(メタデータ) (2024-06-18T11:43:20Z) - Federated Learning with Projected Trajectory Regularization [65.6266768678291]
フェデレーション学習は、ローカルデータを共有せずに、分散クライアントから機械学習モデルの共同トレーニングを可能にする。
連合学習における重要な課題の1つは、クライアントにまたがる識別できない分散データを扱うことである。
本稿では,データ問題に対処するための予測軌道正則化(FedPTR)を備えた新しいフェデレーション学習フレームワークを提案する。
論文 参考訳(メタデータ) (2023-12-22T02:12:08Z) - GraphGuard: Detecting and Counteracting Training Data Misuse in Graph
Neural Networks [69.97213941893351]
グラフデータ分析におけるグラフニューラルネットワーク(GNN)の出現は、モデルトレーニング中のデータ誤用に関する重要な懸念を引き起こしている。
既存の手法は、データ誤用検出または緩和のいずれかに対応しており、主にローカルGNNモデル用に設計されている。
本稿では,これらの課題に対処するため,GraphGuardという先駆的なアプローチを導入する。
論文 参考訳(メタデータ) (2023-12-13T02:59:37Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - Adapter-based Selective Knowledge Distillation for Federated
Multi-domain Meeting Summarization [36.916155654985936]
会議要約は、利用者に凝縮した要約を提供するための有望な手法として登場した。
本稿では,適応型選択的知識蒸留法(AdaFedSelecKD)を提案する。
論文 参考訳(メタデータ) (2023-08-07T03:34:01Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Learning from Heterogeneous Data Based on Social Interactions over
Graphs [58.34060409467834]
本研究では,個別のエージェントが異なる次元のストリーミング特徴を観察しながら分類問題の解決を目指す分散アーキテクチャを提案する。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
私たちはそれを示します。
戦略により、エージェントはこの高度に異質な環境下で一貫して学習することができる。
論文 参考訳(メタデータ) (2021-12-17T12:47:18Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。