論文の概要: Federated Knowledge Graph Unlearning via Diffusion Model
- arxiv url: http://arxiv.org/abs/2403.08554v1
- Date: Wed, 13 Mar 2024 14:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:11:05.199041
- Title: Federated Knowledge Graph Unlearning via Diffusion Model
- Title(参考訳): 拡散モデルによるフェデレーション知識グラフの学習
- Authors: Bingchen Liu and Yuanyuan Fang
- Abstract要約: フェデレート・ラーニング(FL)は、人工知能技術の開発と応用を促進する。
本稿では,フェデレートされた知識グラフにおける機械学習に適した新しいフレームワークであるFedDMを提案する。
- 参考スコア(独自算出の注目度): 5.373752180709173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) promotes the development and application of
artificial intelligence technologies by enabling model sharing and
collaboration while safeguarding data privacy. Knowledge graph (KG) embedding
representation provides a foundation for knowledge reasoning and applications
by mapping entities and relations into vector space. Federated KG embedding
enables the utilization of knowledge from diverse client sources while
safeguarding the privacy of local data. However, due to demands such as privacy
protection and the need to adapt to dynamic data changes, investigations into
machine unlearning (MU) have been sparked. However, it is challenging to
maintain the performance of KG embedding models while forgetting the influence
of specific forgotten data on the model. In this paper, we propose FedDM, a
novel framework tailored for machine unlearning in federated knowledge graphs.
Leveraging diffusion models, we generate noisy data to sensibly mitigate the
influence of specific knowledge on FL models while preserving the overall
performance concerning the remaining data. We conduct experimental evaluations
on benchmark datasets to assess the efficacy of the proposed model. Extensive
experiments demonstrate that FedDM yields promising results in knowledge
forgetting.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保護しつつ、モデル共有とコラボレーションを可能にすることによって、人工知能技術の開発と応用を促進する。
知識グラフ(KG)埋め込み表現は、エンティティと関係をベクトル空間にマッピングすることで知識推論と応用の基礎を提供する。
フェデレートされたKG埋め込みは、ローカルデータのプライバシーを保護しながら、多様なクライアントソースからの知識の利用を可能にする。
しかしながら、プライバシ保護や動的データ変更への適応の必要性といった要求により、マシン・アンラーニング(MU)の調査が引き起こされている。
しかし、KG埋め込みモデルの性能を維持することは、特定の忘れられたデータがモデルに与える影響を忘れてはならない。
本稿では,フェデレートされた知識グラフにおける機械学習に適した新しいフレームワークであるFedDMを提案する。
拡散モデルを利用すると、ノイズの多いデータを生成し、FLモデルに対する特定の知識の影響を軽減し、残りのデータに関する全体的な性能を保ちます。
提案モデルの有効性を評価するために,ベンチマークデータセットを用いて実験的な評価を行う。
大規模な実験は、FedDMが知識を忘れる有望な結果をもたらすことを示した。
関連論文リスト
- Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy-Preserving Load Forecasting via Personalized Model Obfuscation [4.420464017266168]
本稿では,異種データを用いたフェデレーション学習で訓練した短期負荷予測モデルの性能課題について述べる。
提案するアルゴリズムであるプライバシー保護フェデレートラーニング(PPFL)では,各スマートメータでのローカライズトレーニングのためのパーソナライズレイヤが組み込まれている。
論文 参考訳(メタデータ) (2023-11-21T03:03:10Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Heterogeneous Federated Knowledge Graph Embedding Learning and
Unlearning [14.063276595895049]
Federated Learning(FL)は、生データを共有せずに分散クライアント間でグローバル機械学習モデルをトレーニングするパラダイムである。
ヘテロジニアスなKG埋め込み学習とアンラーニングのための新しいFLフレームワークであるFedLUを提案する。
我々は,FedLUがリンク予測と知識忘れの両方において優れた結果を得ることを示す。
論文 参考訳(メタデータ) (2023-02-04T02:44:48Z) - Feature Correlation-guided Knowledge Transfer for Federated
Self-supervised Learning [19.505644178449046]
特徴相関に基づくアグリゲーション(FedFoA)を用いたフェデレーション型自己教師型学習法を提案する。
私たちの洞察は、機能相関を利用して、特徴マッピングを整列し、ローカルトレーニングプロセス中にクライアント間でローカルモデルの更新を校正することにあります。
我々はFedFoAがモデルに依存しないトレーニングフレームワークであることを証明する。
論文 参考訳(メタデータ) (2022-11-14T13:59:50Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z) - Toward Understanding the Influence of Individual Clients in Federated
Learning [52.07734799278535]
フェデレーションラーニングにより、クライアントはプライベートデータを中央サーバーに送信することなく、グローバルモデルを共同でトレーニングできます。
em-Influenceという新しい概念を定義し、パラメータに対するこの影響を定量化し、このメトリクスを推定する効果的な効率的なモデルを提案しました。
論文 参考訳(メタデータ) (2020-12-20T14:34:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。