論文の概要: Federated Knowledge Graph Unlearning via Diffusion Model
- arxiv url: http://arxiv.org/abs/2403.08554v1
- Date: Wed, 13 Mar 2024 14:06:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:11:05.199041
- Title: Federated Knowledge Graph Unlearning via Diffusion Model
- Title(参考訳): 拡散モデルによるフェデレーション知識グラフの学習
- Authors: Bingchen Liu and Yuanyuan Fang
- Abstract要約: フェデレート・ラーニング(FL)は、人工知能技術の開発と応用を促進する。
本稿では,フェデレートされた知識グラフにおける機械学習に適した新しいフレームワークであるFedDMを提案する。
- 参考スコア(独自算出の注目度): 5.373752180709173
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) promotes the development and application of
artificial intelligence technologies by enabling model sharing and
collaboration while safeguarding data privacy. Knowledge graph (KG) embedding
representation provides a foundation for knowledge reasoning and applications
by mapping entities and relations into vector space. Federated KG embedding
enables the utilization of knowledge from diverse client sources while
safeguarding the privacy of local data. However, due to demands such as privacy
protection and the need to adapt to dynamic data changes, investigations into
machine unlearning (MU) have been sparked. However, it is challenging to
maintain the performance of KG embedding models while forgetting the influence
of specific forgotten data on the model. In this paper, we propose FedDM, a
novel framework tailored for machine unlearning in federated knowledge graphs.
Leveraging diffusion models, we generate noisy data to sensibly mitigate the
influence of specific knowledge on FL models while preserving the overall
performance concerning the remaining data. We conduct experimental evaluations
on benchmark datasets to assess the efficacy of the proposed model. Extensive
experiments demonstrate that FedDM yields promising results in knowledge
forgetting.
- Abstract(参考訳): フェデレートラーニング(FL)は、データプライバシを保護しつつ、モデル共有とコラボレーションを可能にすることによって、人工知能技術の開発と応用を促進する。
知識グラフ(KG)埋め込み表現は、エンティティと関係をベクトル空間にマッピングすることで知識推論と応用の基礎を提供する。
フェデレートされたKG埋め込みは、ローカルデータのプライバシーを保護しながら、多様なクライアントソースからの知識の利用を可能にする。
しかしながら、プライバシ保護や動的データ変更への適応の必要性といった要求により、マシン・アンラーニング(MU)の調査が引き起こされている。
しかし、KG埋め込みモデルの性能を維持することは、特定の忘れられたデータがモデルに与える影響を忘れてはならない。
本稿では,フェデレートされた知識グラフにおける機械学習に適した新しいフレームワークであるFedDMを提案する。
拡散モデルを利用すると、ノイズの多いデータを生成し、FLモデルに対する特定の知識の影響を軽減し、残りのデータに関する全体的な性能を保ちます。
提案モデルの有効性を評価するために,ベンチマークデータセットを用いて実験的な評価を行う。
大規模な実験は、FedDMが知識を忘れる有望な結果をもたらすことを示した。
関連論文リスト
- An Aggregation-Free Federated Learning for Tackling Data Heterogeneity [50.44021981013037]
フェデレートラーニング(FL)は、分散データセットからの知識を活用する効果に頼っている。
従来のFLメソッドでは、クライアントが前回のトレーニングラウンドからサーバが集約したグローバルモデルに基づいてローカルモデルを更新するアグリゲート-then-adaptフレームワークを採用している。
我々は,新しいアグリゲーションフリーFLアルゴリズムであるFedAFを紹介する。
論文 参考訳(メタデータ) (2024-04-29T05:55:23Z) - Approximate Gradient Coding for Privacy-Flexible Federated Learning with Non-IID Data [9.984630251008868]
この研究は、フェデレートラーニングにおける非IIDデータとストラグラー/ドロップアウトの課題に焦点を当てる。
クライアントのローカルデータの一部を非プライベートとしてモデル化する、プライバシフレキシブルなパラダイムを導入し、検討する。
論文 参考訳(メタデータ) (2024-04-04T15:29:50Z) - KnFu: Effective Knowledge Fusion [5.305607095162403]
フェデレートラーニング(FL)は、従来の集中型ラーニングのアプローチに代わる顕著な代替手段として登場した。
本稿では,各クライアントに対してセマンティックな隣人の効果的な知識を融合させるためのみに,局所モデルの知識を評価するEffective Knowledge Fusion(KnFu)アルゴリズムを提案する。
この研究の重要な結論は、大規模でヘテロジニアスなローカルデータセットを持つシナリオでは、知識融合ベースのソリューションよりも局所的なトレーニングが望ましい、ということである。
論文 参考訳(メタデータ) (2024-03-18T15:49:48Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Privacy-preserving design of graph neural networks with applications to
vertical federated learning [56.74455367682945]
VESPERと呼ばれるエンドツーエンドのグラフ表現学習フレームワークを提案する。
VESPERは、適切なプライバシー予算の下でスパースグラフと密度グラフの両方で高性能なGNNモデルをトレーニングすることができる。
論文 参考訳(メタデータ) (2023-10-31T15:34:59Z) - Selective Knowledge Sharing for Privacy-Preserving Federated
Distillation without A Good Teacher [52.2926020848095]
フェデレーション学習は、ホワイトボックス攻撃に脆弱で、異種クライアントへの適応に苦慮している。
本稿では,選択的FD(Selective-FD)と呼ばれるFDのための選択的知識共有機構を提案する。
論文 参考訳(メタデータ) (2023-04-04T12:04:19Z) - Heterogeneous Federated Knowledge Graph Embedding Learning and
Unlearning [14.063276595895049]
Federated Learning(FL)は、生データを共有せずに分散クライアント間でグローバル機械学習モデルをトレーニングするパラダイムである。
ヘテロジニアスなKG埋め込み学習とアンラーニングのための新しいFLフレームワークであるFedLUを提案する。
我々は,FedLUがリンク予測と知識忘れの両方において優れた結果を得ることを示す。
論文 参考訳(メタデータ) (2023-02-04T02:44:48Z) - FedDM: Iterative Distribution Matching for Communication-Efficient
Federated Learning [87.08902493524556]
フェデレートラーニング(FL)は近年、学術や産業から注目を集めている。
我々は,複数の局所的代理関数からグローバルなトレーニング目標を構築するためのFedDMを提案する。
そこで本研究では,各クライアントにデータ集合を構築し,元のデータから得られた損失景観を局所的にマッチングする。
論文 参考訳(メタデータ) (2022-07-20T04:55:18Z) - Fine-tuning Global Model via Data-Free Knowledge Distillation for
Non-IID Federated Learning [86.59588262014456]
フェデレートラーニング(Federated Learning, FL)は、プライバシ制約下での分散学習パラダイムである。
サーバ内のグローバルモデル(FedFTG)を微調整するデータフリー知識蒸留法を提案する。
私たちのFedFTGは最先端(SOTA)のFLアルゴリズムよりも優れており、FedAvg、FedProx、FedDyn、SCAFFOLDの強化のための強力なプラグインとして機能します。
論文 参考訳(メタデータ) (2022-03-17T11:18:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。