論文の概要: Efficient Federated Learning on Knowledge Graphs via Privacy-preserving
Relation Embedding Aggregation
- arxiv url: http://arxiv.org/abs/2203.09553v1
- Date: Thu, 17 Mar 2022 18:32:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 10:32:05.475756
- Title: Efficient Federated Learning on Knowledge Graphs via Privacy-preserving
Relation Embedding Aggregation
- Title(参考訳): プライバシー保護関係を用いた知識グラフの効果的なフェデレーション学習
- Authors: Kai Zhang, Yu Wang, Hongyi Wang, Lifu Huang, Carl Yang, Lichao Sun
- Abstract要約: 本稿では、フェデレーションのプライバシー問題に対処するため、プライバシ保護関係埋め込み集約(FedR)を用いたフェデレーション学習パラダイムを提案する。
FedEと比較して、FedRは、リンク予測タスクにおけるプライバシーと効率の両方において、同様のユーティリティと重要な(ほぼ2倍)改善を実現している。
- 参考スコア(独自算出の注目度): 35.83720721128121
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) on knowledge graphs (KGs) has yet to be as well
studied as other domains, such as computer vision and natural language
processing. A recent study FedE first proposes an FL framework that shares
entity embeddings of KGs across all clients. However, compared with model
sharing in vanilla FL, entity embedding sharing from FedE would incur severe
privacy leakage. Specifically, the known entity embedding can be used to infer
whether a specific relation between two entities exists in a private client. In
this paper, we first develop a novel attack that aims to recover the original
data based on embedding information, which is further used to evaluate the
vulnerabilities of FedE. Furthermore, we propose a Federated learning paradigm
with privacy-preserving Relation embedding aggregation (FedR) to tackle the
privacy issue in FedE. Compared to entity embedding sharing, relation embedding
sharing policy can significantly reduce the communication cost due to its
smaller size of queries. We conduct extensive experiments to evaluate FedR with
five different embedding learning models and three benchmark KG datasets.
Compared to FedE, FedR achieves similar utility and significant (nearly 2X)
improvements in both privacy and efficiency on link prediction task.
- Abstract(参考訳): 知識グラフ(kgs)上の連合学習(fl)は、コンピュータビジョンや自然言語処理といった他の領域ほどよく研究されていない。
FedEは、すべてのクライアントにKGのエンティティ埋め込みを共有するFLフレームワークを最初に提案している。
しかしながら、バニラFLのモデル共有と比較して、FedEからのエンティティの埋め込みは深刻なプライバシー漏洩を引き起こす。
具体的には、既知のエンティティ埋め込みを使用して、2つのエンティティ間の特定の関係がプライベートクライアントに存在するかどうかを推測することができる。
本稿では,FedEの脆弱性を評価するために,埋め込み情報に基づいて元のデータを復元することを目的とした新たな攻撃法を提案する。
さらに,fedeにおけるプライバシー問題に取り組むために,federated-preserving relation embedded aggregation (fedr) を用いたフェデレーション学習パラダイムを提案する。
エンティティの埋め込み共有と比較して、関係の埋め込み共有ポリシは、クエリのサイズが小さいため、通信コストを大幅に削減できる。
5種類の埋め込み学習モデルと3つのベンチマークKGデータセットを用いてFedRの評価を行う。
FedEと比較して、FedRは、リンク予測タスクにおけるプライバシーと効率の両方において、同様のユーティリティと重要な(ほぼ2倍)改善を実現している。
関連論文リスト
- FewFedPIT: Towards Privacy-preserving and Few-shot Federated Instruction Tuning [54.26614091429253]
フェデレーション・インストラクション・チューニング(FedIT)は、複数のデータ所有者間で協調的なトレーニングを統合することで、有望なソリューションである。
FedITは、インストラクショナルデータの不足や、トレーニングデータ抽出攻撃への露出リスクなどの制限に直面している。
本稿では,FewFedPITを提案する。このFewFedPITは,フェデレートされた数ショット学習のプライバシー保護とモデル性能を同時に向上する。
論文 参考訳(メタデータ) (2024-03-10T08:41:22Z) - Privacy-Enhancing Collaborative Information Sharing through Federated
Learning -- A Case of the Insurance Industry [1.8092553911119764]
このレポートは、複数の保険業界データセットにまたがる単一のモデルを学ぶために、フェデレートラーニング(FL)の価値を活用する利点を実証している。
FLは、プライバシの懸念によって引き起こされる、データボリュームの制限とデータの多様性の2つに対処する。
FLの各ラウンドにおいて、コラボレータはローカルなプライベートデータを使用してモデルの改善を計算し、これらの洞察を組み合わせてグローバルなモデルを更新する。
論文 参考訳(メタデータ) (2024-02-22T21:46:24Z) - FedRKG: A Privacy-preserving Federated Recommendation Framework via
Knowledge Graph Enhancement [20.214339212091012]
フェデレートラーニング(FL)は、リコメンデーションシステムでデータプライバシをローカルにトレーニングする上で有望なアプローチとして登場した。
最近のグラフニューラルネットワーク(GNN)は、ユーザとアイテム間の高次インタラクションをキャプチャできるため、リコメンデーションタスクで人気を集めている。
本稿では,グローバル知識グラフ(KG)を構築・維持する新しいフェデレーションレコメンデーションシステムであるFedRKGを提案する。
論文 参考訳(メタデータ) (2024-01-20T02:38:21Z) - Personalized Federated Learning with Attention-based Client Selection [57.71009302168411]
我々は,意図に基づくクライアント選択機構を備えた新しいPFLアルゴリズムであるFedACSを提案する。
FedACSは、類似したデータ分散を持つクライアント間のコラボレーションを強化するためのアテンションメカニズムを統合している。
CIFAR10とFMNISTの実験は、FedACSの優位性を検証する。
論文 参考訳(メタデータ) (2023-12-23T03:31:46Z) - Federated Learning Empowered by Generative Content [55.576885852501775]
フェデレートラーニング(FL)は、プライバシ保護方法でモデルのトレーニングに分散プライベートデータを活用可能にする。
本稿では,FedGCと呼ばれる新しいFLフレームワークを提案する。
我々は、さまざまなベースライン、データセット、シナリオ、モダリティをカバーする、FedGCに関する体系的な実証的研究を行う。
論文 参考訳(メタデータ) (2023-12-10T07:38:56Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Federated Knowledge Graphs Embedding [50.35484170815679]
本稿では,fkge(federated knowledge graphs embedded)という分散スケーラブル学習フレームワークを提案する。
FKGEは、知識グラフのペア間の逆生成を利用して、異なるドメインの同一の実体と関係を近接埋め込み空間に変換する。
トレーニングデータのプライバシーを保護するために、FKGEはさらにプライバシー保護ニューラルネットワーク構造を実装し、生データの漏洩を保証しません。
論文 参考訳(メタデータ) (2021-05-17T05:30:41Z) - Federated $f$-Differential Privacy [19.499120576896228]
フェデレートラーニング(Federated Learning, FL)とは、クライアントが繰り返し情報を共有することによってモデルを学ぶ訓練パラダイムである。
フェデレーション設定に特化した新しい概念である、フェデレーション$f$-differenceプライバシを紹介します。
そこで我々は,最先端flアルゴリズムの大規模ファミリーに対応する汎用的federated learningフレームワークprifedsyncを提案する。
論文 参考訳(メタデータ) (2021-02-22T16:28:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。