論文の概要: Social-Aware Clustered Federated Learning with Customized Privacy
Preservation
- arxiv url: http://arxiv.org/abs/2212.13992v2
- Date: Sun, 3 Mar 2024 07:37:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-07 04:10:54.170852
- Title: Social-Aware Clustered Federated Learning with Customized Privacy
Preservation
- Title(参考訳): プライバシ保護をカスタマイズしたソーシャルアウェアクラスタ型連合学習
- Authors: Yuntao Wang, Zhou Su, Yanghe Pan, Tom H Luan, Ruidong Li, and Shui Yu
- Abstract要約: 本稿では,ソーシャル・アウェア・クラスタ・フェデレーション・ラーニングの新たな手法を提案する。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができるが、個人のプライバシーを盗むことはできない。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
- 参考スコア(独自算出の注目度): 38.00035804720786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A key feature of federated learning (FL) is to preserve the data privacy of
end users. However, there still exist potential privacy leakage in exchanging
gradients under FL. As a result, recent research often explores the
differential privacy (DP) approaches to add noises to the computing results to
address privacy concerns with low overheads, which however degrade the model
performance. In this paper, we strike the balance of data privacy and
efficiency by utilizing the pervasive social connections between users.
Specifically, we propose SCFL, a novel Social-aware Clustered Federated
Learning scheme, where mutually trusted individuals can freely form a social
cluster and aggregate their raw model updates (e.g., gradients) inside each
cluster before uploading to the cloud for global aggregation. By mixing model
updates in a social group, adversaries can only eavesdrop the social-layer
combined results, but not the privacy of individuals. We unfold the design of
SCFL in three steps.i) Stable social cluster formation. Considering users'
heterogeneous training samples and data distributions, we formulate the optimal
social cluster formation problem as a federation game and devise a fair revenue
allocation mechanism to resist free-riders. ii) Differentiated trust-privacy
mapping}. For the clusters with low mutual trust, we design a customizable
privacy preservation mechanism to adaptively sanitize participants' model
updates depending on social trust degrees. iii) Distributed convergence}. A
distributed two-sided matching algorithm is devised to attain an optimized
disjoint partition with Nash-stable convergence. Experiments on Facebook
network and MNIST/CIFAR-10 datasets validate that our SCFL can effectively
enhance learning utility, improve user payoff, and enforce customizable privacy
protection.
- Abstract(参考訳): federated learning(fl)の重要な特徴は、エンドユーザのデータプライバシを保護することだ。
しかし、FLの下で勾配を交換する際の潜在的なプライバシー漏洩が存在する。
その結果、近年の研究は、低オーバーヘッドのプライバシ問題に対処するために、コンピューティング結果にノイズを追加するための差分プライバシー(dp)アプローチをしばしば探究している。
本稿では,ユーザ間のソーシャルな関係を利用して,データのプライバシーと効率のバランスをとる。
具体的には,ソーシャル・アウェア・クラスタ・フェデレーテッド・ラーニング(SCFL)を提案し,信頼関係のある個人が自由にソーシャル・クラスタを形成し,各クラスタ内で生モデル更新(勾配など)を集約し,クラウドにアップロードしてグローバル・アグリゲーションを行う。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができる。
scflの設計を3つのステップで展開する。i)安定した社会クラスター形成。
ユーザの不均一なトレーニングサンプルやデータ分布を考慮すると、最適なソーシャルクラスタ形成問題をフェデレーションゲームとして定式化し、フリーライダーに対する公正な収益配分機構を考案する。
二 信頼-プライバシーマッピングを区別すること。
相互信頼度が低いクラスタに対しては,社会的信頼度に応じて参加者のモデル更新を適応的に衛生化する,カスタマイズ可能なプライバシ保護機構を設計する。
iii)分散収束。
分散二面マッチングアルゴリズムは, Nash-stable の収束に最適化された解離分割を実現するために考案された。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
関連論文リスト
- Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - Privacy-preserving gradient-based fair federated learning [0.0]
フェデレートラーニング(FL)スキームは、複数の参加者が基盤となるデータを共有することなく、ニューラルネットワークを協調的にトレーニングすることを可能にする。
本稿では,本研究の成果に基づいて,新しい,公正かつプライバシ保護のFLスキームを提案する。
論文 参考訳(メタデータ) (2024-07-18T19:56:39Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - How Much Privacy Does Federated Learning with Secure Aggregation
Guarantee? [22.7443077369789]
フェデレートラーニング(FL)は、複数のユーザに保存されたデータに対して、プライバシ保護機械学習を可能にすることへの関心が高まっている。
データはユーザのデバイスを離れることはないが、トレーニングデータに対する重要な計算がトレーニングされたローカルモデル形式で共有されるため、プライバシは保証されない。
セキュアアグリゲーション(SA)は、FLのプライバシーを守るためのフレームワークとして開発されている。
論文 参考訳(メタデータ) (2022-08-03T18:44:17Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Federated Social Recommendation with Graph Neural Network [69.36135187771929]
本稿では,ソーシャル情報とユーザ・イテムの相互作用を融合させることにより,ソーシャル・レコメンデーションの問題であるソーシャル・リコメンデーションの緩和を提案する。
我々は textbfGraph Neural Network (FeSoG) を用いた textbfFedrated textbfSocial 推薦フレームワークを考案した。
論文 参考訳(メタデータ) (2021-11-21T09:41:39Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z) - Compression Boosts Differentially Private Federated Learning [0.7742297876120562]
フェデレートされた学習により、分散エンティティは、自身のデータを共有することなく、共通のモデルを協調的にトレーニングできる。
悪意のあるエンティティが、捕獲された勾配から参加者のトレーニングデータに関するプライベート情報を学ぶことができるような、さまざまな推論や再構築攻撃に対して脆弱なままである。
本稿では,2つのデータセットを用いて,従来の非私的フェデレート学習方式と比較して,通信コストを最大95%削減できることを示す。
論文 参考訳(メタデータ) (2020-11-10T13:11:03Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。