論文の概要: Multi-Hop Privacy Propagation for Differentially Private Federated Learning in Social Networks
- arxiv url: http://arxiv.org/abs/2508.07676v1
- Date: Mon, 11 Aug 2025 06:53:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.979448
- Title: Multi-Hop Privacy Propagation for Differentially Private Federated Learning in Social Networks
- Title(参考訳): ソーシャルネットワークにおける個人差分学習のためのマルチホッププライバシ・プロパゲーション
- Authors: Chenchen Lin, Xuehe Wang,
- Abstract要約: フェデレート学習は、ローカルデータを共有することなく、分散クライアント間で協調的なモデルトレーニングを可能にする。
クライアントのプライバシ損失は、そのプライバシ保護戦略だけでなく、他者のプライバシ決定にも依存する。
本稿では,間接的プライバシー漏洩を体系的に定量化する,社会的に認識されたプライバシー保護FL機構を提案する。
- 参考スコア(独自算出の注目度): 1.5653612447564105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables collaborative model training across decentralized clients without sharing local data, thereby enhancing privacy and facilitating collaboration among clients connected via social networks. However, these social connections introduce privacy externalities: a client's privacy loss depends not only on its privacy protection strategy but also on the privacy decisions of others, propagated through the network via multi-hop interactions. In this work, we propose a socially-aware privacy-preserving FL mechanism that systematically quantifies indirect privacy leakage through a multi-hop propagation model. We formulate the server-client interaction as a two-stage Stackelberg game, where the server, as the leader, optimizes incentive policies, and clients, as followers, strategically select their privacy budgets, which determine their privacy-preserving levels by controlling the magnitude of added noise. To mitigate information asymmetry in networked privacy estimation, we introduce a mean-field estimator to approximate the average external privacy risk. We theoretically prove the existence and convergence of the fixed point of the mean-field estimator and derive closed-form expressions for the Stackelberg Nash Equilibrium. Despite being designed from a client-centric incentive perspective, our mechanism achieves approximately-optimal social welfare, as revealed by Price of Anarchy (PoA) analysis. Experiments on diverse datasets demonstrate that our approach significantly improves client utilities and reduces server costs while maintaining model performance, outperforming both Social-Agnostic (SA) baselines and methods that account for social externalities.
- Abstract(参考訳): フェデレートラーニング(FL)は、ローカルデータを共有せずに分散化されたクライアント間で協調的なモデルトレーニングを可能にし、プライバシーを強化し、ソーシャルネットワークを介して接続されたクライアント間のコラボレーションを促進する。
クライアントのプライバシ損失は、プライバシ保護戦略だけでなく、他者のプライバシ判断にも依存し、マルチホップインタラクションを通じてネットワークを通じて伝播する。
本研究では,マルチホップ伝搬モデルを用いて間接的プライバシー漏洩を体系的に定量化する,社会的に認識可能なプライバシ保護FL機構を提案する。
サーバとクライアント間のインタラクションを2段階のStackelbergゲームとして定式化し、サーバをリーダーとしてインセンティブポリシーを最適化し、クライアントをフォロワーとして、自分たちのプライバシ予算を戦略的に選択します。
ネットワーク型プライバシ推定における情報の非対称性を軽減するため,平均フィールド推定器を導入し,平均外部プライバシリスクを推定する。
理論上、平均場推定器の定点の存在と収束性を証明し、スタックルバーグ・ナッシュ平衡の閉形式式を導出する。
クライアント中心のインセンティブの観点から設計されているにもかかわらず、我々のメカニズムはPrice of Anarchy (PoA)分析で明らかになったように、ほぼ最適の社会福祉を実現する。
多様なデータセットの実験により、我々のアプローチはクライアントユーティリティを著しく改善し、モデル性能を維持しながらサーバコストを低減し、社会的非依存(Social-Agnostic, SA)ベースラインと社会的外部性を考慮した手法の両方を上回ります。
関連論文リスト
- Optimal Client Sampling in Federated Learning with Client-Level Heterogeneous Differential Privacy [6.517767018830131]
プライバシー予算に基づいてクライアントをグループに分割し,各グループ内のクライアントレベルのDPを実現し,プライバシー予算の無駄を削減するGDPFedを提案する。
また、GDPFed$+$を導入することで、不要なノイズを排除し、グループごとのクライアントサンプリング比率を最適化します。
論文 参考訳(メタデータ) (2025-05-19T18:55:34Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Breaking the Communication-Privacy-Accuracy Tradeoff with
$f$-Differential Privacy [51.11280118806893]
サーバが複数のユーザの協調的なデータ分析を,プライバシの懸念と限られた通信能力で調整する,フェデレートされたデータ分析問題を考える。
有限出力空間を有する離散値機構の局所的差分プライバシー保証を$f$-differential privacy (DP) レンズを用いて検討する。
より具体的には、様々な離散的評価機構の厳密な$f$-DP保証を導出することにより、既存の文献を前進させる。
論文 参考訳(メタデータ) (2023-02-19T16:58:53Z) - Privacy-Preserving Joint Edge Association and Power Optimization for the
Internet of Vehicles via Federated Multi-Agent Reinforcement Learning [74.53077322713548]
プライバシ保護型共同エッジアソシエーションと電力配分問題について検討する。
提案されたソリューションは、最先端のソリューションよりも高いプライバシレベルを維持しながら、魅力的なトレードオフにぶつかる。
論文 参考訳(メタデータ) (2023-01-26T10:09:23Z) - Social-Aware Clustered Federated Learning with Customized Privacy Preservation [38.00035804720786]
本稿では,ソーシャル・アウェア・クラスタ・フェデレーション・ラーニングの新たな手法を提案する。
モデル更新をソーシャルグループに混ぜ合わせることで、敵はソーシャル層を組み合わせた結果のみを盗むことができるが、個人のプライバシーを盗むことはできない。
FacebookネットワークとMNIST/CIFAR-10データセットの実験は、SCFLが学習ユーティリティを効果的に強化し、ユーザの支払いを改善し、カスタマイズ可能なプライバシ保護を強制できることを検証する。
論文 参考訳(メタデータ) (2022-12-25T10:16:36Z) - Cross-Network Social User Embedding with Hybrid Differential Privacy
Guarantees [81.6471440778355]
プライバシー保護方式でユーザを包括的に表現するために,ネットワーク横断型ソーシャルユーザ埋め込みフレームワークDP-CroSUEを提案する。
特に、各異種ソーシャルネットワークに対して、異種データ型に対するプライバシー期待の変化を捉えるために、まずハイブリッドな差分プライバシーの概念を導入する。
ユーザ埋め込みをさらに強化するため、新しいネットワーク間GCN埋め込みモデルは、それらの整列したユーザを介して、ネットワーク間で知識を伝達するように設計されている。
論文 参考訳(メタデータ) (2022-09-04T06:22:37Z) - Group privacy for personalized federated learning [4.30484058393522]
フェデレーション・ラーニング(Federated Learning)は、コラボレーティブ・機械学習の一種で、参加するクライアントがデータをローカルに処理し、コラボレーティブ・モデルの更新のみを共有する。
我々は、$d$-privacyのキープロパティを利用するグループプライバシ保証を提供する方法を提案する。
論文 参考訳(メタデータ) (2022-06-07T15:43:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。