論文の概要: FedHypeVAE: Federated Learning with Hypernetwork Generated Conditional VAEs for Differentially Private Embedding Sharing
- arxiv url: http://arxiv.org/abs/2601.00785v1
- Date: Fri, 02 Jan 2026 18:40:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.621825
- Title: FedHypeVAE: Federated Learning with Hypernetwork Generated Conditional VAEs for Differentially Private Embedding Sharing
- Title(参考訳): FedHypeVAE: 異なるプライベートな埋め込み共有のためのハイパーネットワークによるフェデレーション学習
- Authors: Sunny Gupta, Amit Sethi,
- Abstract要約: FedHypeVAEは、分散化されたクライアントにまたがるレベルのデータを埋め込むための、差分プライベートでハイパーネットワーク駆動のフレームワークである。
共有ハイパーネットワークは、差分プライバシの下で最適化され、ノイズの多いクリップされた勾配のみがクライアント間で集約される。
- 参考スコア(独自算出の注目度): 8.063829694260594
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated data sharing promises utility without centralizing raw data, yet existing embedding-level generators struggle under non-IID client heterogeneity and provide limited formal protection against gradient leakage. We propose FedHypeVAE, a differentially private, hypernetwork-driven framework for synthesizing embedding-level data across decentralized clients. Building on a conditional VAE backbone, we replace the single global decoder and fixed latent prior with client-aware decoders and class-conditional priors generated by a shared hypernetwork from private, trainable client codes. This bi-level design personalizes the generative layerrather than the downstream modelwhile decoupling local data from communicated parameters. The shared hypernetwork is optimized under differential privacy, ensuring that only noise-perturbed, clipped gradients are aggregated across clients. A local MMD alignment between real and synthetic embeddings and a Lipschitz regularizer on hypernetwork outputs further enhance stability and distributional coherence under non-IID conditions. After training, a neutral meta-code enables domain agnostic synthesis, while mixtures of meta-codes provide controllable multi-domain coverage. FedHypeVAE unifies personalization, privacy, and distribution alignment at the generator level, establishing a principled foundation for privacy-preserving data synthesis in federated settings. Code: github.com/sunnyinAI/FedHypeVAE
- Abstract(参考訳): フェデレートされたデータ共有は、生データを集中化せずにユーティリティを約束するが、既存の埋め込みレベルのジェネレータは、非IIDクライアントの不均一性の下で苦労し、勾配リークに対して限定的な公式な保護を提供する。
我々は、分散化されたクライアント間で埋め込みレベルのデータを合成するための、差分的にプライベートなハイパーネットワーク駆動のフレームワークであるFedHypeVAEを提案する。
条件付きVAEバックボーン上に構築され、単一のグローバルデコーダと固定遅延をクライアント対応デコーダと、プライベートでトレーニング可能なクライアントコードから共有ハイパーネットワークによって生成されたクラス条件プリエントに置き換える。
このバイレベル設計は、通信パラメータからローカルデータを分離しながら、下流モデルよりも生成層をパーソナライズする。
共有されたハイパーネットワークは、差分プライバシーの下で最適化され、ノイズが乱れたクリップされた勾配のみがクライアント間で集約される。
実と合成の埋め込みと超ネットワーク出力上のリプシッツ正則化器との局所MDDアライメントは、非IID条件下での安定性と分布コヒーレンスをさらに向上させる。
トレーニング後、中立なメタコードはドメインに依存しない合成を可能にし、メタコードの混合は制御可能なマルチドメインカバレッジを提供する。
FedHypeVAEは、ジェネレータレベルでのパーソナライズ、プライバシ、配布のアライメントを統一し、フェデレーションされた設定におけるプライバシ保護データ合成の原則的な基盤を確立する。
コード:github.com/sunnyinAI/FedHypeVAE
関連論文リスト
- Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - CO-PFL: Contribution-Oriented Personalized Federated Learning for Heterogeneous Networks [51.43780477302533]
コントリビューション指向型PFL(CO-PFL)は,グローバルアグリゲーションに対する各クライアントのコントリビューションを動的に推定するアルゴリズムである。
CO-PFLは、パーソナライズ精度、堅牢性、スケーラビリティ、収束安定性において、最先端の手法を一貫して超越している。
論文 参考訳(メタデータ) (2025-10-23T05:10:06Z) - Differentially Private Decentralized Dataset Synthesis Through Randomized Mixing with Correlated Noise [0.0]
分散データ設定における差分プライベートな合成データ生成について検討する。
我々は最近提案された微分プライベートなクラス中心データアグリゲーションに基づいて構築する。
論文 参考訳(メタデータ) (2025-09-12T16:18:35Z) - A New Federated Learning Framework Against Gradient Inversion Attacks [17.3044168511991]
Federated Learning (FL)は、クライアントが生データを共有せずに機械学習モデルを集合的にトレーニングできるようにすることで、データのプライバシを保護することを目的としている。
近年の研究では、FL中に交換された情報がグラディエント・インバージョン・アタック(GIA)の対象であることが示されている。
論文 参考訳(メタデータ) (2024-12-10T04:53:42Z) - Personalized Federated Collaborative Filtering: A Variational AutoEncoder Approach [49.63614966954833]
Federated Collaborative Filtering (FedCF)は、プライバシを保護する新しいレコメンデーションフレームワークの開発に焦点を当てた新興分野である。
既存のFedCFメソッドは通常、分散協調フィルタリング(CF)アルゴリズムとプライバシ保護メカニズムを組み合わせて、パーソナライズされた情報をユーザ埋め込みベクタに保存する。
本稿では,ユーザのパーソナライズされた情報を潜在変数とニューラルモデルに同時に保存することで,新たなパーソナライズされたFedCF手法を提案する。
論文 参考訳(メタデータ) (2024-08-16T05:49:14Z) - FedLAP-DP: Federated Learning by Sharing Differentially Private Loss Approximations [53.268801169075836]
我々は,フェデレーション学習のための新しいプライバシ保護手法であるFedLAP-DPを提案する。
公式なプライバシー分析は、FedLAP-DPが典型的な勾配共有方式と同じプライバシーコストを発生させることを示している。
提案手法は, 通常の勾配共有法に比べて高速な収束速度を示す。
論文 参考訳(メタデータ) (2023-02-02T12:56:46Z) - Privacy-Preserving Federated Deep Clustering based on GAN [12.256298398007848]
我々はGAN(Generative Adversarial Networks)に基づくフェデレーションディープクラスタリングへの新しいアプローチを提案する。
各クライアントは、ローカルな生成敵ネットワーク(GAN)をローカルにトレーニングし、合成データをサーバにアップロードする。
サーバは合成データに深いクラスタリングネットワークを適用して$k$のクラスタセントロイドを確立し、クラスタ割り当てのためにクライアントにダウンロードする。
論文 参考訳(メタデータ) (2022-11-30T13:20:11Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Understanding Clipping for Federated Learning: Convergence and
Client-Level Differential Privacy [67.4471689755097]
本稿では, 切断したFedAvgが, 実質的なデータ均一性でも驚くほど良好に動作できることを実証的に示す。
本稿では,差分プライベート(DP)FedAvgアルゴリズムの収束解析を行い,クリッピングバイアスとクライアント更新の分布との関係を明らかにする。
論文 参考訳(メタデータ) (2021-06-25T14:47:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。