論文の概要: Resource-Adaptive Federated Text Generation with Differential Privacy
- arxiv url: http://arxiv.org/abs/2603.07027v1
- Date: Sat, 07 Mar 2026 04:11:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:13.69592
- Title: Resource-Adaptive Federated Text Generation with Differential Privacy
- Title(参考訳): 差分プライバシーを考慮した資源適応型フェデレーションテキスト生成
- Authors: Jiayi Wang, John Gounley, Heidi Hanson,
- Abstract要約: 差分的プライベート(DP)合成データセットは、グローバルな分布を近似し、タスク間で再利用することができる。
クライアントの能力に適応するフレキシブルな参加フレームワークを提案する。
- 参考スコア(独自算出の注目度): 3.7397653111851814
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In cross-silo federated learning (FL), sensitive text datasets remain confined to local organizations due to privacy regulations, making repeated training for each downstream task both communication-intensive and privacy-demanding. A promising alternative is to generate differentially private (DP) synthetic datasets that approximate the global distribution and can be reused across tasks. However, pretrained large language models (LLMs) often fail under domain shift, and federated finetuning is hindered by computational heterogeneity: only resource-rich clients can update the model, while weaker clients are excluded, amplifying data skew and the adverse effects of DP noise. We propose a flexible participation framework that adapts to client capacities. Strong clients perform DP federated finetuning, while weak clients contribute through a lightweight DP voting mechanism that refines synthetic text. To ensure the synthetic data mirrors the global dataset, we apply control codes (e.g., labels, topics, metadata) that represent each client's data proportions and constrain voting to semantically coherent subsets. This two-phase approach requires only a single round of communication for weak clients and integrates contributions from all participants. Experiments show that our framework improves distribution alignment and downstream robustness under DP and heterogeneity.
- Abstract(参考訳): クロスサイロ・フェデレーション・ラーニング(FL)では、プライバシ規制により、機密テキストデータセットはローカル組織に限られており、通信集約とプライバシ要求の両方で、下流の各タスクのトレーニングを繰り返し行う。
有望な代替手段は、グローバルな分布を近似し、タスク間で再利用可能な差分プライベート(DP)合成データセットを生成することである。
しかし、事前訓練された大規模言語モデル(LLM)はドメインシフトで失敗することが多く、フェデレートされた微調整は計算上の不均一性によって妨げられる。
クライアントの能力に適応するフレキシブルな参加フレームワークを提案する。
強いクライアントはDPフェデレートされた微調整を行い、弱いクライアントは合成テキストを洗練する軽量なDP投票機構を通じて貢献する。
グローバルデータセットを確実にミラーするために、各クライアントのデータ比率を表す制御コード(ラベル、トピック、メタデータなど)を適用し、セマンティックに一貫性のあるサブセットに投票を制限します。
この2段階のアプローチでは、弱いクライアントのための1ラウンドのコミュニケーションしか必要とせず、すべての参加者からのコントリビューションを統合する。
実験により,DPおよび不均一性下での配電系統の整合性および下流のロバスト性の向上が示された。
関連論文リスト
- Personalized Federated Learning with Bidirectional Communication Compression via One-Bit Random Sketching [19.959825317183924]
フェデレートラーニング(FL)は、分散データ間の協調トレーニングを可能にする。
pFed1BSは,1ビットのランダムスケッチによる極端な通信圧縮を実現する,パーソナライズされたFLフレームワークである。
本フレームワークでは,クライアントが高度に圧縮された1ビットのスケッチを送信し,サーバが集約し,グローバルな1ビットのコンセンサスをブロードキャストする。
論文 参考訳(メタデータ) (2025-11-17T08:55:22Z) - Towards Federated Clustering: A Client-wise Private Graph Aggregation Framework [57.04850867402913]
フェデレーションクラスタリングは、分散化されたラベルのないデータからパターンを抽出する課題に対処する。
本研究では,プライバシ保護のための知識共有媒体として,局所構造グラフを革新的に活用する新しいアルゴリズムSPP-FGCを提案する。
我々のフレームワークは最先端のパフォーマンスを実現し、認証可能なプライバシー保証を維持しつつ、フェデレーションベースラインよりも最大10%(NMI)のクラスタリング精度を向上させる。
論文 参考訳(メタデータ) (2025-11-14T03:05:22Z) - FedPPA: Progressive Parameter Alignment for Personalized Federated Learning [0.9931624906346306]
フェデレートラーニング(FL)は、複数のクライアントがデータを共有せずに協調的にモデルをトレーニングできる、分散されたプライバシ保護機械学習パラダイムとして設計されている。
実世界のシナリオでは、クライアントは不均一な計算資源を持ち、非独立で同一の分散データ(非IID)を保持し、トレーニング中に重大な課題を生じさせる。
本稿では,クライアント間の共通レイヤの重み付けとグローバルモデルの重み付けを段階的に整合させるプログレッシブアライメント(FedPPA)を提案する。
MNIST、FMNIST、CIFAR-10を含む3つの画像分類データセットの実験は、FedPPAが既存のFLアルゴリズムより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-10-16T14:03:05Z) - FedHFT: Efficient Federated Finetuning with Heterogeneous Edge Clients [37.60974510385015]
微調整付き事前学習型大規模言語モデル(LLM)は、パーソナライズされた自然言語理解(NLU)アプリケーションにおいて一般的なプラクティスとなっている。
i) プロプライエタリなデータ機密性やプライバシ要件による微調整のための制限されたデータおよび/またはヘテロジニアスなデータ、(ii) エッジデバイスなどの参加クライアントで利用可能なさまざまなリソース、という2つの大きな課題があります。
本稿では,両課題に対処する,効率的かつパーソナライズされたファインチューニングフレームワークであるFedHFTを提案する。
論文 参考訳(メタデータ) (2025-10-15T19:47:51Z) - Hybrid-Regularized Magnitude Pruning for Robust Federated Learning under Covariate Shift [2.298932494750101]
クライアント側トレーニング分布の不整合がフェデレート学習モデルの性能を著しく低下させることを示す。
本稿では,ニューラルネットワークの疎結合性,冗長性,堅牢性を改善するために,フラニングとクライアントトレーニングの正規化を組み合わせた新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - Communication-Efficient Personalized Federated Learning for Speech-to-Text Tasks [64.02867484165476]
プライバシー保護と法的規制を満たすために、連邦学習(FL)は、音声テキスト(S2T)システムのトレーニングにおいて大きな注目を集めている。
S2Tタスクで一般的に使用されるFLアプローチ(textscFedAvg)は、通常、広範な通信オーバーヘッドに悩まされる。
我々は、クライアント側チューニングとサーバとのインタラクションのための軽量なLoRAモジュールであるtextscFedLoRA と、$k$-near を備えたグローバルモデルである textscFedMem を導入したパーソナライズされたS2Tフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-18T15:39:38Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - PS-FedGAN: An Efficient Federated Learning Framework Based on Partially
Shared Generative Adversarial Networks For Data Privacy [56.347786940414935]
分散計算のための効果的な学習パラダイムとして、フェデレートラーニング(FL)が登場した。
本研究は,部分的なGANモデル共有のみを必要とする新しいFLフレームワークを提案する。
PS-FedGANと名付けられたこの新しいフレームワークは、異種データ分散に対処するためのGANリリースおよびトレーニングメカニズムを強化する。
論文 参考訳(メタデータ) (2023-05-19T05:39:40Z) - Federated Learning with GAN-based Data Synthesis for Non-IID Clients [8.304185807036783]
フェデレートラーニング(FL)は、最近、プライバシ保護のためのコラボレーティブラーニングパラダイムとして人気を博している。
我々は,合成データを共有することで,この非IID課題を解決するために,SDA-FL(Synthetic Data Aided Federated Learning)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-11T11:43:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。