論文の概要: Parameter-Efficient and Personalized Federated Training of Generative Models at the Edge
- arxiv url: http://arxiv.org/abs/2511.11585v1
- Date: Sat, 11 Oct 2025 09:33:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-07 19:06:32.178613
- Title: Parameter-Efficient and Personalized Federated Training of Generative Models at the Edge
- Title(参考訳): エッジにおける生成モデルのパラメータ効率と個人化訓練
- Authors: Kabir Khan, Manju Sarkar, Anita Kar, Suresh Ghosh,
- Abstract要約: FedGen-Edgeは、軽量クライアントサイドアダプタから凍結してトレーニング済みのグローバルバックボーンを分離し、アダプタのみをフェデレートするフレームワークである。
言語モデリング(PTB)と画像生成(CIFAR-10)では、FedGen-Edgeは強いベースラインよりも低いパープレキシティ/FIDと高速収束を実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large generative models (for example, language and diffusion models) enable high-quality text and image synthesis but are hard to train or adapt in cross-device federated settings due to heavy computation and communication and statistical/system heterogeneity. We propose FedGen-Edge, a framework that decouples a frozen, pre-trained global backbone from lightweight client-side adapters and federates only the adapters. Using Low-Rank Adaptation (LoRA) constrains client updates to a compact subspace, which reduces uplink traffic by more than 99 percent versus full-model FedAvg, stabilizes aggregation under non-IID data, and naturally supports personalization because each client can keep a locally tuned adapter. On language modeling (PTB) and image generation (CIFAR-10), FedGen-Edge achieves lower perplexity/FID and faster convergence than strong baselines while retaining a simple FedAvg-style server. A brief ablation shows diminishing returns beyond moderate LoRA rank and a trade-off between local epochs and client drift. FedGen-Edge offers a practical path toward privacy-preserving, resource-aware, and personalized generative AI on heterogeneous edge devices.
- Abstract(参考訳): 大規模な生成モデル(例えば言語や拡散モデル)は高品質なテキストと画像合成を可能にするが、重い計算と通信と統計・システムの不均一性のためにデバイス横断のフェデレーション環境で訓練や適応は困難である。
我々はFedGen-Edgeを提案する。FedGen-Edgeは、軽量クライアントサイドアダプタから凍結してトレーニング済みのグローバルバックボーンを分離し、アダプタのみをフェデレートするフレームワークである。
Low-Rank Adaptation (LoRA)を使用することで、クライアントの更新をコンパクトなサブスペースに制限し、アップリンクトラフィックを99%以上削減し、非IIDデータでのアグリゲーションを安定化し、各クライアントがローカルに調整されたアダプタを維持できるため、パーソナライズを自然にサポートする。
言語モデリング(PTB)と画像生成(CIFAR-10)では、FedGen-Edgeは単純なFedAvgスタイルのサーバを保持しながら、強いベースラインよりも低いパープレキシティ/FIDと高速な収束を実現している。
短いアブレーションは、中程度のLoRAランクを超えるリターンの減少と、ローカルエポックとクライアントのドリフトの間のトレードオフを示している。
FedGen-Edgeは、異種エッジデバイス上でのプライバシ保護、リソース認識、パーソナライズされた生成AIへの実践的なパスを提供する。
関連論文リスト
- Edge-Assisted Collaborative Fine-Tuning for Multi-User Personalized Artificial Intelligence Generated Content (AIGC) [38.59865959433328]
クラウドベースのソリューションは計算を助けるが、プライバシのリスク、パーソナライズ効率、通信コストに対処するのに不足することが多い。
本稿では,クラスタを意識した新しい階層型統合フレームワークを提案する。
このフレームワークは,スケーラブルなマルチユーザパーソナライズAIGCサービスの実用性を維持しつつ,収束の加速を実現する。
論文 参考訳(メタデータ) (2025-08-06T06:07:24Z) - Differentially Private Federated Low Rank Adaptation Beyond Fixed-Matrix [15.815684304898575]
大規模言語モデル(LLM)は通常、ドメイン固有のタスクを微調整する必要がある。
両方のアダプタにノイズを追加することで、モデル上の合成ノイズが増幅され、一方のアダプタを固定すると、微調整の学習性が損なわれる。
高い差分プライバシーを持つ低ランクアダプタを効果的に更新するための,新しいフェデレートLoRAフレームワークであるFedASKを提案する。
論文 参考訳(メタデータ) (2025-07-14T07:17:24Z) - Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - Generative AI-Powered Plugin for Robust Federated Learning in Heterogeneous IoT Networks [3.536605202672355]
フェデレーション学習により、エッジデバイスは、データのローカライズを維持しながら、データのプライバシを維持しながら、グローバルモデルを協調的にトレーニングすることが可能になる。
我々は,AI強化データ拡張と均衡サンプリング戦略により,IIDからIDDへの非IIDデータ分布を近似する,フェデレーション最適化技術のための新しいプラグインを提案する。
論文 参考訳(メタデータ) (2024-10-31T11:13:47Z) - FedRA: A Random Allocation Strategy for Federated Tuning to Unleash the
Power of Heterogeneous Clients [50.13097183691517]
実世界のフェデレーションシナリオでは、様々な計算と通信資源を持つ多種多様なクライアントが存在することが多い。
本稿では,新しいフェデレーションチューニングアルゴリズムであるFedRAを提案する。
各通信ラウンドにおいて、FedRAはランダムにアロケーション行列を生成する。
アダプタを用いてアロケーション行列とファインチューンに基づいて、元のモデルから少数のレイヤを再編成する。
論文 参考訳(メタデータ) (2023-11-19T04:43:16Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - PerAda: Parameter-Efficient Federated Learning Personalization with Generalization Guarantees [95.87604231887353]
既存のpFL手法は高い通信コストと計算コストをもたらすか、テスト通信に弱い。
PerAdaではパラメータ蒸留とpFL pFLが特に試験時間分布において優れた性能を示す。
私たちのコードはhttps://github.com/NV/PerAda.comで公開されています。
論文 参考訳(メタデータ) (2023-02-13T19:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。