論文の概要: FedMGP: Personalized Federated Learning with Multi-Group Text-Visual Prompts
- arxiv url: http://arxiv.org/abs/2511.00480v1
- Date: Sat, 01 Nov 2025 10:15:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 16:37:26.797858
- Title: FedMGP: Personalized Federated Learning with Multi-Group Text-Visual Prompts
- Title(参考訳): FedMGP: マルチグループテキストビジュアルプロンプトによる個人化フェデレーション学習
- Authors: Weihao Bo, Yanpeng Sun, Yu Wang, Xinyu Zhang, Zechao Li,
- Abstract要約: FedMGPは、視覚言語モデルにおけるパーソナライズされた即時学習のための新しいパラダイムである。
多様性の喪失は、各プロンプトグループに異なる相補的な意味的側面を専門化させるために導入された。
FedMGPはパーソナライゼーションとドメインの一般化の両方において、先行したアプローチを一貫して上回っている。
- 参考スコア(独自算出の注目度): 31.907894865146385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we introduce FedMGP, a new paradigm for personalized federated prompt learning in vision-language models. FedMGP equips each client with multiple groups of paired textual and visual prompts, enabling the model to capture diverse, fine-grained semantic and instance-level cues. A diversity loss is introduced to drive each prompt group to specialize in distinct and complementary semantic aspects, ensuring that the groups collectively cover a broader range of local characteristics. During communication, FedMGP employs a dynamic prompt aggregation strategy based on similarity-guided probabilistic sampling: each client computes the cosine similarity between its prompt groups and the global prompts from the previous round, then samples s groups via a softmax-weighted distribution. This soft selection mechanism preferentially aggregates semantically aligned knowledge while still enabling exploration of underrepresented patterns effectively balancing the preservation of common knowledge with client-specific features. Notably, FedMGP maintains parameter efficiency by redistributing a fixed prompt capacity across multiple groups, achieving state-of-the-art performance with the lowest communication parameters among all federated prompt learning methods. Theoretical analysis shows that our dynamic aggregation strategy promotes robust global representation learning by reinforcing shared semantics while suppressing client-specific noise. Extensive experiments demonstrate that FedMGP consistently outperforms prior approaches in both personalization and domain generalization across diverse federated vision-language benchmarks. The code will be released on https://github.com/weihao-bo/FedMGP.git.
- Abstract(参考訳): 本稿では、視覚言語モデルにおけるパーソナライズされた即時学習のための新しいパラダイムであるFedMGPを紹介する。
FedMGPは、各クライアントにペア化されたテキストと視覚的なプロンプトの複数のグループを設け、モデルが多様できめ細かなセマンティクスとインスタンスレベルのキューをキャプチャすることを可能にする。
多様性の喪失は、各プロンプトグループに個別で相補的な意味的側面を専門化させ、集団がより広範な局所的な特徴を包含することを保証するために導入された。
通信中、FedMGPは類似性誘導確率サンプリングに基づく動的プロンプトアグリゲーション戦略を採用し、各クライアントはそのプロンプト群と前ラウンドからのグローバルプロンプトとのコサイン類似性を計算し、ソフトマックス重み付き分布を介してs群をサンプリングする。
このソフトセレクション機構は、共通知識の保存とクライアント固有の特徴を効果的にバランスさせつつ、セマンティックに整合した知識を優先的に集約する。
特に、FedMGPは、複数のグループにまたがる固定的なプロンプト能力を再分配し、すべてのフェデレートされたプロンプト学習手法の中で、最も低い通信パラメータで最先端のパフォーマンスを達成することにより、パラメータ効率を維持する。
理論的分析により,我々の動的集約戦略は,クライアント固有の雑音を抑えつつ,共有意味を補強することにより,ロバストなグローバル表現学習を促進することが示された。
広範囲にわたる実験により、FedMGPは様々なビジョン言語ベンチマークにおいて、パーソナライゼーションとドメイン一般化の両方において、従来のアプローチより一貫して優れていたことが示されている。
コードはhttps://github.com/weihao-bo/FedMGP.gitでリリースされる。
関連論文リスト
- Learning Reconfigurable Representations for Multimodal Federated Learning with Missing Data [24.083180898232417]
学習可能なクライアント側埋め込み制御に基づく局所適応表現を特徴とする新しいフェデレート学習フレームワークを提案する。
これらの埋め込みは、グローバルに集約された表現と各クライアントのローカルコンテキストを一致させる再構成信号として機能する。
提案手法は, 厳密なデータ不完全性の下で最大36.45%の性能向上を実現する。
論文 参考訳(メタデータ) (2025-10-27T00:09:58Z) - FedAPT: Federated Adversarial Prompt Tuning for Vision-Language Models [97.35577473867296]
Federated Adversarial Prompt Tuning (textbfFedAPT)は、FPTの対向性を高めるために設計された新しい手法である。
この問題に対処するために,テキストプロンプトから視覚的なプロンプトを生成するtextbfclass-awareプロンプトジェネレータを提案する。
複数の画像分類データセットの実験は、対向ロバスト性を改善する上でFedAPTの優位性を示している。
論文 参考訳(メタデータ) (2025-09-03T03:46:35Z) - Federated Cross-Modal Style-Aware Prompt Generation [2.4472081831862655]
FedCSAPはコンテキスト対応のプロンプトトークンを生成する。
私たちのフレームワークは、クライアント固有のスタイルインジケータとともに、CLIPのビジョンエンコーダの低、中、高レベルの機能を活用しています。
論文 参考訳(メタデータ) (2025-08-17T15:23:45Z) - Token-Level Prompt Mixture with Parameter-Free Routing for Federated Domain Generalization [51.562474873972086]
Federated Domain Generalization (FedDG)は、異種データを持つ分散クライアントからグローバルに一般化可能なモデルを学ぶことを目的としている。
近年の研究では、単一のグローバルなプロンプトを学習することで、FedDGの視覚言語モデル(VLM)を適応させる素早い学習が導入されている。
本稿では,FedDGのためのパラメータフリールーティングフレームワークであるTRIPを提案する。
論文 参考訳(メタデータ) (2025-04-29T11:06:03Z) - Byzantine Resilient Federated Multi-Task Representation Learning [8.501036982144454]
欠陥や悪意のあるエージェントを扱うビザンチン耐性のマルチタスク表現学習フレームワークBR-MTRLを提案する。
このアプローチでは、クライアント固有の最終層を除いて、すべてのクライアントが固定層を共有する、共有ニューラルネットワークモデルによる表現学習を活用しています。
論文 参考訳(メタデータ) (2025-03-24T23:26:28Z) - Unsupervised Multimodal Clustering for Semantics Discovery in Multimodal Utterances [24.142013877384603]
本稿では,新しい教師なしマルチモーダルクラスタリング手法 (UMC) を提案する。
UMCは、マルチモーダルデータのための拡張ビューを構築するためのユニークなアプローチを導入し、事前トレーニングを実行するために使用される。
我々は、最先端の手法よりもクラスタリングメトリクスの2-6%のスコアが顕著に改善され、この領域で最初の成功例となった。
論文 参考訳(メタデータ) (2024-05-21T13:24:07Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - Personalized Federated Learning via Amortized Bayesian Meta-Learning [21.126405589760367]
我々は,Amortized Bayesian Meta-Learningを通じて,パーソナライズド・フェデレーション・ラーニングの新しい視点を紹介する。
具体的には,クライアント間の階層的変動推論を用いたemphFedABMLという新しいアルゴリズムを提案する。
我々の理論解析は平均一般化誤差の上限を提供し、未知のデータに対する一般化性能を保証する。
論文 参考訳(メタデータ) (2023-07-05T11:58:58Z) - Federated Learning as Variational Inference: A Scalable Expectation
Propagation Approach [66.9033666087719]
本稿では,推論の視点を拡張し,フェデレート学習の変分推論の定式化について述べる。
我々は、FedEPを標準フェデレーション学習ベンチマークに適用し、収束速度と精度の両方において、強いベースラインを上回ります。
論文 参考訳(メタデータ) (2023-02-08T17:58:11Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。