論文の概要: SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning
- arxiv url: http://arxiv.org/abs/2602.08590v1
- Date: Mon, 09 Feb 2026 12:33:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:25.22586
- Title: SDFed: Bridging Local Global Discrepancy via Subspace Refinement and Divergence Control in Federated Prompt Learning
- Title(参考訳): SDFed: フェデレート・プロンプト学習における部分空間制限と分散制御による局所的グローバル不一致のブリッジ
- Authors: Yicheng Di, Wei Yuan, Tieke He, Zhanjie Zhang, Ao Ma, Yuan Liu, Hongzhi Yin,
- Abstract要約: ビジョン言語で事前訓練されたモデルは、強力な転送可能な表現を提供するが、プライバシに敏感なマルチパーティ設定でそれらを適用することは難しい。
サブスペースリファインメントとディバージェンス制御により局所的不一致をブリッジするヘテロジニアスなフェデレーション・プロンプト学習フレームワークである textbfSDFed を提案する。
- 参考スコア(独自算出の注目度): 37.399623527540754
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-language pretrained models offer strong transferable representations, yet adapting them in privacy-sensitive multi-party settings is challenging due to the high communication cost of federated optimization and the limited local data on clients. Federated prompt learning mitigates this issue by keeping the VLPM backbone frozen and collaboratively training lightweight prompt parameters. However, existing approaches typically enforce a unified prompt structure and length across clients, which is inadequate under practical client heterogeneity in both data distributions and system resources, and may further introduce conflicts between globally shared and locally optimal knowledge. To address these challenges, we propose \textbf{SDFed}, a heterogeneous federated prompt learning framework that bridges Local-Global Discrepancy via Subspace Refinement and Divergence Control. SDFed maintains a fixed-length global prompt for efficient aggregation while allowing each client to learn a variable-length local prompt to better match its data characteristics and capacity. To mitigate local-global conflicts and facilitate effective knowledge transfer, SDFed introduces a subspace refinement method for local prompts and an information retention and divergence control strategy that preserves key local information while maintaining appropriate separability between global and local representations. Extensive experiments on several datasets demonstrate that SDFed consistently improves performance and robustness in heterogeneous federated settings.
- Abstract(参考訳): ビジョン言語事前訓練モデルは、強力な転送可能な表現を提供するが、フェデレート最適化の通信コストとクライアント上の限られたローカルデータのために、プライバシに敏感なマルチパーティ設定でそれらを適用することは困難である。
フェデレートプロンプト学習は、VLPMバックボーンを凍結させ、軽量プロンプトパラメータを協調的にトレーニングすることでこの問題を軽減する。
しかし、既存のアプローチは通常、クライアント間の統一的なプロンプト構造と長さを強制するが、これはデータ分散とシステムリソースの両方において実践的なクライアントの不均一性の下では不十分である。
これらの課題に対処するために,部分空間の微細化と分散制御を介し局所的な離散性を橋渡しする不均一なフェデレーション・プロンプト学習フレームワークである \textbf{SDFed} を提案する。
SDFedは、効率的な集約のための固定長グローバルプロンプトを維持しつつ、各クライアントが可変長ローカルプロンプトを学習して、データ特性とキャパシティをよりよく適合させることができる。
SDFedは,局所的な紛争を緩和し,効果的な知識伝達を促進するため,局所的なプロンプトのための部分空間改善手法と,グローバルな表現とローカルな表現の適切な分離性を維持しつつ,重要なローカル情報を保存する情報保持・分散制御戦略を導入している。
いくつかのデータセットに対する大規模な実験により、SDFedは不均一なフェデレーション設定におけるパフォーマンスとロバスト性を一貫して改善することが示された。
関連論文リスト
- Personalized Federated Learning via Dual-Prompt Optimization and Cross Fusion [44.8670376715096]
フェデレートラーニング(FL)は、ローカルデータを共有せずに、分散化されたクライアント間で協調的なモデルトレーニングを可能にする。
我々は,pFedDCと呼ばれる,二重プロンプト学習と相互融合に基づくパーソナライズされたFLフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-26T10:59:14Z) - FOCoOp: Enhancing Out-of-Distribution Robustness in Federated Prompt Learning for Vision-Language Models [56.31350619667909]
ビジョン言語モデルのためのフェデレーション・プロンプト・ラーニング(FPL)は、分散クライアント間でモデルを協調的に適応するための強力なアプローチである。
既存のFPLアプローチは、特にアウト・オブ・ディストリビューション(OOD)シフトにおいて、パフォーマンスと堅牢性の間のトレードオフに悩まされる。
我々は、クライアント間の多様な分散をキャプチャするFederated OOD-aware Context Optimization (FOCoOp)フレームワークを導入する。
論文 参考訳(メタデータ) (2025-06-19T11:16:02Z) - Hierarchical Knowledge Structuring for Effective Federated Learning in Heterogeneous Environments [0.6144680854063939]
フェデレーション学習は、個々のデータのプライバシを維持しながら、分散エンティティ間の協調的なモデルトレーニングを可能にする。
近年の取り組みは、これらの問題を克服するために、ロジットに基づく知識集約と蒸留を活用している。
サンプルログを多粒度コードブックに定式化する階層的知識構造化(HKS)フレームワークを提案する。
論文 参考訳(メタデータ) (2025-04-04T15:06:02Z) - Federated Domain Generalization via Prompt Learning and Aggregation [20.933631678895765]
フェデレーションドメイン一般化(FedDG)は、目に見えない領域におけるグローバルモデル一般化を改善することを目的としている。
既存のFedDG研究における一般的な戦略は、クライアント間でドメイン固有の知識を共有することである。
我々は、FedDGシナリオにおいて、事前学習された視覚言語モデル(VLM)を適応するための即時学習を導入する。
論文 参考訳(メタデータ) (2024-11-15T09:26:00Z) - Global and Local Prompts Cooperation via Optimal Transport for Federated Learning [13.652593797756774]
本稿では,FedOTP(Federated Prompts Cooperation via Optimal Transport)を提案する。
具体的には、各クライアントに対して、クライアント間のコンセンサス知識を抽出するグローバルなプロンプトと、クライアント固有のカテゴリ特性をキャプチャするローカルなプロンプトを学習する。
不均衡な最適輸送は、これらのプロンプトと局所的な視覚的特徴を整合させるために使用され、グローバルなコンセンサスと局所的なパーソナライゼーションのバランスを損なう。
論文 参考訳(メタデータ) (2024-02-29T11:43:04Z) - DisPFL: Towards Communication-Efficient Personalized Federated Learning
via Decentralized Sparse Training [84.81043932706375]
本稿では,分散型(ピアツーピア)通信プロトコルであるDis-PFLにおいて,新たな個人化フェデレーション学習フレームワークを提案する。
Dis-PFLはパーソナライズされたスパースマスクを使用して、エッジ上のスパースローカルモデルをカスタマイズする。
本手法は,計算複雑性の異なる異種ローカルクライアントに容易に適応できることを実証する。
論文 参考訳(メタデータ) (2022-06-01T02:20:57Z) - FedDC: Federated Learning with Non-IID Data via Local Drift Decoupling
and Correction [48.85303253333453]
フェデレートラーニング(FL)は、複数のクライアントがプライベートデータを共有せずに、高性能なグローバルモデルを集合的にトレーニングすることを可能にする。
局所的ドリフトデカップリングと補正(FedDC)を用いた新しいフェデレーション学習アルゴリズムを提案する。
私たちのFedDCでは、ローカルモデルパラメータとグローバルモデルパラメータのギャップを追跡するために、各クライアントが補助的なローカルドリフト変数を使用するような、ローカルトレーニングフェーズにおける軽量な修正のみを導入しています。
実験結果と解析結果から,FedDCは様々な画像分類タスクにおいて,収差の迅速化と性能の向上を図っている。
論文 参考訳(メタデータ) (2022-03-22T14:06:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。