論文の概要: Prompt Estimation from Prototypes for Federated Prompt Tuning of Vision Transformers
- arxiv url: http://arxiv.org/abs/2510.25372v1
- Date: Wed, 29 Oct 2025 10:42:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-30 15:50:45.403159
- Title: Prompt Estimation from Prototypes for Federated Prompt Tuning of Vision Transformers
- Title(参考訳): 視覚変換器のフェデレーションプロンプトチューニングのためのプロトタイプからのプロンプト推定
- Authors: M Yashwanth, Sharannya Ghosh, Aditay Tripathi, Anirban Chakraborty,
- Abstract要約: PEP-FedPT (Prototypes for Federated Prompt Tuning) を提案し、視覚変換器(ViT)の視覚的プロンプトチューニングにおける一般化とパーソナライズを実現する。
グローバルに共有されるプロンプトとともに保持されるクラス固有のプロンプトに基づいて,新しいクラス-コンテキスト化混合プロンプト(CCMP)を導入する。
PEP-FedPTは、さまざまなデータシナリオの下で、最先端のベースラインを一貫して上回る。
- 参考スコア(独自算出の注目度): 5.231417382224748
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Visual Prompt Tuning (VPT) of pre-trained Vision Transformers (ViTs) has proven highly effective as a parameter-efficient fine-tuning technique for adapting large models to downstream tasks with limited data. Its parameter efficiency makes it particularly suitable for Federated Learning (FL), where both communication and computation budgets are often constrained. However, global prompt tuning struggles to generalize across heterogeneous clients, while personalized tuning overfits to local data and lacks generalization. We propose PEP-FedPT (Prompt Estimation from Prototypes for Federated Prompt Tuning), a unified framework designed to achieve both generalization and personalization in federated prompt tuning of ViTs. Within this framework, we introduce the novel Class-Contextualized Mixed Prompt (CCMP) - based on class-specific prompts maintained alongside a globally shared prompt. For each input, CCMP adaptively combines class-specific prompts using weights derived from global class prototypes and client class priors. This approach enables per-sample prompt personalization without storing client-dependent trainable parameters. The prompts are collaboratively optimized via traditional federated averaging technique on the same. Comprehensive evaluations on CIFAR-100, TinyImageNet, DomainNet, and iNaturalist datasets demonstrate that PEP-FedPT consistently surpasses the state-of-the-art baselines under diverse data heterogeneity scenarios, establishing a strong foundation for efficient and generalizable federated prompt tuning of Vision Transformers.
- Abstract(参考訳): 事前訓練された視覚変換器(ViT)の視覚プロンプトチューニング(VPT)は、限られたデータで下流タスクに大規模モデルを適用するためのパラメータ効率の良い微調整技術として非常に有効であることが証明されている。
そのパラメータ効率は、コミュニケーションと計算の予算が制約されることの多い連邦学習(FL)に特に適しています。
しかし、グローバルなプロンプトチューニングは、局所データに合わせたパーソナライズされたチューニングと一般化の欠如を伴い、異種クライアント間の一般化に苦慮している。
PEP-FedPT(Prototypes for Federated Prompt Tuning)を提案する。
本フレームワークでは,クラス固有プロンプトとグローバル共有プロンプトを併用した,新しいクラス固有プロンプト(CCMP)を導入する。
各入力に対して、CCMPはグローバルクラスプロトタイプとクライアントクラスプリエントから派生した重みを使って、クラス固有のプロンプトを適応的に結合する。
このアプローチは、クライアント依存のトレーニング可能なパラメータを格納することなく、サンプルごとのパーソナライズを可能にする。
プロンプトは、従来のフェデレーション平均化技術で協調的に最適化される。
CIFAR-100、TinyImageNet、DomainNet、およびiNaturalistデータセットに関する総合的な評価は、PEP-FedPTが多種多様なデータ異種性シナリオにおける最先端のベースラインを一貫して上回り、ビジョントランスフォーマーの効率的で一般化可能な連邦化プロンプトチューニングのための強力な基盤を確立していることを示している。
関連論文リスト
- FedAPT: Federated Adversarial Prompt Tuning for Vision-Language Models [97.35577473867296]
Federated Adversarial Prompt Tuning (textbfFedAPT)は、FPTの対向性を高めるために設計された新しい手法である。
この問題に対処するために,テキストプロンプトから視覚的なプロンプトを生成するtextbfclass-awareプロンプトジェネレータを提案する。
複数の画像分類データセットの実験は、対向ロバスト性を改善する上でFedAPTの優位性を示している。
論文 参考訳(メタデータ) (2025-09-03T03:46:35Z) - Token-Level Prompt Mixture with Parameter-Free Routing for Federated Domain Generalization [51.562474873972086]
Federated Domain Generalization (FedDG)は、異種データを持つ分散クライアントからグローバルに一般化可能なモデルを学ぶことを目的としている。
近年の研究では、単一のグローバルなプロンプトを学習することで、FedDGの視覚言語モデル(VLM)を適応させる素早い学習が導入されている。
本稿では,FedDGのためのパラメータフリールーティングフレームワークであるTRIPを提案する。
論文 参考訳(メタデータ) (2025-04-29T11:06:03Z) - FedAli: Personalized Federated Learning Alignment with Prototype Layers for Generalized Mobile Services [9.683642138601464]
フェデレートアライメント(Federated Alignment, FedAli)は、プロトタイプベースの正規化技術であり、パーソナライズされた適応の堅牢性を強化しながら、クライアント間のアライメントを強化する。
コアとなるFedAliは、一般化を強化するために、人間のメモリにインスパイアされたPrototypesレイヤによるアライメントを導入した。
実験の結果,FedAliは不均一な環境下で強いパーソナライゼーションを維持しつつ,クライアントの一般化を著しく向上させることがわかった。
論文 参考訳(メタデータ) (2024-11-15T21:35:21Z) - Unlocking the Potential of Prompt-Tuning in Bridging Generalized and
Personalized Federated Learning [49.72857433721424]
Vision Transformer (ViT) と Visual Prompt Tuning (VPT) は、様々なコンピュータビジョンタスクの効率を改善して最先端のパフォーマンスを実現する。
本稿では,GFL(Generalized FL)とPFL(Personalized FL)を組み合わせた新しいアルゴリズムSGPTを提案する。
論文 参考訳(メタデータ) (2023-10-27T17:22:09Z) - PerAda: Parameter-Efficient Federated Learning Personalization with Generalization Guarantees [95.87604231887353]
既存のpFL手法は高い通信コストと計算コストをもたらすか、テスト通信に弱い。
PerAdaではパラメータ蒸留とpFL pFLが特に試験時間分布において優れた性能を示す。
私たちのコードはhttps://github.com/NV/PerAda.comで公開されています。
論文 参考訳(メタデータ) (2023-02-13T19:00:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。