論文の概要: Federated Domain Generalization with Domain-specific Soft Prompts Generation
- arxiv url: http://arxiv.org/abs/2509.20807v1
- Date: Thu, 25 Sep 2025 06:41:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.734173
- Title: Federated Domain Generalization with Domain-specific Soft Prompts Generation
- Title(参考訳): ドメイン固有ソフトプロンプト生成によるフェデレーションドメインの一般化
- Authors: Jianhan Wu, Xiaoyang Qu, Zhangcheng Huang, Jianzong Wang,
- Abstract要約: 本稿では,フェデレートされた領域一般化タスクを扱うための,ジェネレーティブの観点から,新しい効果的な手法を提案する。
具体的には、トレーニング中、各ドメインに対してドメイン固有のソフトプロンプト(DSP)を導入し、コンテンツとドメイン知識を生成モデルに統合する。
推論フェーズでは、ジェネレータを使用して、未知のターゲットドメインのDSPを取得し、未知のドメインの下流タスクを誘導する。
- 参考スコア(独自算出の注目度): 34.51919138862278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prompt learning has become an efficient paradigm for adapting CLIP to downstream tasks. Compared with traditional fine-tuning, prompt learning optimizes a few parameters yet yields highly competitive results, especially appealing in federated learning for computational efficiency. engendering domain shift among clients and posing a formidable challenge for downstream-task adaptation. Existing federated domain generalization (FDG) methods based on prompt learning typically learn soft prompts from training samples, replacing manually designed prompts to enhance the generalization ability of federated models. However, these learned prompts exhibit limited diversity and tend to ignore information from unknown domains. We propose a novel and effective method from a generative perspective for handling FDG tasks, namely federated domain generalization with domain-specific soft prompts generation (FedDSPG). Specifically, during training, we introduce domain-specific soft prompts (DSPs) for each domain and integrate content and domain knowledge into the generative model among clients. In the inference phase, the generator is utilized to obtain DSPs for unseen target domains, thus guiding downstream tasks in unknown domains. Comprehensive evaluations across several public datasets confirm that our method outperforms existing strong baselines in FDG, achieving state-of-the-art results.
- Abstract(参考訳): プロンプト学習は、CLIPを下流タスクに適応するための効率的なパラダイムとなっている。
従来の微調整と比較して、素早い学習はいくつかのパラメータを最適化するが、非常に競争力のある結果をもたらす。
クライアント間のドメインシフトを拡大し、ダウンストリームタスクの適応に恐ろしい挑戦をする。
既存のフェデレーションドメイン一般化法(FDG)は、訓練サンプルからソフトプロンプトを学習し、手動で設計したプロンプトを置き換え、フェデレーションモデルの一般化能力を高める。
しかし、これらの学習プロンプトは限られた多様性を示し、未知のドメインからの情報を無視する傾向がある。
本稿では,FDGタスク,すなわちドメイン固有のソフトプロンプト生成(FedDSPG)によるフェデレーションドメインの一般化を扱うための,新しい,効果的な手法を提案する。
具体的には、トレーニング中、各ドメインに対してドメイン固有のソフトプロンプト(DSP)を導入し、コンテンツとドメイン知識をクライアント間で生成モデルに統合する。
推論フェーズでは、ジェネレータを使用して、未知のターゲットドメインのDSPを取得し、未知のドメインの下流タスクを誘導する。
複数の公開データセットの総合的な評価により、我々の手法がFDGの強いベースラインを上回り、最先端の結果が得られていることを確認した。
関連論文リスト
- Advancing Open-Set Domain Generalization Using Evidential Bi-Level Hardest Domain Scheduler [45.71475375161575]
Open-Set Domain Generalizationでは、新しいデータ外観(ドメイン)とオープンセット条件の両方でモデルが公開される。
適応型ドメインスケジューラを実現するために,Evidential Bi-Level Hardest Domain Scheduler (EBiL-HaDS)を提案する。
論文 参考訳(メタデータ) (2024-09-26T05:57:35Z) - Soft Prompt Generation for Domain Generalization [13.957351735394683]
大規模な事前訓練された視覚言語モデル(VLM)は、手動で設計したプロンプトで下流のタスクに印象的なゼロショット能力を示している。
下流タスクにVLMをさらに適応させるために、手動で設計したプロンプトを置き換えるソフトプロンプトが提案されている。
論文 参考訳(メタデータ) (2024-04-30T06:33:07Z) - DiPrompT: Disentangled Prompt Tuning for Multiple Latent Domain
Generalization in Federated Learning [20.51179258856028]
フェデレートラーニング(FL)は、分散データから学ぶための強力なパラダイムとして登場した。
既存のFLメソッドの多くは、トレーニング中にドメインラベルが提供されると仮定し、その評価はドメインの数に明確な制約を課している。
本稿では,ドメイン一般化のための適応的なプロンプトを分散的に学習することで,上記の制約に対処するDistangled Prompt Tuning(DiPrompT)を提案する。
論文 参考訳(メタデータ) (2024-03-11T15:58:15Z) - Role Prompting Guided Domain Adaptation with General Capability Preserve
for Large Language Models [55.51408151807268]
特定のドメインに合わせると、LLM(Large Language Models)は破滅的な忘れを経験する傾向がある。
同時に複数のドメインのための汎用モデルを構築することで、全体的なパフォーマンスが低下することが多い。
RolE Prompting Guided Multi-Domain Adaptation (REGA) 戦略を提案する。
論文 参考訳(メタデータ) (2024-03-05T08:22:41Z) - HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - Learning Domain Invariant Prompt for Vision-Language Models [31.581652862478965]
本稿では,メタプロンプト(MetaPrompt)と呼ばれる未確認領域に一般化可能な,固有領域不変プロンプトを直接生成する新しいプロンプト学習パラダイムを提案する。
我々の手法は既存の手法より一貫して大幅に優れています。
論文 参考訳(メタデータ) (2022-12-08T11:23:24Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。