論文の概要: FedDEAP: Adaptive Dual-Prompt Tuning for Multi-Domain Federated Learning
- arxiv url: http://arxiv.org/abs/2510.18837v1
- Date: Tue, 21 Oct 2025 17:32:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:14.035197
- Title: FedDEAP: Adaptive Dual-Prompt Tuning for Multi-Domain Federated Learning
- Title(参考訳): FedDEAP: マルチドメインフェデレーション学習のための適応型デュアルプロンプトチューニング
- Authors: Yubin Zheng, Pak-Hei Yeung, Jing Xia, Tianjie Ju, Peng Tang, Weidong Qiu, Jagath C. Rajapakse,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開せずに、機械学習モデルを協調的にトレーニングすることを可能にする。
CLIPのような大規模ビジョン言語モデルは、強力なゼロショット分類機能を示している。
マルチドメインシナリオにおけるCLIPの一般化を促進するための適応型フェデレーションプロンプトチューニングフレームワークであるFedDEAPを提案する。
- 参考スコア(独自算出の注目度): 25.535882105518453
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated learning (FL) enables multiple clients to collaboratively train machine learning models without exposing local data, balancing performance and privacy. However, domain shift and label heterogeneity across clients often hinder the generalization of the aggregated global model. Recently, large-scale vision-language models like CLIP have shown strong zero-shot classification capabilities, raising the question of how to effectively fine-tune CLIP across domains in a federated setting. In this work, we propose an adaptive federated prompt tuning framework, FedDEAP, to enhance CLIP's generalization in multi-domain scenarios. Our method includes the following three key components: (1) To mitigate the loss of domain-specific information caused by label-supervised tuning, we disentangle semantic and domain-specific features in images by using semantic and domain transformation networks with unbiased mappings; (2) To preserve domain-specific knowledge during global prompt aggregation, we introduce a dual-prompt design with a global semantic prompt and a local domain prompt to balance shared and personalized information; (3) To maximize the inclusion of semantic and domain information from images in the generated text features, we align textual and visual representations under the two learned transformations to preserve semantic and domain consistency. Theoretical analysis and extensive experiments on four datasets demonstrate the effectiveness of our method in enhancing the generalization of CLIP for federated image recognition across multiple domains.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントがローカルデータを公開することなく、パフォーマンスとプライバシのバランスを取ることなく、機械学習モデルを協調的にトレーニングすることを可能にする。
しかし、ドメインシフトとクライアント間のラベルの不均一性は、集約されたグローバルモデルの一般化を妨げることが多い。
近年、CLIPのような大規模ビジョン言語モデルは、強力なゼロショット分類機能を示しており、フェデレートされた環境でドメイン間でCLIPを効果的に微調整する方法の疑問が提起されている。
本稿では,多ドメインシナリオにおけるCLIPの一般化を促進するための適応型フェデレーション・プロンプトチューニングフレームワークであるFedDEAPを提案する。
提案手法は,(1)ラベル教師付きチューニングによるドメイン固有の情報の損失を軽減するため,意味的およびドメイン固有の特徴を疎結合にすることで,画像のセマンティックな特徴とドメイン固有の特徴を分離し,(2)グローバルなプロンプトアグリゲーション中にドメイン固有の知識を保存するために,グローバルなセマンティック・プロンプトとローカルなドメインのプロンプトを併用し,共有された情報とパーソナライズされた情報のバランスをとるための2つのプロンプトデザインを導入する,(3)生成されたテキスト特徴のイメージからのセマンティック情報とドメイン情報の包摂を最大化するために,意味的およびドメインの一貫性を保つためのテキストと視覚的表現を2つの学習した変換の下に整列化する,という3つの重要な要素を含む。
4つのデータセットに関する理論的解析と広範囲な実験により、複数の領域にわたるフェデレーション画像認識のためのCLIPの一般化を促進する上で、我々の手法の有効性が示された。
関連論文リスト
- Federated Domain Generalization with Domain-specific Soft Prompts Generation [34.51919138862278]
本稿では,フェデレートされた領域一般化タスクを扱うための,ジェネレーティブの観点から,新しい効果的な手法を提案する。
具体的には、トレーニング中、各ドメインに対してドメイン固有のソフトプロンプト(DSP)を導入し、コンテンツとドメイン知識を生成モデルに統合する。
推論フェーズでは、ジェネレータを使用して、未知のターゲットドメインのDSPを取得し、未知のドメインの下流タスクを誘導する。
論文 参考訳(メタデータ) (2025-09-25T06:41:48Z) - FedRSClip: Federated Learning for Remote Sensing Scene Classification Using Vision-Language Models [23.830133838392964]
本稿では,VLM,特にCLIPに基づくリモートセンシング画像分類のための最初のフェデレーション学習フレームワークであるFedRSCLIPを提案する。
FedRSCLIPは、Prompt Learningを導入することで、フェデレーション環境におけるデータ不均一性と大規模モデル伝送の課題に対処する。
提案モデルの有効性を検証するため,既存の3つのリモートセンシング画像分類データセットに基づいてFed-RSICデータセットを構築した。
論文 参考訳(メタデータ) (2025-01-05T07:10:27Z) - In the Era of Prompt Learning with Vision-Language Models [1.060608983034705]
ドメイン一般化のためのドメインに依存しない新しい学習戦略であるtextscStyLIP を紹介する。
StyLIPは、スタイルプロジェクタを使用してドメイン固有のプロンプトトークンを学習することで、CLIPsビジョンエンコーダの視覚スタイルとコンテンツを切り離す。
また,CLIPの凍結視覚バックボーンを利用した非教師なし領域適応(DA)のためのAD-CLIPを提案する。
論文 参考訳(メタデータ) (2024-11-07T17:31:21Z) - WIDIn: Wording Image for Domain-Invariant Representation in Single-Source Domain Generalization [63.98650220772378]
We present WIDIn, Wording Images for Domain-Invariant representation, to disentangleative discriminative visual representation。
まず、ドメイン固有の言語を適応的に識別し、削除するために使用可能な、きめ細かいアライメントを組み込んだ言語を推定する。
WIDInは、CLIPのような事前訓練された視覚言語モデルと、MoCoやBERTのような個別訓練されたユニモーダルモデルの両方に適用可能であることを示す。
論文 参考訳(メタデータ) (2024-05-28T17:46:27Z) - DiPrompT: Disentangled Prompt Tuning for Multiple Latent Domain
Generalization in Federated Learning [20.51179258856028]
フェデレートラーニング(FL)は、分散データから学ぶための強力なパラダイムとして登場した。
既存のFLメソッドの多くは、トレーニング中にドメインラベルが提供されると仮定し、その評価はドメインの数に明確な制約を課している。
本稿では,ドメイン一般化のための適応的なプロンプトを分散的に学習することで,上記の制約に対処するDistangled Prompt Tuning(DiPrompT)を提案する。
論文 参考訳(メタデータ) (2024-03-11T15:58:15Z) - Domain-Controlled Prompt Learning [49.45309818782329]
既存の素早い学習方法はドメイン認識やドメイン転送機構を欠いていることが多い。
特定のドメインに対するtextbfDomain-Controlled Prompt Learningを提案する。
本手法は,特定の領域画像認識データセットにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-09-30T02:59:49Z) - TAL: Two-stream Adaptive Learning for Generalizable Person
Re-identification [115.31432027711202]
我々は、ドメイン固有性とドメイン不変性の両方が、re-idモデルの一般化能力の向上に不可欠であると主張する。
これら2種類の情報を同時にモデル化するために,2ストリーム適応学習 (TAL) を命名した。
我々のフレームワークは、単一ソースとマルチソースの両方のドメイン一般化タスクに適用できる。
論文 参考訳(メタデータ) (2021-11-29T01:27:42Z) - WEDGE: Web-Image Assisted Domain Generalization for Semantic
Segmentation [72.88657378658549]
本稿では,Web画像の多様性を一般化可能なセマンティックセグメンテーションに活用したWEb画像支援ドメインゲネラライゼーション手法を提案する。
また,ウェブクローラー画像のスタイルをトレーニング中のトレーニング画像に注入する手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T05:19:58Z) - Structured Latent Embeddings for Recognizing Unseen Classes in Unseen
Domains [108.11746235308046]
本稿では,異なる領域からの画像を投影することで,ドメインに依存しない遅延埋め込みを学習する手法を提案する。
挑戦的なDomainNetとDomainNet-LSベンチマークの実験は、既存のメソッドよりもアプローチの方が優れていることを示している。
論文 参考訳(メタデータ) (2021-07-12T17:57:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。