論文の概要: Dual-Path Stable Soft Prompt Generation for Domain Generalization
- arxiv url: http://arxiv.org/abs/2505.18770v1
- Date: Sat, 24 May 2025 16:20:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-27 16:58:42.649644
- Title: Dual-Path Stable Soft Prompt Generation for Domain Generalization
- Title(参考訳): ドメイン一般化のためのデュアルパス安定型ソフトプロンプト生成
- Authors: Yuedi Zhang, Shuanghao Bai, Wanqi Zhou, Zhirong Luan, Badong Chen,
- Abstract要約: ドメイン一般化(DG)は、1つまたは複数の関連する異なるソースドメインからのデータを用いてモデルを学習することを目的としている。
迅速なチューニングが 効果的な一般化戦略として現れました
手動または固定されたプロンプト入力に依存するため、ドメイン固有の機能をキャプチャするのに苦労することが多い。
最近のプロンプト生成手法は、インスタンス固有のプロンプトとドメイン固有のプロンプトを動的に生成することで、この制限に対処している。
- 参考スコア(独自算出の注目度): 13.957351735394683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Domain generalization (DG) aims to learn a model using data from one or multiple related but distinct source domains that can generalize well to unseen out-of-distribution target domains. Inspired by the success of large pre-trained vision-language models (VLMs), prompt tuning has emerged as an effective generalization strategy. However, it often struggles to capture domain-specific features due to its reliance on manually or fixed prompt inputs. Recently, some prompt generation methods have addressed this limitation by dynamically generating instance-specific and domain-specific prompts for each input, enriching domain information and demonstrating potential for enhanced generalization. Through further investigation, we identify a notable issue in existing prompt generation methods: the same input often yields significantly different and suboptimal prompts across different random seeds, a phenomenon we term Prompt Variability. To address this, we introduce negative learning into the prompt generation process and propose Dual-Path Stable Soft Prompt Generation (DPSPG), a transformer-based framework designed to improve both the stability and generalization of prompts. Specifically, DPSPG incorporates a complementary prompt generator to produce negative prompts, thereby reducing the risk of introducing misleading information. Both theoretical and empirical analyses demonstrate that negative learning leads to more robust and effective prompts by increasing the effective margin and reducing the upper bound of the gradient norm. Extensive experiments on five DG benchmark datasets show that DPSPG consistently outperforms state-of-the-art methods while maintaining prompt stability.
- Abstract(参考訳): ドメイン一般化(Domain Generalization、DG)は、1つまたは複数の関連する異なるソースドメインからデータを使ってモデルを学習することを目的としている。
大規模な事前学習型視覚言語モデル(VLM)の成功に触発されて、迅速なチューニングが効果的な一般化戦略として登場した。
しかし、手動または固定されたプロンプト入力に依存するため、ドメイン固有の特徴を捉えるのに苦労することが多い。
近年、各入力に対してインスタンス固有のプロンプトとドメイン固有のプロンプトを動的に生成し、ドメイン情報を豊かにし、一般化を促進する可能性を示すことで、いくつかのプロンプト生成手法がこの制限に対処している。
さらに,既存のプロンプト生成手法における顕著な問題として,異なるランダムな種子に対して,同じ入力が顕著に異なり,最適でないプロンプトが生じることがあり,この現象はPmpt Variabilityとよばれる。
そこで我々は,プロンプト生成プロセスに負の学習を導入し,プロンプトの安定性と一般化を両立するトランスフォーマーベースのフレームワークであるDual-Path Stable Soft Prompt Generation (DPSPG)を提案する。
具体的には、DPSPGは、相補的なプロンプトジェネレータを組み込んで負のプロンプトを生成し、誤った情報を導入するリスクを低減する。
理論的および実証的な分析は、負の学習が効果的なマージンを増やし、勾配ノルムの上界を減らし、より堅牢で効果的なプロンプトをもたらすことを示した。
5つのDGベンチマークデータセットの大規模な実験により、DPSPGは安定性を保ちながら、常に最先端の手法より優れていることが示された。
関連論文リスト
- Generative Classifier for Domain Generalization [84.92088101715116]
ドメインの一般化は、分散シフトに対するコンピュータビジョンモデルの一般化性を目的としている。
生成駆動型ドメイン一般化(GCDG)を提案する。
GCDGは3つの重要なモジュールから構成される: 異種性学習(HLC)、純粋相関(SCB)、横成分バランス(DCB)。
論文 参考訳(メタデータ) (2025-04-03T04:38:33Z) - CAT: Class Aware Adaptive Thresholding for Semi-Supervised Domain Generalization [0.989976359821412]
ドメインの一般化は、ドメインのシフトがあっても、ソースドメインから目に見えないターゲットドメインに知識を移そうとします。
本稿では,限定ラベル付きデータを用いた半教師付き学習を利用して,ドメインシフト下での競合一般化性能を実現する手法CATを提案する。
提案手法では、フレキシブルしきい値を用いて、高いクラス多様性を持つ高品質な擬似ラベルを生成しながら、ノイズの多い擬似ラベルを精製し、信頼性を向上させる。
論文 参考訳(メタデータ) (2024-12-11T15:47:01Z) - Soft Prompt Generation for Domain Generalization [13.957351735394683]
大規模な事前訓練された視覚言語モデル(VLM)は、手動で設計したプロンプトで下流のタスクに印象的なゼロショット能力を示している。
下流タスクにVLMをさらに適応させるために、手動で設計したプロンプトを置き換えるソフトプロンプトが提案されている。
論文 参考訳(メタデータ) (2024-04-30T06:33:07Z) - Memory-Efficient Prompt Tuning for Incremental Histopathology
Classification [69.46798702300042]
本稿では,経済的なメモリコストのモデル一般化ポテンシャルを育成するための,メモリ効率の良いプロンプトチューニングフレームワークを提案する。
乳癌転移分類と上皮間質組織分類の2つの病理組織学的タスクにより,我々の枠組みを広く評価した。
論文 参考訳(メタデータ) (2024-01-22T03:24:45Z) - HCVP: Leveraging Hierarchical Contrastive Visual Prompt for Domain
Generalization [69.33162366130887]
ドメイン一般化(DG)は、不変の機能を学ぶことによって、目に見えないシナリオに優れた機械学習モデルを作成するための取り組みである。
モデルにドメインレベルとタスク固有の特性を補足する新しい手法を提案する。
このアプローチは、特定の特徴から不変な特徴をより効果的に分離し、一般化を促進することを目的としている。
論文 参考訳(メタデータ) (2024-01-18T04:23:21Z) - NormAUG: Normalization-guided Augmentation for Domain Generalization [60.159546669021346]
ディープラーニングのためのNormAUG(Normalization-guided Augmentation)と呼ばれるシンプルで効果的な手法を提案する。
本手法は特徴レベルで多様な情報を導入し,主経路の一般化を改善する。
テスト段階では、アンサンブル戦略を利用して、モデルの補助経路からの予測を組み合わせ、さらなる性能向上を図る。
論文 参考訳(メタデータ) (2023-07-25T13:35:45Z) - Randomized Adversarial Style Perturbations for Domain Generalization [49.888364462991234]
本稿では,RASP(Randomized Adversarial Style Perturbation)と呼ばれる新しい領域一般化手法を提案する。
提案アルゴリズムは, ランダムに選択されたクラスに対して, 対角方向の特徴のスタイルを乱し, 予期せぬ対象領域で観測される予期せぬスタイルに誤解されないよう, モデルを学習させる。
提案アルゴリズムは,様々なベンチマークによる広範な実験により評価され,特に大規模ベンチマークにおいて,領域一般化性能が向上することを示す。
論文 参考訳(メタデータ) (2023-04-04T17:07:06Z) - Learning Domain Invariant Prompt for Vision-Language Models [31.581652862478965]
本稿では,メタプロンプト(MetaPrompt)と呼ばれる未確認領域に一般化可能な,固有領域不変プロンプトを直接生成する新しいプロンプト学習パラダイムを提案する。
我々の手法は既存の手法より一貫して大幅に優れています。
論文 参考訳(メタデータ) (2022-12-08T11:23:24Z) - Learning Domain Invariant Representations for Generalizable Person
Re-Identification [71.35292121563491]
ReID(Generalizable person Re-Identification)は、最近のコンピュータビジョンコミュニティで注目を集めている。
DIR-ReID(Domain Invariant Representations for Generalizable Person Re-Identification)という新しい一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-29T18:59:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。