論文の概要: Multiple Stochastic Prompt Tuning for Practical Cross-Domain Few Shot Learning
- arxiv url: http://arxiv.org/abs/2506.03926v1
- Date: Wed, 04 Jun 2025 13:18:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-05 21:20:14.347166
- Title: Multiple Stochastic Prompt Tuning for Practical Cross-Domain Few Shot Learning
- Title(参考訳): 実践的クロスドメインショット学習のための確率的プロンプトチューニング
- Authors: Debarshi Brahma, Soma Biswas,
- Abstract要約: 本稿では、CLIPのような大規模事前学習モデルを簡単にターゲットデータセットにデプロイできるクロスドメイン・数ショット学習タスクを提案する。
ゴールは、クラスごとにラベル付けされたサンプルだけを利用することで、極端なドメインシフトの下で、すべての見えないクラスを同時に分類することである。
本稿では,MIST(MultIple STochastic Prompt tuning)と呼ばれる新しいフレームワークを提案する。
- 参考スコア(独自算出の注目度): 14.85375816073596
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we propose a practical cross-domain few-shot learning (pCDFSL) task, where a large-scale pre-trained model like CLIP can be easily deployed on a target dataset. The goal is to simultaneously classify all unseen classes under extreme domain shifts, by utilizing only a few labeled samples per class. The pCDFSL paradigm is source-free and moves beyond artificially created episodic training and testing regimes followed by existing CDFSL frameworks, making it more challenging and relevant to real-world applications. Towards that goal, we propose a novel framework, termed MIST (MultIple STochastic Prompt tuning), where multiple stochastic prompts are utilized to handle significant domain and semantic shifts. Specifically, multiple prompts are learnt for each class, effectively capturing multiple peaks in the input data. Furthermore, instead of representing the weights of the multiple prompts as point-estimates, we model them as learnable Gaussian distributions with two different strategies, encouraging an efficient exploration of the prompt parameter space, which mitigate overfitting due to the few labeled training samples. Extensive experiments and comparison with the state-of-the-art methods on four CDFSL benchmarks adapted to this setting, show the effectiveness of the proposed framework.
- Abstract(参考訳): 本稿では,CLIPのような大規模事前学習モデルを簡単にターゲットデータセットに展開可能な,実践的なクロスドメイン・ショットラーニング(pCDFSL)タスクを提案する。
ゴールは、クラスごとにラベル付けされたサンプルだけを利用することで、極端なドメインシフトの下で、すべての見えないクラスを同時に分類することである。
pCDFSLパラダイムはソースフリーであり、人工的に作成されたエピソードトレーニングとテスト体制を超えて、既存のCDFSLフレームワークが続く。
そこで我々は,MIST(MultIple STochastic Prompt tuning)と呼ばれる新しいフレームワークを提案する。
具体的には、各クラス毎に複数のプロンプトを学習し、入力データの複数のピークを効果的にキャプチャする。
さらに、複数のプロンプトの重みを点推定として表現するのではなく、2つの異なる戦略で学習可能なガウス分布としてモデル化し、プロンプトパラメータ空間の効率的な探索を奨励する。
この設定に適応した4つのCDFSLベンチマークの大規模な実験と最先端手法との比較により,提案手法の有効性が示された。
関連論文リスト
- Prompt Tuning Vision Language Models with Margin Regularizer for Few-Shot Learning under Distribution Shifts [13.21626568246313]
視覚言語基礎モデルが、分布やクラスが全く異なるデータセットに適応できるかどうかを解析する。
本稿では,少数のサンプルに対して,このような大規模VLMを直接適用するための新しいプロンプトチューニング手法であるPromptMarginを提案する。
PromptMarginは、このタスクのテキストと視覚的なプロンプトを効果的に調整し、2つのメインモジュールを持っている。
論文 参考訳(メタデータ) (2025-05-21T13:26:56Z) - LC-Protonets: Multi-Label Few-Shot Learning for World Music Audio Tagging [65.72891334156706]
ラベル結合型プロトタイプネットワーク(LC-Protonets)を導入し,複数ラベルの複数ショット分類の問題に対処する。
LC-Protonetsは、限られたトレーニング項目に存在するラベルのパワーセットから、ラベルの組み合わせごとに1つのプロトタイプを生成する。
本手法は,様々な文化をカバーし,現代音楽と伝統音楽の両方を含む,多様な音楽データセットにまたがる自動音声タグ付けに適用する。
論文 参考訳(メタデータ) (2024-09-17T15:13:07Z) - Learning New Tasks from a Few Examples with Soft-Label Prototypes [18.363177410917597]
ソフトラベルのプロトタイプ(SLP)に基づく新しい数ショット学習手法を提案する。
これまでにないNLPタスク(4,8,16)の学習に重点を置いている。
このデータ・リーン・セッティングにおけるテスト作業の大部分において,本手法が優れた性能を発揮することを実験的に実証した。
論文 参考訳(メタデータ) (2022-10-31T16:06:48Z) - Few-shot Learning via Dependency Maximization and Instance Discriminant
Analysis [21.8311401851523]
そこで本研究では,カテゴリ毎にラベル付きデータが極めて少ない新しいオブジェクトの認識をモデルが学習する,数ショットの学習問題について検討する。
本稿では,少数ショット処理に伴うラベルなしデータを利用して,少数ショット性能を向上させるための簡単な手法を提案する。
論文 参考訳(メタデータ) (2021-09-07T02:19:01Z) - Real-Time Visual Object Tracking via Few-Shot Learning [107.39695680340877]
ビジュアルオブジェクト追跡(VOT)はFew-Shot Learning(FSL)の拡張タスクと見なすことができる。
適応速度を高速化しながら,多種多様のFSLアルゴリズムを適用可能な2段階のフレームワークを提案する。
VOT2018,OTB2015, NFS, UAV123, TrackingNet, GOT-10kの主要ベンチマークに関する実験を実施し,望ましいパフォーマンス向上とリアルタイム速度を示した。
論文 参考訳(メタデータ) (2021-03-18T10:02:03Z) - Exploring Complementary Strengths of Invariant and Equivariant
Representations for Few-Shot Learning [96.75889543560497]
多くの現実世界では、多数のラベル付きサンプルの収集は不可能です。
少ないショット学習はこの問題に対処するための主要なアプローチであり、目的は限られた数のサンプルの存在下で新しいカテゴリに迅速に適応することです。
幾何学的変換の一般集合に対する等分散と不変性を同時に強制する新しい訓練機構を提案する。
論文 参考訳(メタデータ) (2021-03-01T21:14:33Z) - Contrastive Prototype Learning with Augmented Embeddings for Few-Shot
Learning [58.2091760793799]
拡張埋め込み(CPLAE)モデルを用いた新しいコントラスト型プロトタイプ学習を提案する。
クラスプロトタイプをアンカーとして、CPLは、同じクラスのクエリサンプルを、異なるクラスのサンプルを、さらに遠くに引き出すことを目的としている。
いくつかのベンチマークによる大規模な実験により,提案したCPLAEが新たな最先端を実現することが示された。
論文 参考訳(メタデータ) (2021-01-23T13:22:44Z) - Multi-Scale Positive Sample Refinement for Few-Shot Object Detection [61.60255654558682]
Few-shot Object Detection (FSOD) は、ディテクターがトレーニングインスタンスをほとんど持たない未確認のクラスに適応するのに役立つ。
FSODにおけるオブジェクトスケールを拡張化するためのMPSR(Multi-scale Positive Sample Refinement)アプローチを提案する。
MPSRは、オブジェクトピラミッドとして多スケールの正のサンプルを生成し、様々なスケールで予測を洗練させる。
論文 参考訳(メタデータ) (2020-07-18T09:48:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。