論文の概要: Bayesian Prompt Learning for Image-Language Model Generalization
- arxiv url: http://arxiv.org/abs/2210.02390v3
- Date: Sun, 20 Aug 2023 13:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 02:35:03.345244
- Title: Bayesian Prompt Learning for Image-Language Model Generalization
- Title(参考訳): ベイズ型プロンプト学習による画像言語モデル一般化
- Authors: Mohammad Mahdi Derakhshani, Enrique Sanchez, Adrian Bulat, Victor
Guilherme Turrisi da Costa, Cees G. M. Snoek, Georgios Tzimiropoulos and
Brais Martinez
- Abstract要約: 我々はベイズ法の正規化能力を用いて、変分推論問題としてプロンプト学習をフレーム化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
ベイジアン・プロンプト学習がプロンプト空間の適切なカバレッジを提供する15のベンチマークを実証的に示す。
- 参考スコア(独自算出の注目度): 64.50204877434878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundational image-language models have generated considerable interest due
to their efficient adaptation to downstream tasks by prompt learning. Prompt
learning treats part of the language model input as trainable while freezing
the rest, and optimizes an Empirical Risk Minimization objective. However,
Empirical Risk Minimization is known to suffer from distributional shifts which
hurt generalizability to prompts unseen during training. By leveraging the
regularization ability of Bayesian methods, we frame prompt learning from the
Bayesian perspective and formulate it as a variational inference problem. Our
approach regularizes the prompt space, reduces overfitting to the seen prompts
and improves the prompt generalization on unseen prompts. Our framework is
implemented by modeling the input prompt space in a probabilistic manner, as an
a priori distribution which makes our proposal compatible with prompt learning
approaches that are unconditional or conditional on the image. We demonstrate
empirically on 15 benchmarks that Bayesian prompt learning provides an
appropriate coverage of the prompt space, prevents learning spurious features,
and exploits transferable invariant features. This results in better
generalization of unseen prompts, even across different datasets and domains.
Code available at: https://github.com/saic-fi/Bayesian-Prompt-Learning
- Abstract(参考訳): 基礎画像言語モデルは、迅速な学習による下流タスクへの効率的な適応により、かなりの関心を集めている。
プロンプト学習は、言語モデルの入力の一部を、残りを凍結しながら学習可能として扱い、経験的リスク最小化目標を最適化する。
しかし、経験的リスクの最小化は分布の変化に苦しむことが知られており、訓練中に無意識に促す一般化を損なう。
ベイズ法の正規化能力を利用することで、ベイズ的視点からプロンプト学習をフレーム化し、変分推論問題として定式化する。
提案手法は,プロンプト空間を正規化し,目に見えないプロンプトへの過剰適合を低減し,目に見えないプロンプトのプロンプト一般化を改善する。
本フレームワークは,入力プロンプト空間を確率論的にモデル化し,画像上不条件あるいは条件付きである素早い学習手法と互換性のある事前分布として実装する。
ベイジアン・プロンプト・ラーニングがプロンプト空間の適切なカバレッジを提供し、スプリアスな特徴の学習を防止し、転送可能な不変な特徴を活用できる15のベンチマークを実証的に示した。
これにより、異なるデータセットやドメインであっても、目に見えないプロンプトをより一般化できる。
https://github.com/saic-fi/Bayesian-Prompt-Learning
関連論文リスト
- Prompt Diffusion Robustifies Any-Modality Prompt Learning [43.35989471544046]
本稿では,各試料にカスタマイズされたプロンプトを得るために,拡散モデルを用いてプロンプトを徐々に洗練するプロンプト拡散法を提案する。
試験されたすべての素早い学習方法に対して、迅速な拡散を加えることで、15の多様なデータセットでテストされた分類タスクにおいて、ベース・ツー・ニューな一般化、クロスデータセットの一般化、ドメインの一般化のためのより堅牢な結果が得られる。
論文 参考訳(メタデータ) (2024-10-26T12:36:25Z) - Revisiting Prompt Pretraining of Vision-Language Models [13.888505919946578]
本稿では、RPP(Revisiting Prompt Pretraining)と呼ばれる一般的なフレームワークを提案する。
RPPは、フィッティングと一般化能力の改善を、迅速な構造と迅速な監督という2つの側面から目標としている。
また,事前訓練されたコントラスト言語画像事前学習(CLIP)教師モデルによって提供されるゼロショット確率予測から得られたソフトラベルを利用する。
論文 参考訳(メタデータ) (2024-09-10T02:36:13Z) - Hard Prompts Made Interpretable: Sparse Entropy Regularization for Prompt Tuning with RL [29.01858866450715]
ソフトQ-ラーニングを利用した最適なプロンプトを見つけることを目的としたRLPromptを提案する。
結果は有望な結果を示す一方で,プロンプトが不自然に現れることがしばしばあり,その解釈可能性を妨げることが確認されている。
この制限をスパルス・ツァリスエントロピー正規化(英語版)を用いて解決する。
論文 参考訳(メタデータ) (2024-07-20T03:10:19Z) - RESTORE: Towards Feature Shift for Vision-Language Prompt Learning [33.13407089704543]
ここでは,CLIPの1つの分岐のみに沿った即時チューニングが,誤調整の発生の原因であることを示す。
学習可能なパラメータをさまざまなモダリティで適切に正規化することなく、迅速な学習は元の事前学習制約に違反する。
クロスモーダルな一貫性に明示的な制約を課すマルチモーダルなプロンプト学習手法であるRESTOREを提案する。
論文 参考訳(メタデータ) (2024-03-10T08:52:48Z) - Understanding prompt engineering may not require rethinking
generalization [56.38207873589642]
言語モデルによって与えられるPAC-Bayesと組み合わさったプロンプトの離散的性質は、文献の標準によって非常に厳密な一般化境界をもたらすことを示す。
この研究は、プロンプトエンジニアリングの広範な実践を正当化する可能性がある。
論文 参考訳(メタデータ) (2023-10-06T00:52:48Z) - Self-regulating Prompts: Foundational Model Adaptation without
Forgetting [112.66832145320434]
本稿では,PromptSRCと呼ばれる自己正規化フレームワークを提案する。
PromptSRCはタスク固有の汎用表現とタスクに依存しない汎用表現の両方に最適化するプロンプトを導く。
論文 参考訳(メタデータ) (2023-07-13T17:59:35Z) - Fairness-guided Few-shot Prompting for Large Language Models [93.05624064699965]
インコンテキスト学習は、トレーニング例、例えば順、プロンプトフォーマットのバリエーションによって、高い不安定性に悩まされる可能性がある。
ラベルや属性に対する固定的なプロンプトの予測バイアスを評価するための指標を導入する。
そこで本研究では,テキスト内学習の性能向上のための最寄りのプロンプトを特定するための,欲求探索に基づく新しい探索手法を提案する。
論文 参考訳(メタデータ) (2023-03-23T12:28:25Z) - Patch-Prompt Aligned Bayesian Prompt Tuning for Vision-Language Models [48.77653835765705]
そこでは,まず下位分布から潜在ベクトルをサンプリングし,次に軽量な生成モデルを用いてラベル固有のプロンプトを階層的に生成する。
提案手法の有効性は,少数ショット画像認識,ベース・ツー・ニュージェネリゼーション,データセット転送学習,ドメインシフトの4つのタスクで評価する。
論文 参考訳(メタデータ) (2023-03-16T06:09:15Z) - RLPrompt: Optimizing Discrete Text Prompts With Reinforcement Learning [84.75064077323098]
本稿では、強化学習(RL)を用いた離散的高速最適化手法RLPromptを提案する。
RLPromptは、マスク付きジベリッシュ(例:grammaBERT)や左から右へのモデル(例:GPT)など、様々な種類のLMに柔軟に適用可能である。
少数ショット分類と教師なしテキストスタイル転送の実験は、既存のファインタニングやプロンプト手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2022-05-25T07:50:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。