論文の概要: Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models
- arxiv url: http://arxiv.org/abs/2303.12748v3
- Date: Sun, 2 Apr 2023 23:01:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-04 20:33:29.853455
- Title: Enabling Calibration In The Zero-Shot Inference of Large Vision-Language
Models
- Title(参考訳): 大型視覚言語モデルのゼロショット推論における校正
- Authors: Will LeVine, Benjamin Pikus, Pranav Raj, and Fernando Amat Gil
- Abstract要約: プロンプト、データセット、アーキテクチャといった関連する変数のキャリブレーションを測定し、CLIPによるゼロショット推論が誤校正されていることを見つけます。
学習した1つの温度は、推論データセットにまたがって特定のCLIPモデルごとに一般化され、選択が促される。
- 参考スコア(独自算出の注目度): 58.720142291102135
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Calibration of deep learning models is crucial to their trustworthiness and
safe usage, and as such, has been extensively studied in supervised
classification models, with methods crafted to decrease miscalibration.
However, there has yet to be a comprehensive study of the calibration of
vision-language models that are used for zero-shot inference, like CLIP. We
measure calibration across relevant variables like prompt, dataset, and
architecture, and find that zero-shot inference with CLIP is miscalibrated.
Furthermore, we propose a modified version of temperature scaling that is
aligned with the common use cases of CLIP as a zero-shot inference model, and
show that a single learned temperature generalizes for each specific CLIP model
(defined by a chosen pre-training dataset and architecture) across inference
dataset and prompt choice.
- Abstract(参考訳): 深層学習モデルの校正は信頼性と安全な使用に不可欠であり、分類モデルにおいて、誤校正を減らす手法を用いて広範囲に研究されている。
しかし、CLIPのようなゼロショット推論に使用される視覚言語モデルの校正に関する包括的な研究はまだ行われていない。
我々は,プロンプト,データセット,アーキテクチャといった関連する変数のキャリブレーションを測定し,クリップによるゼロショット推論が誤りであることを確認した。
さらに、ゼロショット推論モデルとしてCLIPの一般的な使用事例と整合した温度スケーリングの修正版を提案し、単一の学習温度が推論データセットをまたいだ特定のCLIPモデル(選択した事前学習データセットとアーキテクチャで定義される)毎に一般化し、選択を促すことを示す。
関連論文リスト
- Robust Calibration of Large Vision-Language Adapters [17.583536041845402]
本稿では,CLIPに基づくモデル適応における誤校正の重大な問題に対処する。
実験により,0ショットベースラインのキャリブレーション能力を大幅に低下させる,Adapters,Prompt Learning,Test-Time Adaptationなどの一般的なCLIP適応アプローチを実証した。
これらの観測により、各試料の対数範囲をゼロショット予測ロジットに拡大することにより、誤校正を緩和するための単純でモデルに依存しない解が提示される。
論文 参考訳(メタデータ) (2024-07-18T15:27:56Z) - Calibration of Continual Learning Models [18.547902778976084]
連続学習(CL)は、非定常データストリームにわたるモデルの予測性能の最大化に重点を置いている。
モデルキャリブレーションは機械学習において活発な研究テーマであるが、CLでは適切に研究されていない。
CLにおけるキャリブレーションアプローチの挙動に関する最初の実証的研究を行い、CL戦略が本質的にキャリブレーションモデルを学習しないことを示す。
論文 参考訳(メタデータ) (2024-04-11T14:59:49Z) - Variable Importance Matching for Causal Inference [73.25504313552516]
これらの目標を達成するためのModel-to-Matchと呼ばれる一般的なフレームワークについて説明する。
Model-to-Matchは、距離メートル法を構築するために変数重要度測定を使用する。
LASSO を用いて Model-to-Match フレームワークを運用する。
論文 参考訳(メタデータ) (2023-02-23T00:43:03Z) - CLIPood: Generalizing CLIP to Out-of-Distributions [73.86353105017076]
対照的に、CLIP(Language-image Pre-training)モデルでは、印象的なゼロショット能力を示しているが、下流タスクにおけるCLIPのさらなる適応は、OODのパフォーマンスを好ましくない劣化させる。
ドメインシフトとオープンクラスの両方が見えないテストデータ上で発生する可能性があるOOD状況にCLIPモデルを適用するための微調整手法であるCLIPoodを提案する。
さまざまなOODシナリオによるさまざまなデータセットの実験は、CLIPoodが既存の一般化テクニックを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2023-02-02T04:27:54Z) - On Calibrating Semantic Segmentation Models: Analyses and An Algorithm [51.85289816613351]
セマンティックセグメンテーションキャリブレーションの問題について検討する。
モデルキャパシティ、作物サイズ、マルチスケールテスト、予測精度はキャリブレーションに影響を及ぼす。
我々は、単純で統一的で効果的なアプローチ、すなわち選択的スケーリングを提案する。
論文 参考訳(メタデータ) (2022-12-22T22:05:16Z) - On the calibration of underrepresented classes in LiDAR-based semantic
segmentation [7.100396757261104]
この研究は、LiDARに基づくセマンティックセグメンテーションのためのモデルの信頼性性能のクラスワイズ評価に焦点を当てる。
3つのセマンティックセグメンテーションモデルのキャリブレーション能力と異なるアーキテクチャ概念を比較した。
クラスの予測性能とキャリブレーション品質の依存性を識別し,記述することにより,安全クリティカルなアプリケーションに対するモデル選択と改善を容易にすることを目指している。
論文 参考訳(メタデータ) (2022-10-13T07:49:24Z) - Variable-Based Calibration for Machine Learning Classifiers [11.9995808096481]
モデルのキャリブレーション特性を特徴付けるために,変数ベースのキャリブレーションの概念を導入する。
ほぼ完全なキャリブレーション誤差を持つモデルでは,データの特徴の関数としてかなりの誤校正が期待できることがわかった。
論文 参考訳(メタデータ) (2022-09-30T00:49:31Z) - Modular Conformal Calibration [80.33410096908872]
回帰における再校正のためのアルゴリズムを多種多様なクラスで導入する。
このフレームワークは、任意の回帰モデルをキャリブレーションされた確率モデルに変換することを可能にする。
我々は17の回帰データセットに対するMCCの実証的研究を行った。
論文 参考訳(メタデータ) (2022-06-23T03:25:23Z) - A Gating Model for Bias Calibration in Generalized Zero-shot Learning [18.32369721322249]
汎用ゼロショット学習(GZSL)は,補助情報のみを用いることで,見つからないクラスデータに一般化できるモデルを訓練することを目的とする。
GZSLの主な課題の1つは、トレーニング中に利用可能なクラスデータのみに過度に適合することに起因する、見かけたクラスに対するバイアス付きモデル予測である。
GZSLのための2ストリームオートエンコーダに基づくゲーティングモデルを提案する。
論文 参考訳(メタデータ) (2022-03-08T16:41:06Z) - On Model Calibration for Long-Tailed Object Detection and Instance
Segmentation [56.82077636126353]
NorCal, Normalized for long-tailed object detection and instance segmentation。
バックグラウンドクラスを個別に扱い、各提案のクラスに対してスコアを正規化することは、優れたパフォーマンスを達成するための鍵であることを示す。
論文 参考訳(メタデータ) (2021-07-05T17:57:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。