論文の概要: ProTeCt: Prompt Tuning for Hierarchical Consistency
- arxiv url: http://arxiv.org/abs/2306.02240v1
- Date: Sun, 4 Jun 2023 02:55:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-06 19:17:02.818342
- Title: ProTeCt: Prompt Tuning for Hierarchical Consistency
- Title(参考訳): ProTeCt: 階層的一貫性のためのプロンプトチューニング
- Authors: Tz-Ying Wu, Chih-Hui Ho, Nuno Vasconcelos
- Abstract要約: CLIPのような大規模なビジュアル言語モデルは、一般化された表現を学び、有望なゼロショットのパフォーマンスを示している。
彼らは、葉のレベルでの推測が正しい場合でも、粗い分類学的階級レベルで誤ったラベルを推測する。
本稿では,モデル予測の階層的一貫性を校正するための即時チューニング手法を提案する。
- 参考スコア(独自算出の注目度): 70.94769641675377
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large visual-language models, like CLIP, learn generalized representations
and have shown promising zero-shot performance. Few-shot adaptation methods,
based on prompt tuning, have also been shown to further improve performance on
downstream datasets. However, these models are not hierarchically consistent.
Frequently, they infer incorrect labels at coarser taxonomic class levels, even
when the inference at the leaf level (original class labels) is correct. This
is problematic, given their support for open set classification and, in
particular, open-grained classification, where practitioners define label sets
at various levels of granularity. To address this problem, we propose a prompt
tuning technique to calibrate the hierarchical consistency of model
predictions. A set of metrics of hierarchical consistency, the Hierarchical
Consistent Accuracy (HCA) and the Mean Treecut Accuracy (MTA), are first
proposed to benchmark model performance in the open-granularity setting. A
prompt tuning technique, denoted as Prompt Tuning for Hierarchical Consistency
(ProTeCt), is then proposed to calibrate classification across all possible
label set granularities. Results show that ProTeCt can be combined with
existing prompt tuning methods to significantly improve open-granularity
classification performance without degradation of the original classification
performance at the leaf level.
- Abstract(参考訳): クリップのような大規模なビジュアル言語モデルは一般化表現を学習し、有望なゼロショット性能を示している。
プロンプトチューニングに基づく少数ショット適応手法も,ダウンストリームデータセットのパフォーマンスをさらに向上させることが示されている。
しかし、これらのモデルは階層的に一貫性がない。
しばしば、葉のレベル(元のクラスラベル)の推測が正しい場合でも、粗い分類学的階級レベルで誤ったラベルを推測する。
オープンセットの分類や特にオープングレードの分類のサポートを考えると、これは問題であり、実践者は様々なレベルの粒度でラベル集合を定義する。
この問題に対処するために,モデル予測の階層的一貫性を校正するための高速チューニング手法を提案する。
階層的一貫性の指標のセットである階層的一貫性精度(HCA)と平均木切り精度(MTA)は、まず、開粒度設定におけるモデル性能のベンチマークを行うために提案される。
ProTeCt(Prompt Tuning for Hierarchical Consistency)と呼ばれるプロンプトチューニング手法が提案され、可能なすべてのラベル集合の粒度を分類する。
その結果,ProTeCtと既存のプロンプトチューニング手法を組み合わせることで,葉レベルでの本来の分類性能を劣化させることなく,開粒度分類性能を大幅に向上させることができることがわかった。
関連論文リスト
- Prompt Tuned Embedding Classification for Multi-Label Industry Sector
Allocation [2.2117527672874897]
本研究では,マルチラベルテキスト分類のためのPrompt Tuningとベースラインの性能をベンチマークする。
企業を投資会社の独自産業分類に分類するために適用される。
このモデルのパフォーマンスは、よく知られた企業とあまり知られていない企業の両方で一貫していることを確認します。
論文 参考訳(メタデータ) (2023-09-21T13:45:32Z) - Mitigating Word Bias in Zero-shot Prompt-based Classifiers [55.60306377044225]
一致したクラス先行は、オラクルの上界性能と強く相関していることを示す。
また,NLPタスクに対するプロンプト設定において,一貫したパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2023-09-10T10:57:41Z) - M-Tuning: Prompt Tuning with Mitigated Label Bias in Open-Set Scenarios [103.6153593636399]
緩和ラベルバイアス(M-Tuning)を用いた視覚言語プロンプトチューニング手法を提案する。
これはWordNetからのオープンワードを導入し、クローズドセットラベルワードのみからもっと多くのプロンプトテキストを形成する単語の範囲を広げ、シミュレートされたオープンセットシナリオでプロンプトをチューニングする。
提案手法は,様々なスケールのデータセット上で最高の性能を達成し,広範囲にわたるアブレーション研究もその有効性を検証した。
論文 参考訳(メタデータ) (2023-03-09T09:05:47Z) - CHiLS: Zero-Shot Image Classification with Hierarchical Label Sets [24.868024094095983]
オープン語彙モデル(例えばCLIP)はゼロショット分類において強い性能を示している。
暗黙的な意味的階層を持つデータセットに対する階層的ラベルセット(CHiLS)を用いた分類を提案する。
CHiLSは既存のゼロショットパイプラインで簡単に実装でき、追加のトレーニングコストを必要としない。
論文 参考訳(メタデータ) (2023-02-06T03:59:15Z) - Towards Reliable Zero Shot Classification in Self-Supervised Models with
Conformal Prediction [0.688204255655161]
我々は,所定のテストキャプションを確実に使用できるかを評価するためのコンフォメーション予測手法を開発した。
提案手法により, ゼロショット分類設定におけるCLIPスタイルモデルの信頼性が向上することを示す。
論文 参考訳(メタデータ) (2022-10-27T23:52:14Z) - Self-Adaptive Label Augmentation for Semi-supervised Few-shot
Classification [121.63992191386502]
Few-shotの分類は、ラベル付きサンプルがわずかにあれば、新しいタスクをうまく一般化できるモデルを学ぶことを目的としている。
そこで本研究では,手動で定義した指標を用いて,ラベルのない各サンプルに適切なラベルを割り当てる半教師付き小ショット分類手法を提案する。
SALAの目新しいところは、タスク適応計量であり、エンドツーエンドの方法で異なるタスクに対するメトリックを適応的に学習することができる。
論文 参考訳(メタデータ) (2022-06-16T13:14:03Z) - Cluster & Tune: Boost Cold Start Performance in Text Classification [21.957605438780224]
実世界のシナリオでは、ラベル付きデータが不足している場合、テキスト分類タスクはコールドスタートから始まることが多い。
中間的教師なし分類タスクを追加することにより,そのようなモデルの性能を向上させる手法を提案する。
論文 参考訳(メタデータ) (2022-03-20T15:29:34Z) - Rank4Class: A Ranking Formulation for Multiclass Classification [26.47229268790206]
マルチクラス分類(MCC)は基本的な機械学習問題である。
ランキングのレンズを通した新しい定式化により,MCCの性能を向上させることは容易であることを示す。
論文 参考訳(メタデータ) (2021-12-17T19:22:37Z) - SCARF: Self-Supervised Contrastive Learning using Random Feature
Corruption [72.35532598131176]
本稿では,特徴のランダムなサブセットを乱してビューを形成するコントラスト学習手法であるSCARFを提案する。
SCARFは既存の戦略を補完し、オートエンコーダのような代替手段より優れていることを示す。
論文 参考訳(メタデータ) (2021-06-29T08:08:33Z) - Pre-training Is (Almost) All You Need: An Application to Commonsense
Reasoning [61.32992639292889]
事前学習されたトランスモデルの微調整は、一般的なNLPタスクを解決するための標準的なアプローチとなっている。
そこで本研究では,可視性ランキングタスクをフルテキスト形式でキャストする新たなスコアリング手法を提案する。
提案手法は, ランダム再起動にまたがって, より安定した学習段階を提供することを示す。
論文 参考訳(メタデータ) (2020-04-29T10:54:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。