論文の概要: OTTER: Effortless Label Distribution Adaptation of Zero-shot Models
- arxiv url: http://arxiv.org/abs/2404.08461v2
- Date: Wed, 30 Oct 2024 11:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-31 14:24:37.454448
- Title: OTTER: Effortless Label Distribution Adaptation of Zero-shot Models
- Title(参考訳): OTTER:ゼロショットモデルの不運なラベル分布適応
- Authors: Changho Shin, Jitian Zhao, Sonia Cromp, Harit Vishwakarma, Frederic Sala,
- Abstract要約: 最適輸送による事前学習モデル予測を調整するための,シンプルで軽量な手法を提案する。
我々は,ゼロショット画像とテキスト分類タスクの広範囲で検証を行い,精度を4.8%,平均15.9%向上させた。
- 参考スコア(独自算出の注目度): 13.789436156370893
- License:
- Abstract: Popular zero-shot models suffer due to artifacts inherited from pretraining. One particularly detrimental issue, caused by unbalanced web-scale pretraining data, is mismatched label distribution. Existing approaches that seek to repair the label distribution are not suitable in zero-shot settings, as they have mismatching requirements, such as needing access to labeled downstream task data or knowledge of the true label balance in the pretraining distribution. We sidestep these challenges and introduce a simple and lightweight approach to adjust pretrained model predictions via optimal transport. Our technique requires only an estimate of the label distribution of a downstream task. Theoretically, we characterize the improvement produced by our procedure under certain mild conditions and provide bounds on the error caused by misspecification. Empirically, we validate our method in a wide array of zero-shot image and text classification tasks, improving accuracy by 4.8% and 15.9% on average, and beating baselines like prior matching -- often by significant margins -- in 17 out of 21 datasets.
- Abstract(参考訳): 一般的なゼロショットモデルは、事前訓練によって継承されたアーティファクトに悩まされる。
不均衡なWebスケール事前学習データによって引き起こされる、特に有害な問題のひとつは、ラベル分布のミスマッチである。
ラベル分布を修復しようとする既存のアプローチは、ラベル付き下流タスクデータへのアクセスや、事前訓練された分布における真のラベルバランスの知識など、誤った要求があるため、ゼロショット設定では適していない。
我々はこれらの課題を脇取りし、最適な輸送によって事前訓練されたモデル予測を調整するためのシンプルで軽量なアプローチを導入する。
本手法では,下流タスクのラベル分布を推定するだけでよい。
理論的には,特定の軽度条件下での手順による改善を特徴付けるとともに,誤特定による誤りに限界を与える。
実験的に、我々は、ゼロショット画像とテキスト分類タスクの幅広い範囲でメソッドを検証し、精度を平均4.8%と15.9%改善し、21のデータセットのうち17つにおいて、事前マッチング(多くの場合、大きなマージンで)のようなベースラインを上回りました。
関連論文リスト
- Enhancing Zero-Shot Vision Models by Label-Free Prompt Distribution Learning and Bias Correcting [55.361337202198925]
CLIPのようなヴィジュアル言語モデルは、適切なテキスト記述を使用する際に、顕著な一般化能力を示している。
本稿では,ラベル付きデータを必要としないゼロショット性能を向上する,**Frolic**と呼ばれるラベルフリーな分布学習とバイアス補正フレームワークを提案する。
論文 参考訳(メタデータ) (2024-10-25T04:00:45Z) - Efficient Online Set-valued Classification with Bandit Feedback [10.882001129426726]
クラス固有の粒度のカバレッジ保証を提供するBandit Class-specific Conformal Prediction (BCCP)を提案する。
BCCPは、各イテレーションで少ないラベルでラベル付けされたデータの課題を克服し、オンライン意思決定環境への適合予測の信頼性と適用性を一般化する。
論文 参考訳(メタデータ) (2024-05-07T15:14:51Z) - Dist-PU: Positive-Unlabeled Learning from a Label Distribution
Perspective [89.5370481649529]
本稿では,PU学習のためのラベル分布視点を提案する。
そこで本研究では,予測型と基底型のラベル分布間のラベル分布の整合性を追求する。
提案手法の有効性を3つのベンチマークデータセットで検証した。
論文 参考訳(メタデータ) (2022-12-06T07:38:29Z) - Improving Zero-Shot Models with Label Distribution Priors [33.51714665243138]
本稿では,ゼロショットモデルを適用した新しいアプローチであるCLIPPRを提案する。
UTK年齢回帰作業における平均絶対誤差は平均28%改善した。
また、分類ベンチマークの有望な結果を示し、ラベルを使わずにImageNetデータセットの分類精度を2.83%改善した。
論文 参考訳(メタデータ) (2022-12-01T18:59:03Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Debiased Learning from Naturally Imbalanced Pseudo-Labels for Zero-Shot
and Semi-Supervised Learning [27.770473405635585]
この研究は、疑似ラベルのバイアス問題を研究する。これは、広く起こるが、しばしば先行研究によって見落とされがちな自然現象である。
半教師付き学習モデルであるFixMatchは、ラベルなしデータを計算したとしても、ラベルなし集合上のラベルを予測したとき、重く長い尾の擬似ラベルを観察する。
介入なしに、トレーニングモデルは擬似ラベルからバイアスを継承し、最終的には準最適となる。
論文 参考訳(メタデータ) (2022-01-05T07:40:24Z) - Distribution-free uncertainty quantification for classification under
label shift [105.27463615756733]
2つの経路による分類問題に対する不確実性定量化(UQ)に焦点を当てる。
まず、ラベルシフトはカバレッジとキャリブレーションの低下を示すことでuqを損なうと論じる。
これらの手法を, 理論上, 分散性のない枠組みで検討し, その優れた実用性を示す。
論文 参考訳(メタデータ) (2021-03-04T20:51:03Z) - Self-Supervised Noisy Label Learning for Source-Free Unsupervised Domain
Adaptation [87.60688582088194]
新規な自己監督雑音ラベル学習法を提案する。
本手法は最新の結果を容易に達成でき、他の手法を非常に大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2021-02-23T10:51:45Z) - Improving Generalization of Deep Fault Detection Models in the Presence
of Mislabeled Data [1.3535770763481902]
ラベルノイズを用いた頑健なトレーニングのための新しい2段階フレームワークを提案する。
最初のステップでは、仮説空間の更新に基づいて、外れ値(ラベルのつかないサンプルを含む)を識別する。
第2のステップでは、識別されたアウトレイラとデータ拡張技術に基づいて、トレーニングデータを修正するための異なるアプローチを提案する。
論文 参考訳(メタデータ) (2020-09-30T12:33:25Z) - Uncertainty-aware Self-training for Text Classification with Few Labels [54.13279574908808]
本研究は,アノテーションのボトルネックを軽減するための半教師あり学習手法の1つとして,自己学習について研究する。
本稿では,基礎となるニューラルネットワークの不確実性推定を取り入れて,自己学習を改善する手法を提案する。
本手法では,クラス毎に20~30個のラベル付きサンプルをトレーニングに利用し,完全教師付き事前学習言語モデルの3%以内で検証を行う。
論文 参考訳(メタデータ) (2020-06-27T08:13:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。