論文の概要: Leveraging Multiple Teachers for Test-Time Adaptation of Language-Guided
Classifiers
- arxiv url: http://arxiv.org/abs/2311.07538v1
- Date: Mon, 13 Nov 2023 18:28:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 13:11:22.202777
- Title: Leveraging Multiple Teachers for Test-Time Adaptation of Language-Guided
Classifiers
- Title(参考訳): 言語誘導型分類器のテスト時間適応のための複数教師の活用
- Authors: Kangda Wei, Sayan Ghosh, Rakesh R. Menon, Shashank Srivastava
- Abstract要約: 本稿では,複数の教師からの説明や未ラベルのテスト例を提供する際に,言語指導型分類器を推論中に新しいタスクに適応させるフレームワークTALCを紹介する。
以上の結果から,TALCは従来よりも9.3%(相対的な改善)で競争ベースラインを一貫して上回っていることが明らかとなった。
- 参考スコア(独自算出の注目度): 21.55294900536358
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent approaches have explored language-guided classifiers capable of
classifying examples from novel tasks when provided with task-specific natural
language explanations, instructions or prompts (Sanh et al., 2022; R. Menon et
al., 2022). While these classifiers can generalize in zero-shot settings, their
task performance often varies substantially between different language
explanations in unpredictable ways (Lu et al., 2022; Gonen et al., 2022). Also,
current approaches fail to leverage unlabeled examples that may be available in
many scenarios. Here, we introduce TALC, a framework that uses data programming
to adapt a language-guided classifier for a new task during inference when
provided with explanations from multiple teachers and unlabeled test examples.
Our results show that TALC consistently outperforms a competitive baseline from
prior work by an impressive 9.3% (relative improvement). Further, we
demonstrate the robustness of TALC to variations in the quality and quantity of
provided explanations, highlighting its potential in scenarios where learning
from multiple teachers or a crowd is involved. Our code is available at:
https://github.com/WeiKangda/TALC.git.
- Abstract(参考訳): 近年,タスク固有の自然言語の説明や指示,プロンプト(Sanh et al., 2022; R. Menon et al., 2022)が提供されると,新しいタスクから例を分類できる言語誘導型分類器を探索している。
これらの分類器はゼロショット設定で一般化できるが、そのタスク性能は予測不可能な方法で異なる言語説明の間で大きく異なる(Lu et al., 2022; Gonen et al., 2022)。
また、現在のアプローチでは、多くのシナリオで利用可能なラベルのない例を活用できない。
本稿では,複数の教師からの説明やラベルなしテスト例を提供する際に,データプログラミングを用いて言語誘導型分類器を新しいタスクに適応させるフレームワークTALCを紹介する。
以上の結果から,TALCは従来よりも9.3%(相対的な改善)で競争ベースラインを一貫して上回っていることが明らかとなった。
さらに、提供される説明の質や量の変化に対するTALCの頑健さを実証し、複数の教師や観衆からの学習が関与するシナリオにおいてその可能性を強調した。
私たちのコードは、https://github.com/weikangda/talc.gitで利用可能です。
関連論文リスト
- Adapting Vision-Language Models to Open Classes via Test-Time Prompt Tuning [50.26965628047682]
学習済みのモデルをオープンクラスに適応させることは、機械学習において難しい問題である。
本稿では,両者の利点を組み合わせたテスト時プロンプトチューニング手法を提案する。
提案手法は,基本クラスと新クラスの両方を考慮し,すべての比較手法を平均的に上回る結果を得た。
論文 参考訳(メタデータ) (2024-08-29T12:34:01Z) - Language Models for Text Classification: Is In-Context Learning Enough? [54.869097980761595]
最近の基礎言語モデルでは、ゼロショットや少数ショットの設定で多くのNLPタスクで最先端のパフォーマンスが示されている。
より標準的なアプローチよりもこれらのモデルの利点は、自然言語(prompts)で書かれた命令を理解する能力である。
これにより、アノテーション付きインスタンスが限られているドメインのテキスト分類問題に対処するのに適している。
論文 参考訳(メタデータ) (2024-03-26T12:47:39Z) - EXnet: Efficient In-context Learning for Data-less Text classification [0.0]
本報告では,実例数に制限を加えることなく,文脈内学習を実現するためのモデルであるEXnetを提案する。
テキスト内学習はタスクの精度を高めるための効果的な手法であり,実例を提供することでタスク間の一般化が促進される,と我々は主張する。
大規模な実験により、我々の最小のモデル(15Mパラメータ)でさえ、いくつかの目に見えない分類タスクや領域に一般化できることが示される。
論文 参考訳(メタデータ) (2023-05-24T01:40:57Z) - Are Large Language Models Robust Coreference Resolvers? [17.60248310475889]
我々は、コア参照のプロンプトが、現在の教師なしコア参照システムより優れていることを示す。
さらなる調査により、命令調整されたLMが驚くほどドメイン、言語、時間にまたがって一般化されることが判明した。
論文 参考訳(メタデータ) (2023-05-23T19:38:28Z) - In-Context Probing: Toward Building Robust Classifiers via Probing Large
Language Models [5.5089506884366735]
本稿では, In-Context Probing (ICP) という代替手法を提案する。
インコンテキスト学習と同様に、入力の表現を命令で文脈化するが、出力予測を復号する代わりに、ラベルを予測するために文脈化表現を探索する。
我々はICPがファインタニングよりも優れていることを示し、より小さなモデルの上に分類器を構築するのに特に有用であることを示した。
論文 参考訳(メタデータ) (2023-05-23T15:43:04Z) - Efficiently Aligned Cross-Lingual Transfer Learning for Conversational
Tasks using Prompt-Tuning [98.60739735409243]
英語のような高リソース言語で訓練された言語モデルの言語間移動は、多くのNLPタスクのために広く研究されている。
並列および大規模多言語会話データセットである言語間アライメント事前学習のためのXSGDを導入する。
協調的な言語間表現を容易にするために,アライメントプロンプトを学習するための効率的なプロンプトチューニング手法を開発した。
論文 参考訳(メタデータ) (2023-04-03T18:46:01Z) - Python Code Generation by Asking Clarification Questions [57.63906360576212]
本稿では,この課題に対して,より斬新で現実的なセットアップを導入する。
我々は、自然言語記述の過小評価は、明確化を問うことで解決できると仮定する。
我々は、生成した合成明確化質問と回答を含む自然言語記述とコードのペアを含む、CodeClarQAという新しいデータセットを収集し、導入する。
論文 参考訳(メタデータ) (2022-12-19T22:08:36Z) - Improving Few-Shot Performance of Language Models via Nearest Neighbor
Calibration [12.334422701057674]
In-context Learning のための近辺校正フレームワークを提案する。
インコンテキスト学習パラダイムは、トレーニングインスタンスを推論する際に誤ったラベルを生成するという現象にインスパイアされている。
テキスト分類タスクの多種多様な実験により,本手法はテキスト内学習を大幅に改善することが示された。
論文 参考訳(メタデータ) (2022-12-05T12:49:41Z) - LASP: Text-to-Text Optimization for Language-Aware Soft Prompting of
Vision & Language Models [67.19124099815645]
ベースクラスオーバーフィットを軽減するために,Language-Aware Soft Prompting (LASP) 学習手法を提案する。
LASPは本質的に、トレーニング中に仮想クラス、すなわちビジュアルサンプルが使用できないクラス名を含むことができる。
LASPは、手作りのプロンプトとCLIPによる11のテストデータセットのうち8つの新しいクラスの精度が初めて一致し、上回っている。
論文 参考訳(メタデータ) (2022-10-03T17:56:35Z) - Selective Annotation Makes Language Models Better Few-Shot Learners [97.07544941620367]
大規模な言語モデルはコンテキスト内学習を実行でき、いくつかのタスクデモから新しいタスクを学ぶことができる。
本研究は、新しい自然言語タスクのためのデータセット作成において、文脈内学習がもたらす意味について考察する。
本稿では,無教師付きグラフベースの選択的アノテーションであるvoke-kを提案する。
論文 参考訳(メタデータ) (2022-09-05T14:01:15Z) - CLUES: A Benchmark for Learning Classifiers using Natural Language
Explanations [12.278877764015725]
教師付き学習は伝統的に、タスクのラベル付き例を観察して帰納的学習に焦点を合わせてきた。
対照的に、人間は言語から新しい概念を学ぶ能力を持っている。
自然言語のExplainationSを用いた学習のためのベンチマークであるCLUESを紹介する。
CLUESは36の現実世界と144の合成分類タスクで構成されている。
論文 参考訳(メタデータ) (2022-04-14T17:54:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。