論文の概要: Large Language Models Are Zero-Shot Text Classifiers
- arxiv url: http://arxiv.org/abs/2312.01044v1
- Date: Sat, 2 Dec 2023 06:33:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 19:26:59.118667
- Title: Large Language Models Are Zero-Shot Text Classifiers
- Title(参考訳): 大型言語モデルはゼロショットテキスト分類器である
- Authors: Zhiqiang Wang, Yiran Pang, Yanbin Lin
- Abstract要約: 大規模言語モデル(LLM)は、自然言語処理(NLP)の様々なサブカテゴリで広く使われている。
NLPでは、テキスト分類の問題はかなりの焦点が当てられているが、高価な計算コスト、時間消費、目に見えないクラスに対する堅牢なパフォーマンスに関連するいくつかの制限に直面している。
思考促進チェーン(CoT)の提案により、ステップ推論プロンプトを用いてゼロショット学習(ZSL)を用いてLLMを実装できる。
- 参考スコア(独自算出の注目度): 3.617781755808837
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Retrained large language models (LLMs) have become extensively used across
various sub-disciplines of natural language processing (NLP). In NLP, text
classification problems have garnered considerable focus, but still faced with
some limitations related to expensive computational cost, time consumption, and
robust performance to unseen classes. With the proposal of chain of thought
prompting (CoT), LLMs can be implemented using zero-shot learning (ZSL) with
the step by step reasoning prompts, instead of conventional question and answer
formats. The zero-shot LLMs in the text classification problems can alleviate
these limitations by directly utilizing pretrained models to predict both seen
and unseen classes. Our research primarily validates the capability of GPT
models in text classification. We focus on effectively utilizing prompt
strategies to various text classification scenarios. Besides, we compare the
performance of zero shot LLMs with other state of the art text classification
methods, including traditional machine learning methods, deep learning methods,
and ZSL methods. Experimental results demonstrate that the performance of LLMs
underscores their effectiveness as zero-shot text classifiers in three of the
four datasets analyzed. The proficiency is especially advantageous for small
businesses or teams that may not have extensive knowledge in text
classification.
- Abstract(参考訳): Retrained Large Language Model (LLM) は、自然言語処理(NLP)のサブカテゴリで広く使われている。
NLPでは、テキスト分類の問題はかなりの焦点が当てられているが、高価な計算コスト、時間消費、目に見えないクラスに対する堅牢なパフォーマンスに関連するいくつかの制限に直面している。
思考促進の連鎖(CoT)の提案により、従来の質問や回答形式の代わりにステップ推論プロンプトを用いてゼロショット学習(ZSL)を用いてLLMを実装できる。
テキスト分類問題におけるゼロショット LLM は、事前訓練されたモデルを直接利用して、目に見えないクラスと見えないクラスの両方を予測することにより、これらの制限を緩和することができる。
本研究は主にテキスト分類におけるGPTモデルの有効性を検証する。
我々は,様々なテキスト分類シナリオにプロンプト戦略を効果的に活用することに注力する。
さらに,従来の機械学習手法,ディープラーニング手法,ZSL手法など,ゼロショットLLMの性能とアートテキスト分類手法の他の状態との比較を行った。
実験の結果,LLMの性能は,解析した4つのデータセットのうち3つにおいてゼロショットテキスト分類器としての有効性を裏付けることがわかった。
習熟度は特に、テキスト分類の知識が乏しい中小企業やチームにとって有利である。
関連論文リスト
- Pushing The Limit of LLM Capacity for Text Classification [27.684335455517417]
本稿では,特殊なテキスト分類 LLM を生成するための適応型ブースティングフレームワーク RGPT を提案する。
RGPTは,4つのベンチマークで平均1.36%,8個のSOTA PLMと7個のSOTA LLMより有意に優れていた。
論文 参考訳(メタデータ) (2024-02-12T08:14:03Z) - Sparsify-then-Classify: From Internal Neurons of Large Language Models
To Efficient Text Classifiers [4.81502049551298]
本稿では,全ての活性化状態と隠蔽状態に複数のプーリング戦略を適用することで,すべての内部表現を利用する手法を提案する。
我々の新しい軽量戦略であるSparsify-then-Classify (STC) は、まずタスク固有の機能を階層ごとに分散し、次にテキスト分類のために階層に集約する。
モデルとデータセットの包括的集合に関する実験により、STCは事前訓練されたモデルと微調整されたモデルの分類性能を一貫して改善するだけでなく、トレーニングと推論の両方においてより効率的であり、本質的に解釈可能であることが示された。
論文 参考訳(メタデータ) (2023-11-27T16:28:20Z) - Speak Like a Native: Prompting Large Language Models in a Native Style [53.84738665918496]
In-context Learning (ICL) with large language model (LLMs) は、多くの自然言語処理タスクにおいて近代的なツールとなっている。
本稿では, LLMの推論能力を向上させるために, textbfAlignedCoT という新しい効果的手法を提案する。
数学的質問答え、常識的推論、テキスト理解に関するいくつかのベンチマークにおいて、広範囲かつ包括的な実験を行う。
論文 参考訳(メタデータ) (2023-11-22T17:24:21Z) - Token Prediction as Implicit Classification to Identify LLM-Generated
Text [37.89852204279844]
本稿では,テキスト生成に関わる大きな言語モデル (LLM) を識別するための新しいアプローチを提案する。
ベースLMに新たな分類層を追加する代わりに、分類タスクを次の注意すべき予測タスクとして再設定する。
実験のバックボーンとしてText-to-Text Transfer Transformer (T5) モデルを用いる。
論文 参考訳(メタデータ) (2023-11-15T06:33:52Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - Prompting Language-Informed Distribution for Compositional Zero-Shot
Learning [80.29186197773636]
合成ゼロショット学習(CZSL)タスクは、目に見えない視覚概念を認識することを目的としている。
本稿では,タスクに対して言語インフォームド分布(PLID)を指示するモデルを提案する。
MIT-States、UT-Zappos、C-GQAデータセットの実験結果は、PLIDの先行技術よりも優れた性能を示している。
論文 参考訳(メタデータ) (2023-05-23T18:00:22Z) - Active Learning Principles for In-Context Learning with Large Language
Models [65.09970281795769]
本稿では,アクティブ・ラーニング・アルゴリズムが,文脈内学習における効果的な実演選択手法としてどのように機能するかを検討する。
ALによる文脈内サンプル選択は,不確実性の低い高品質な事例を優先し,試験例と類似性を有することを示す。
論文 参考訳(メタデータ) (2023-05-23T17:16:04Z) - Beyond prompting: Making Pre-trained Language Models Better Zero-shot
Learners by Clustering Representations [24.3378487252621]
事前学習した言語モデルの埋め込み空間にテキストをクラスタリングすることで、ゼロショットテキスト分類を改善することができることを示す。
提案手法は, 即発的なゼロショット学習よりも平均20%絶対的な改善を実現している。
論文 参考訳(メタデータ) (2022-10-29T16:01:51Z) - A Multi-level Supervised Contrastive Learning Framework for Low-Resource
Natural Language Inference [54.678516076366506]
自然言語推論(NLI)は、自然言語理解において、ますます重要な課題である。
本稿では,低リソースな自然言語推論のためのマルチSCLという,マルチレベルの教師付きコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-31T05:54:18Z) - ZeroBERTo -- Leveraging Zero-Shot Text Classification by Topic Modeling [57.80052276304937]
本稿では、教師なしクラスタリングのステップを利用して、分類タスクの前に圧縮されたデータ表現を得る新しいモデルZeroBERToを提案する。
また,ZeroBERToは,FolhaUOLデータセットのF1スコアにおいて,XLM-Rを約12%上回り,長い入力と実行時間の短縮に優れた性能を示した。
論文 参考訳(メタデータ) (2022-01-04T20:08:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。