論文の概要: AnnoLLM: Making Large Language Models to Be Better Crowdsourced
Annotators
- arxiv url: http://arxiv.org/abs/2303.16854v1
- Date: Wed, 29 Mar 2023 17:03:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-30 13:55:31.015780
- Title: AnnoLLM: Making Large Language Models to Be Better Crowdsourced
Annotators
- Title(参考訳): annollm: クラウドソースアノテータになるような大規模言語モデルの構築
- Authors: Xingwei He, Zhenghao Lin, Yeyun Gong, A-Long Jin, Hang Zhang, Chen
Lin, Jian Jiao, Siu Ming Yiu, Nan Duan, Weizhu Chen
- Abstract要約: GPT-3.5シリーズのモデルは、様々なNLPタスクにまたがる顕著な少数ショットとゼロショットの能力を示している。
LLMをより良いアノテータにするために、我々は2段階のアプローチ「説明-then-annotate」を提案する。
- 参考スコア(独自算出の注目度): 64.04060110775062
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many natural language processing (NLP) tasks rely on labeled data to train
machine learning models to achieve high performance. However, data annotation
can be a time-consuming and expensive process, especially when the task
involves a large amount of data or requires specialized domains. Recently,
GPT-3.5 series models have demonstrated remarkable few-shot and zero-shot
ability across various NLP tasks. In this paper, we first claim that large
language models (LLMs), such as GPT-3.5, can serve as an excellent crowdsourced
annotator by providing them with sufficient guidance and demonstrated examples.
To make LLMs to be better annotators, we propose a two-step approach,
'explain-then-annotate'. To be more precise, we begin by creating prompts for
every demonstrated example, which we subsequently utilize to prompt a LLM to
provide an explanation for why the specific ground truth answer/label was
chosen for that particular example. Following this, we construct the few-shot
chain-of-thought prompt with the self-generated explanation and employ it to
annotate the unlabeled data. We conduct experiments on three tasks, including
user input and keyword relevance assessment, BoolQ and WiC. The annotation
results from GPT-3.5 surpasses those from crowdsourced annotation for user
input and keyword relevance assessment. Additionally, for the other two tasks,
GPT-3.5 achieves results that are comparable to those obtained through
crowdsourced annotation.
- Abstract(参考訳): 多くの自然言語処理(NLP)タスクは、高性能を達成するために機械学習モデルをトレーニングするためにラベル付きデータに依存している。
しかし、特にタスクが大量のデータや特別なドメインを必要とする場合、データアノテーションは時間がかかり、コストがかかるプロセスになり得る。
近年、gpt-3.5シリーズは様々なnlpタスクにおいて顕著な少数ショットとゼロショットの能力を示している。
本稿では,GPT-3.5のような大規模言語モデル(LLM)が,十分なガイダンスを提供し,実例を示すことによって,優れたクラウドソースアノテータとして機能することを示す。
LLMをより良いアノテータにするために、我々は2段階のアプローチである「説明-then-annotate」を提案する。
より正確に言うと、まず実例ごとにプロンプトを作成し、次に LLM にその具体例に具体的真理回答/ラベルが選ばれた理由を説明するために活用する。
これに続いて、自己生成的説明を伴う数発の連鎖プロンプトを構築し、未ラベルデータに注釈をつける。
ユーザ入力とキーワード関連性評価,BoolQ,WiCの3つのタスクについて実験を行った。
GPT-3.5のアノテーションは、ユーザ入力とキーワード関連性評価のためのクラウドソースアノテーションよりも優れている。
さらに、他の2つのタスクでは、GPT-3.5はクラウドソースアノテーションで得られたものと同等の結果が得られる。
関連論文リスト
- Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - GenQA: Generating Millions of Instructions from a Handful of Prompts [67.54980063851605]
ほとんどの公開命令微調整データセットは、業界モデルをトレーニングするために使用されるクローズドソースデータセットと比較して比較的小さい。
本研究では,1つのプロンプトから大規模命令データセットを生成する手法について検討する。
我々のデータセットは、知識集約型リーダーボードタスクと会話評価の両方で、WizardLMとUltrachatの両方に遭遇または超過します。
論文 参考訳(メタデータ) (2024-06-14T17:44:08Z) - DataAgent: Evaluating Large Language Models' Ability to Answer Zero-Shot, Natural Language Queries [0.0]
OpenAIのGPT-3.5をLanguage Data Scientist(LDS)として評価する
このモデルは、さまざまなベンチマークデータセットでテストされ、そのパフォーマンスを複数の標準で評価した。
論文 参考訳(メタデータ) (2024-03-29T22:59:34Z) - LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z) - Utilising a Large Language Model to Annotate Subject Metadata: A Case
Study in an Australian National Research Data Catalogue [18.325675189960833]
オープンで再現可能な研究をサポートするために、研究のために利用可能なデータセットが急速に増えている。
データセットの可用性が向上するにつれて、それらの発見と再利用のための品質メタデータを持つことがより重要になる。
本稿では,LLMに基づくインコンテキスト学習を通じて,大規模言語モデル(LLM)を用いて,主題メタデータのコスト効率のよいアノテーションを提案する。
論文 参考訳(メタデータ) (2023-10-17T14:52:33Z) - Large Language Model as Attributed Training Data Generator: A Tale of
Diversity and Bias [92.41919689753051]
大規模言語モデル(LLM)は、最近、様々な自然言語処理(NLP)タスクのためのトレーニングデータジェネレータとして活用されている。
本稿では,多様な属性を持つプロンプトを用いたトレーニングデータ生成について検討する。
属性付きプロンプトは、結果のモデルの性能の観点から、単純なクラス条件プロンプトより優れていることを示す。
論文 参考訳(メタデータ) (2023-06-28T03:31:31Z) - Enhancing In-Context Learning with Answer Feedback for Multi-Span
Question Answering [9.158919909909146]
本稿では,LLMが望ましくない出力を通知するなど,ラベル付きデータを活用する新しい手法を提案する。
3つのマルチスパン質問応答データセットとキーフレーズ抽出データセットの実験により、我々の新しいプロンプト戦略はLLMの文脈内学習性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2023-06-07T15:20:24Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。