論文の概要: SelectLLM: Can LLMs Select Important Instructions to Annotate?
- arxiv url: http://arxiv.org/abs/2401.16553v3
- Date: Fri, 23 Feb 2024 22:28:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-27 18:37:59.082297
- Title: SelectLLM: Can LLMs Select Important Instructions to Annotate?
- Title(参考訳): SelectLLM: LLMはアノテーションに重要な命令を選択できるか?
- Authors: Ritik Sachin Parkar, Jaehyung Kim, Jong Inn Park, Dongyeop Kang
- Abstract要約: 我々はSelectLLMを紹介した。これは大規模言語モデルで未記述の命令を選択的にアノテートするためのフレームワークである。
我々の実験では、SelectLLMは命令チューニングベンチマークにおいて、他の最先端の手法と一致し、性能が良くなることを示した。
- 参考スコア(独自算出の注目度): 21.432646818975016
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Instruction tuning benefits from large and diverse datasets, however creating
such datasets involves a high cost of human labeling. While synthetic datasets
generated by large language models (LLMs) have partly solved this issue, they
often contain low-quality data. One effective solution is selectively
annotating unlabelled instructions, especially given the relative ease of
acquiring unlabeled instructions or texts from various sources. However, how to
select unlabelled instructions is not well-explored, especially in the context
of LLMs. Further, traditional data selection methods, relying on input
embedding space density, tend to underestimate instruction sample complexity,
whereas those based on model prediction uncertainty often struggle with
synthetic label quality. Therefore, we introduce SelectLLM, an alternative
framework that leverages the capabilities of LLMs to more effectively select
unlabeled instructions. SelectLLM consists of two key steps: Coreset-based
clustering of unlabelled instructions for diversity and then prompting a LLM to
identify the most beneficial instructions within each cluster. Our experiments
demonstrate that SelectLLM matches or outperforms other state-of-the-art
methods in instruction tuning benchmarks. It exhibits remarkable consistency
across human and synthetic datasets, along with better cross-dataset
generalization, as evidenced by a 10% performance improvement on the Cleaned
Alpaca test set when trained on Dolly data. All code and data are publicly
available (https://github.com/minnesotanlp/select-llm).
- Abstract(参考訳): 命令のチューニングは、大規模で多様なデータセットから得られるが、このようなデータセットの作成には、人間のラベル付けのコストがかかる。
大規模言語モデル(llm)によって生成された合成データセットは、この問題の一部を解決しているが、しばしば低品質のデータを含んでいる。
一つの効果的な解決策は、ラベルなしの命令を選択的にアノテートすることであり、特に様々なソースからラベルなしの命令やテキストを取得するのが比較的容易である。
しかし、特にLLMの文脈では、不正な命令をどうやって選択するかはよく研究されていない。
さらに、入力埋め込み空間密度に依存する従来のデータ選択手法は、命令サンプルの複雑さを過小評価する傾向があるが、モデル予測の不確実性に基づくものは、しばしば合成ラベルの品質に苦しむ。
そこで本稿では,ラベルなし命令をより効果的に選択するための LLM の機能を活用した代替フレームワーク SelectLLM を紹介する。
SelectLLMは2つの重要なステップで構成されている: コアセットベースのクラスタリング 多様性のための未実装の命令。
私たちの実験では、selectllmは命令チューニングベンチマークにおいて、他の最先端のメソッドにマッチするか、より優れています。
DollyデータでトレーニングされたクリーンなAlpacaテストセットの10%のパフォーマンス向上によって証明されたように、人間と合成データセット間の顕著な一貫性と、クロスデータセットの一般化が向上している。
すべてのコードとデータは公開されている(https://github.com/minnesotanlp/select-llm)。
関連論文リスト
- CodecLM: Aligning Language Models with Tailored Synthetic Data [51.59223474427153]
命令追従能力のための高品質な合成データを適応的に生成するフレームワークであるCodecLMを紹介する。
まず、ターゲットの指示分布をキャプチャするために、オンザフライで生成された簡潔なキーワードであるメタデータにシード命令をエンコードする。
また、デコード中に自己論理とコントラストフィルタを導入し、データ効率の良いサンプルを調整する。
論文 参考訳(メタデータ) (2024-04-08T21:15:36Z) - LLMaAA: Making Large Language Models as Active Annotators [32.57011151031332]
本稿では,大規模な言語モデルをアノテータとして利用し,それをアクティブな学習ループに配置して,アノテートを効率的に行うLLMaAAを提案する。
我々は、エンティティ認識と関係抽出という、2つの古典的NLPタスクの実験と分析を行う。
LLMaAAでは、LLM生成ラベルからトレーニングされたタスク固有のモデルが、数百の注釈付きサンプルで教師より優れている。
論文 参考訳(メタデータ) (2023-10-30T14:54:15Z) - FlatMatch: Bridging Labeled Data and Unlabeled Data with Cross-Sharpness
for Semi-Supervised Learning [73.13448439554497]
Semi-Supervised Learning (SSL) は、ラベル付きデータが極めて少ない豊富なラベル付きデータを活用する効果的な方法である。
ほとんどのSSLメソッドは、通常、異なるデータ変換間のインスタンス単位の一貫性に基づいている。
本研究では,2つのデータセット間の一貫した学習性能を確保するために,クロスシャープネス尺度を最小化するFlatMatchを提案する。
論文 参考訳(メタデータ) (2023-10-25T06:57:59Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Data Race Detection Using Large Language Models [1.0013600887991827]
大規模言語モデル(LLM)は、高性能コンピューティングプログラムの分析と最適化を容易にする代替戦略である。
本稿では,工学的手法と微調整的手法を併用した,LLMに基づく新しいデータ競合検出手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T00:08:43Z) - Learning to Detect Noisy Labels Using Model-Based Features [16.681748918518075]
Select-Enhanced Noisy label Training (SENT)を提案する。
SENTは、データ駆動の柔軟性を保ちながら、メタ学習に依存しない。
自己学習とラベルの破損の設定の下で、強力なベースラインよりもパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2022-12-28T10:12:13Z) - Exploiting Diversity of Unlabeled Data for Label-Efficient
Semi-Supervised Active Learning [57.436224561482966]
アクティブラーニング(英: Active Learning)は、ラベリングのための最も重要なサンプルを選択することで、高価なラベリングの問題に対処する研究分野である。
アクティブな学習環境における初期ラベル付けのための最も情報性の高いサンプル群を選択するために,多様性に基づく新しい初期データセット選択アルゴリズムを提案する。
また、一貫性に基づく埋め込みの多様性に基づくサンプリングを用いた、新しいアクティブな学習クエリ戦略を提案する。
論文 参考訳(メタデータ) (2022-07-25T16:11:55Z) - Trustable Co-label Learning from Multiple Noisy Annotators [68.59187658490804]
監督されたディープラーニングは、大量の注釈付き例に依存している。
典型的な方法は、複数のノイズアノテータから学習することである。
本稿では,emphTrustable Co-label Learning (TCL)と呼ばれるデータ効率のよい手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T16:57:00Z) - Unsupervised Selective Labeling for More Effective Semi-Supervised
Learning [46.414510522978425]
教師なしの選択的なラベル付けは、与えられたラベル付きデータの最先端のアクティブラーニングよりもSSLメソッドを一貫して改善する。
私たちの仕事は、実用的で効率的なSSLの新しい標準を設定します。
論文 参考訳(メタデータ) (2021-10-06T18:25:50Z) - Dash: Semi-Supervised Learning with Dynamic Thresholding [72.74339790209531]
我々は、ラベルのない例を使ってモデルをトレーニングする半教師付き学習(SSL)アプローチを提案する。
提案手法であるDashは、ラベルなしデータ選択の観点から適応性を享受する。
論文 参考訳(メタデータ) (2021-09-01T23:52:29Z) - Beyond without Forgetting: Multi-Task Learning for Classification with
Disjoint Datasets [27.570773346794613]
解離データセットを用いた分類のためのマルチタスク学習(MTL)は、ひとつのタスクにラベル付きデータセットが1つしかない場合、MTLを探索することを目的としている。
半教師付き学習にインスパイアされ、擬似ラベル付きラベル付きラベル付きデータセットを使用して各タスクを容易にする。
提案手法は,ラベル付きデータセットに信頼度の高い擬似ラベルを持つラベル付きデータセットのトレーニングサンプルを選択し,ラベル付きデータセットに密接なデータ配信を行うための,選択型拡張(MTL-SA)法である。
論文 参考訳(メタデータ) (2020-03-15T03:19:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。