論文の概要: SelectIT: Selective Instruction Tuning for Large Language Models via
Uncertainty-Aware Self-Reflection
- arxiv url: http://arxiv.org/abs/2402.16705v1
- Date: Mon, 26 Feb 2024 16:21:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-28 20:12:58.165613
- Title: SelectIT: Selective Instruction Tuning for Large Language Models via
Uncertainty-Aware Self-Reflection
- Title(参考訳): SelectIT:不確実性を考慮した自己回帰による大規模言語モデルの選択的インストラクションチューニング
- Authors: Liangxin Liu, Xuebo Liu, Derek F. Wong, Dongfang Li, Ziyi Wang,
Baotian Hu, Min Zhang
- Abstract要約: 本研究では,大規模言語モデル (LLM) の基本機能を活用する新しいアプローチ SelectIT を提案する。
具体的には、LLMに存在する本質的な不確実性を利用して、余分なリソースを必要とせずに、より効果的に高品質なITデータを選択する。
実証的な結果は、Selective Alpacaを使用したITが、実質的なモデル能力の向上につながることを示している。
- 参考スコア(独自算出の注目度): 49.54657248221432
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Instruction tuning (IT) is crucial to tailoring large language models (LLMs)
towards human-centric interactions. Recent advancements have shown that the
careful selection of a small, high-quality subset of IT data can significantly
enhance the performance of LLMs. Despite this, common approaches often rely on
additional models or data sets, which increases costs and limits widespread
adoption. In this work, we propose a novel approach, termed SelectIT, that
capitalizes on the foundational capabilities of the LLM itself. Specifically,
we exploit the intrinsic uncertainty present in LLMs to more effectively select
high-quality IT data, without the need for extra resources. Furthermore, we
introduce a novel IT dataset, the Selective Alpaca, created by applying
SelectIT to the Alpaca-GPT4 dataset. Empirical results demonstrate that IT
using Selective Alpaca leads to substantial model ability enhancement. The
robustness of SelectIT has also been corroborated in various foundation models
and domain-specific tasks. Our findings suggest that longer and more
computationally intensive IT data may serve as superior sources of IT, offering
valuable insights for future research in this area. Data, code, and scripts are
freely available at https://github.com/Blue-Raincoat/SelectIT.
- Abstract(参考訳): インストラクションチューニング(IT)は、人間中心の相互作用に対して大きな言語モデル(LLM)を調整するために重要である。
近年の進歩は、小型で高品質なITデータのサブセットを慎重に選択することで、LCMの性能を大幅に向上させることができることを示している。
これにもかかわらず、一般的なアプローチは追加のモデルやデータセットに依存することが多い。
本研究では,LLM自体の基盤的能力を生かした,SelectITと呼ばれる新しいアプローチを提案する。
具体的には、LLMに存在する本質的な不確実性を利用して、余分なリソースを必要とせずに、より効果的に高品質なITデータを選択する。
さらに,SelectITをAlpaca-GPT4データセットに適用した新しいITデータセットであるSelective Alpacaを導入する。
実証的な結果は、Selective Alpacaを使用したITが、実質的なモデル能力の向上につながることを示している。
SelectITの堅牢性は、様々な基礎モデルやドメイン固有のタスクでも裏付けられている。
我々の発見は、より長く、より計算集約的なITデータが、ITの優れた情報源として役立ち、この分野における将来の研究に貴重な洞察をもたらすことを示唆している。
データ、コード、スクリプトはhttps://github.com/Blue-Raincoat/SelectITで無料で入手できる。
関連論文リスト
- Learning with Less: Knowledge Distillation from Large Language Models via Unlabeled Data [54.934578742209716]
現実世界のNLPアプリケーションでは、Large Language Models (LLMs) は巨大なデータセットの広範なトレーニングのために、有望なソリューションを提供する。
LLKDは、教師と学生の両方の信号を組み込んだ適応的なサンプル選択法である。
総合的な実験により,LLKDは高いデータ効率で,様々なデータセットで優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-11-12T18:57:59Z) - Towards LLM-guided Efficient and Interpretable Multi-linear Tensor Network Rank Selection [2.06242362470764]
本稿では,高次データ解析のためのテンソルネットワークモデルにおけるランク選択を導く新しいフレームワークを提案する。
LLMの本質的な推論能力とドメイン知識を利用することで、ランク選択の解釈可能性を高めることができる。
この研究は、大規模言語モデルと高次データ分析の交差点に置かれている。
論文 参考訳(メタデータ) (2024-10-14T17:09:14Z) - Exploring Large Language Models for Feature Selection: A Data-centric Perspective [17.99621520553622]
大規模言語モデル(LLM)は様々なドメインに影響を与え、例外的な少数ショットとゼロショットの学習機能を活用している。
我々は,データ中心の観点からLLMに基づく特徴選択手法を探求し,理解することを目指している。
本研究は,テキストベースの特徴選択手法の有効性とロバスト性を強調し,実世界の医療応用を用いてその可能性を示す。
論文 参考訳(メタデータ) (2024-08-21T22:35:19Z) - LLM-Select: Feature Selection with Large Language Models [64.5099482021597]
大規模言語モデル(LLM)は、データサイエンスの標準ツールに匹敵するパフォーマンスで、最も予測可能な機能を選択することができる。
以上の結果から,LSMはトレーニングに最適な機能を選択するだけでなく,そもそもどの機能を収集すべきかを判断する上でも有用である可能性が示唆された。
論文 参考訳(メタデータ) (2024-07-02T22:23:40Z) - LLM-DA: Data Augmentation via Large Language Models for Few-Shot Named
Entity Recognition [67.96794382040547]
$LLM-DA$は、数発のNERタスクのために、大きな言語モデル(LLM)に基づいた、新しいデータ拡張テクニックである。
提案手法では,14のコンテキスト書き換え戦略を採用し,同一タイプのエンティティ置換を設計し,ロバスト性を高めるためにノイズ注入を導入する。
論文 参考訳(メタデータ) (2024-02-22T14:19:56Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - Curated LLM: Synergy of LLMs and Data Curation for tabular augmentation in low-data regimes [57.62036621319563]
本稿では,Large Language Models (LLMs) の知識を低データ構造におけるデータ拡張に活用したCLLMを紹介する。
従来のジェネレータと比較して,低データ方式におけるCLLMの優れた性能を示す。
論文 参考訳(メタデータ) (2023-12-19T12:34:46Z) - Large Language Models as Data Preprocessors [9.99065004972981]
大規模言語モデル (LLM) は人工知能において大きな進歩を遂げている。
本研究では、データマイニングおよび分析アプリケーションにおいて重要な段階である、データ前処理におけるその可能性について検討する。
我々は,最先端のプロンプトエンジニアリング技術を統合したデータ前処理のためのLLMベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2023-08-30T23:28:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。