論文の概要: Speculative Coreset Selection for Task-Specific Fine-tuning
- arxiv url: http://arxiv.org/abs/2410.01296v1
- Date: Wed, 2 Oct 2024 07:42:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 21:59:16.069741
- Title: Speculative Coreset Selection for Task-Specific Fine-tuning
- Title(参考訳): タスク特化ファインチューニングのための投機的コアセット選択
- Authors: Xiaoyu Zhang, Juan Zhai, Shiqing Ma, Chao Shen, Tianlin Li, Weipeng Jiang, Yang Liu,
- Abstract要約: タスク固有の微調整は、大規模言語モデル(LLM)の展開に不可欠である
本稿では,投機的コアセット選択法であるSTAFFを紹介する。
STAFFは,SOTA法の性能を最大54.3%向上し,選択オーバーヘッドを70.5%低減することを示した。
- 参考スコア(独自算出の注目度): 35.15159197063161
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Task-specific fine-tuning is essential for the deployment of large language models (LLMs), but it requires significant computational resources and time. Existing solutions have proposed coreset selection methods to improve data efficiency and reduce model training overhead, but they still have limitations: 1) Overlooking valuable samples at high pruning rates, which degrades the coreset's performance. 2) Requiring high time overhead during coreset selection to fine-tune and evaluate the target LLM. In this paper, we introduce STAFF, a speculative coreset selection method. STAFF leverages a small model from the same family as the target LLM to efficiently estimate data scores and then verifies the scores on the target LLM to accurately identify and allocate more selection budget to important regions while maintaining coverage of easy regions. We evaluate STAFF on three LLMs and three downstream tasks and show that STAFF improves the performance of SOTA methods by up to 54.3% and reduces selection overhead by up to 70.5% at different pruning rates. Furthermore, we observe that the coreset selected by STAFF at low pruning rates (i.e., 20%) can even obtain better fine-tuning performance than the full dataset.
- Abstract(参考訳): タスク固有の微調整は、大規模言語モデル(LLM)の展開には不可欠であるが、かなりの計算資源と時間を要する。
既存のソリューションでは、データ効率を改善し、モデルのトレーニングオーバーヘッドを減らすために、コアセットの選択方法が提案されている。
1) 高プルーニングレートで貴重なサンプルを見渡すと,コアセットの性能は低下する。
2) コアセット選択時に高い時間オーバーヘッドを要し, 目標LLMを微調整し, 評価する。
本稿では,投機的コアセット選択法であるSTAFFを紹介する。
STAFFは、目標LLMと同じ家系の小さなモデルを利用して、データスコアを効率的に推定し、目標LLMのスコアを確認し、容易な領域のカバレッジを維持しながら、重要な領域により多くの選択予算を正確に特定し割り当てる。
STAFFを3つのLLMおよび3つのダウンストリームタスクで評価し、STAFFが最大54.3%改善し、異なるプルーニングレートで選択オーバーヘッドを最大70.5%低減することを示す。
さらに、STAFFが選択したコアセットを低プルーニングレート(すなわち20%)で、フルデータセットよりも優れた微調整性能が得られることを観察した。
関連論文リスト
- PRISM: Self-Pruning Intrinsic Selection Method for Training-Free Multimodal Data Selection [28.442470930703337]
PRISMは、効率的なマルチモーダルデータ選択のためのトレーニング不要のアプローチである。
Pearson相関解析を用いて、MLLMの固有視覚符号化特性の定量化を行う。
ビジュアルインストラクションのチューニングとデータ選択に要する時間を従来の手法の30%に短縮する。
論文 参考訳(メタデータ) (2025-02-17T18:43:41Z) - Adaptive Pruning for Large Language Models with Structural Importance Awareness [66.2690963378878]
大規模言語モデル(LLM)は言語理解と生成能力を大幅に改善した。
LLMは、高い計算およびストレージリソース要求のため、リソース制約のあるエッジデバイスにデプロイするのは難しい。
モデル性能を維持しつつ,計算コストとメモリコストを大幅に削減する構造的適応型プルーニング(SAAP)を提案する。
論文 参考訳(メタデータ) (2024-12-19T18:08:04Z) - Low-Rank Adaptation with Task-Relevant Feature Enhancement for Fine-tuning Language Models [2.3963398306126864]
ニューラルネットワーク表現の編集の観点から,タスク関連機能向上のためのローランク適応型タスク関連特徴強調(LoRATRF)を提案する。
NLUを含むデータセットの希少性に関する実験として,本手法は33.71%のパラメータを削減し,SOTA低ランク手法と比較して各種データセットの性能を向上させる。
論文 参考訳(メタデータ) (2024-12-13T03:38:49Z) - BenTo: Benchmark Task Reduction with In-Context Transferability [32.561978389905434]
本稿では,大規模言語モデル(LLM)のベンチマークに使用するタスクを効率的に削減する方法を検討する。
In-context Learning (ICL) による2つのタスク間の伝達可能性を推定する実用的な指標を提案する。
論文 参考訳(メタデータ) (2024-10-17T17:41:15Z) - Reward-Augmented Data Enhances Direct Preference Alignment of LLMs [63.32585910975191]
報奨条件付き大言語モデル(LLM)を導入し、データセット内の応答品質のスペクトル全体から学習する。
そこで本稿では,品質スコアに優先ペアを条件付け,報酬を加算したデータセットを構築する,効果的なデータレバーベリング手法を提案する。
論文 参考訳(メタデータ) (2024-10-10T16:01:51Z) - Get more for less: Principled Data Selection for Warming Up Fine-Tuning in LLMs [18.242110417706]
この研究は、膨大なラベルのないオープンデータから事前訓練された言語モデルへの活用と選択に焦点を当てている。
特定の条件下での微調整タスクに対するこのアプローチの最適性を示す。
提案手法は既存の手法よりもはるかに高速で,GPU時間内に数百万のサンプルにスケールアップする。
論文 参考訳(メタデータ) (2024-05-05T00:08:00Z) - How to Train Data-Efficient LLMs [56.41105687693619]
事前学習言語モデル(LLM)に対するデータ効率のアプローチについて検討する。
Ask-LLMと密度サンプリングがそれぞれのカテゴリで最適であることがわかった。
何百もの評価タスクと事前学習作業を含む19個のサンプルを比較したところ,Ask-LLMと密度がそれぞれのカテゴリで最適な方法であることが判明した。
論文 参考訳(メタデータ) (2024-02-15T02:27:57Z) - Refined Coreset Selection: Towards Minimal Coreset Size under Model
Performance Constraints [69.27190330994635]
コアセットの選択は、計算コストの削減とディープラーニングアルゴリズムのデータ処理の高速化に強力である。
本稿では,モデル性能とコアセットサイズに対する最適化優先順序を維持する革新的な手法を提案する。
実験的に、広範な実験によりその優位性が確認され、しばしばより小さなコアセットサイズでモデル性能が向上する。
論文 参考訳(メタデータ) (2023-11-15T03:43:04Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。