論文の概要: RICo: Refined In-Context Contribution for Automatic Instruction-Tuning Data Selection
- arxiv url: http://arxiv.org/abs/2505.05327v2
- Date: Sun, 18 May 2025 11:24:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:10.649719
- Title: RICo: Refined In-Context Contribution for Automatic Instruction-Tuning Data Selection
- Title(参考訳): RICo: 自動インストラクションチューニングデータ選択のためのインコンテキストコントリビューション
- Authors: Yixin Yang, Qingxiu Dong, Linli Yao, Fangwei Zhu, Zhifang Sui,
- Abstract要約: 本研究では,タスクレベルとグローバルレベルの両方のモデル性能に対して,個々のサンプルの微細な寄与を定量化する勾配のない手法を提案する。
我々は、RICoスコアに基づいて訓練された軽量な選択パラダイムを導入し、厳密な線形推論の複雑さでスケーラブルなデータ選択を可能にする。
- 参考スコア(独自算出の注目度): 29.459431336830267
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data selection for instruction tuning is crucial for improving the performance of large language models (LLMs) while reducing training costs. In this paper, we propose Refined Contribution Measurement with In-Context Learning (RICo), a novel gradient-free method that quantifies the fine-grained contribution of individual samples to both task-level and global-level model performance. RICo enables more accurate identification of high-contribution data, leading to better instruction tuning. We further introduce a lightweight selection paradigm trained on RICo scores, enabling scalable data selection with a strictly linear inference complexity. Extensive experiments on three LLMs across 12 benchmarks and 5 pairwise evaluation sets demonstrate the effectiveness of RICo. Remarkably, on LLaMA3.1-8B, models trained on 15% of RICo-selected data outperform full datasets by 5.42% points and exceed the best performance of widely used selection methods by 2.06% points. We further analyze high-contribution samples selected by RICo, which show both diverse tasks and appropriate difficulty levels, rather than just the hardest ones.
- Abstract(参考訳): インストラクションチューニングのためのデータ選択は、トレーニングコストを削減しつつ、大規模言語モデル(LLM)の性能を向上させるために不可欠である。
本稿では,タスクレベルとグローバルレベルの両方のモデル性能に対する個々のサンプルの微細な寄与を定量化する,新しい勾配のない手法であるRefined Contribution Measurement with In-Context Learning (RICo)を提案する。
RICoはハイコントリビューションデータのより正確な識別を可能にし、より良いインストラクションチューニングを実現する。
さらに、RICoスコアに基づいて訓練された軽量な選択パラダイムを導入し、厳密な線形推論複雑性でスケーラブルなデータ選択を可能にする。
12のベンチマークと5つのペアワイズ評価セットにまたがる3つのLLMの大規模な実験により、RICoの有効性が示された。
注目すべきなのは、LLaMA3.1-8Bでは、RICoが選択したデータの15%でトレーニングされたモデルは、完全なデータセットを5.42%上回り、広く使われている選択方法の最高のパフォーマンスを2.06%上回っていることだ。
さらに、RICoが選択した高コントリビューションサンプルを分析し、最も難しいものだけでなく、多様なタスクと適切な難易度の両方を示す。
関連論文リスト
- Meta-rater: A Multi-dimensional Data Selection Method for Pre-training Language Models [7.61977883644433]
我々はPRRCを提案し、プロフェッショナル主義、可読性、推論、クリーンラインにまたがるデータ品質を評価する。
学習した最適重み付けにより,これらの次元を既存の品質指標と統合する多次元データ選択手法であるMeta-raterを紹介する。
実験により、Meta-raterは1.3Bパラメータモデルの収束速度を2倍にし、100Bトークンでトレーニングされた3.3Bモデルにおいて、ダウンストリームタスクのパフォーマンスを3.23倍改善することを示した。
論文 参考訳(メタデータ) (2025-04-19T06:12:33Z) - In2Core: Leveraging Influence Functions for Coreset Selection in Instruction Finetuning of Large Language Models [37.45103473809928]
In2Coreアルゴリズムは,トレーニングモデルと評価サンプルの相関関係を解析し,コアセットを選択する。
LLMの微調整データにアルゴリズムを適用することで、トレーニングデータの50%で同様の性能を実現することができる。
論文 参考訳(メタデータ) (2024-08-07T05:48:05Z) - LESS: Selecting Influential Data for Targeted Instruction Tuning [64.78894228923619]
本稿では,データの影響を推定し,命令データ選択のための低ランクグレーディエント類似度探索を行うアルゴリズムであるLESSを提案する。
LESS選択したデータの5%のトレーニングは、さまざまなダウンストリームタスクにわたる完全なデータセットでのトレーニングよりも優れています。
我々の方法は、意図した下流アプリケーションに必要な推論スキルを識別するために、表面的なフォームキューを超えています。
論文 参考訳(メタデータ) (2024-02-06T19:18:04Z) - From Quantity to Quality: Boosting LLM Performance with Self-Guided Data Selection for Instruction Tuning [52.257422715393574]
本稿では,Large Language Models (LLMs) の自己誘導手法を導入し,オープンソースデータセットからサクラサンプルを自動識別し,選択する。
我々の重要な革新である命令追従困難度(IFD)メトリックは、モデルが期待する応答と本質的な生成能力の相違を識別するための重要な指標として現れます。
論文 参考訳(メタデータ) (2023-08-23T09:45:29Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。