論文の概要: Accelerate Scaling of LLM Finetuning via Quantifying the Coverage and Depth of Instruction Set
- arxiv url: http://arxiv.org/abs/2509.06463v2
- Date: Tue, 28 Oct 2025 08:59:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-29 15:35:36.096536
- Title: Accelerate Scaling of LLM Finetuning via Quantifying the Coverage and Depth of Instruction Set
- Title(参考訳): 命令セットの被覆と深さの定量化によるLLMファインタニングの高速化
- Authors: Chengwei Wu, Li Du, Hanyu Zhao, Yiming Ju, Jiapu Wang, Tianyu Chen, Haoyi Zhou,
- Abstract要約: スーパーバイドファインチューニング(SFT)に使用されるデータのスケーリングは、モデル性能の比例的なゲインを保証するものではない。
この研究は、SFTスケーラビリティを管理する2つの基本的なデータセット特性を特定する。
モデルに依存しないデータ選択フレームワークである textbfInformation Landscape Approximation (ILA) を提案する。
- 参考スコア(独自算出の注目度): 37.26992936545316
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scaling the amount of data used for supervied fine-tuning(SFT) does not guarantee the proportional gains in model performance, highlighting a critical need to understand what makes training samples effective. This work identifies two fundamental dataset properties that govern SFT scalability: \textbf{semantic coverage}, or the breadth of task domains, and \textbf{information depth}, or the richness of individual examples. We demonstrate that simple proxies for these properties explain the majority of validation loss variance in our experiments. In this work, we further propose the \textbf{Information Landscape Approximation (ILA)}, a model-agnostic data selection framework that jointly optimizes for these two factors. ILA constructs compact subsets that approximate the informational value of large datasets. Empirical results show that models tuned on ILA-selected data achieve faster and more sustained performance improvements across diverse tasks and model sizes compared to existing methods, a phenomenon we term \textbf{accelerated scaling}.
- Abstract(参考訳): スーパーバイド・ファインチューニング(SFT)に使用されるデータの量を増やすことは、モデルの性能の比例的な向上を保証しない。
この研究は、SFTスケーラビリティを管理する2つの基本的なデータセット特性を識別する: \textbf{semantic coverage}, or the breadth of task domain, and \textbf{information depth}, or the richness of individual example。
これらの特性に対する単純なプロキシは、実験におけるバリデーション損失の分散の大部分を説明する。
本研究では,これらの2因子を協調的に最適化するモデルに依存しないデータ選択フレームワークである<textbf{Information Landscape Approximation (ILA) を提案する。
ILAは、大きなデータセットの情報量に近似したコンパクトなサブセットを構築する。
実験結果から, ILA選択データに調整されたモデルでは, 従来の手法と比較して, 多様なタスクやモデルサイズにまたがって, より高速かつ持続的な性能向上が達成された。
関連論文リスト
- RAISE: Reinforced Adaptive Instruction Selection For Large Language Models [48.63476198469349]
タスクオブジェクト駆動型命令選択フレームワークRAISE(Reinforced Adaptive Instruction Selection)を提案する。
RAISEは命令の微調整プロセス全体を最適化に取り入れ、各命令がモデルの性能改善に期待する影響に基づいて各ステップで命令を選択する。
実験と結果解析は,他の命令選択法と比較して,本手法の優位性を証明している。
論文 参考訳(メタデータ) (2025-04-09T21:17:52Z) - Eliciting Causal Abilities in Large Language Models for Reasoning Tasks [14.512834333917414]
我々は,LLMが高品質で低品質な観測データを生成することができる自己因果的指導強化法(SCIE)を導入する。
SCIEでは、命令は治療として扱われ、自然言語を処理するためにテキストの特徴が使用される。
提案手法は,プロンプトのトレーニングコストを削減し,推論性能を向上させる命令を効果的に生成する。
論文 参考訳(メタデータ) (2024-12-19T17:03:02Z) - Fine-Tuning on Diverse Reasoning Chains Drives Within-Inference CoT Refinement in LLMs [63.36637269634553]
本稿では,LLMを微調整し,一つの推論ステップで思考の逆連鎖(DCoT)を生成する手法を提案する。
DCoTの微調整により,モデルファミリおよびスケール間のCoTベースライン上での性能が向上することを示す。
我々の研究は、定量的解析と手動評価の両方で、観測された利益は、最初の推論連鎖を洗練させるモデルの能力に由来することを明らかにしているため、重要である。
論文 参考訳(メタデータ) (2024-07-03T15:01:18Z) - Instruction Position Matters in Sequence Generation with Large Language
Models [67.87516654892343]
大規模言語モデル(LLM)は、翻訳や要約といった条件付きシーケンス生成タスクを実行することができる。
入力文の後にタスク命令の位置をシフトさせることにより,LLMの指示追従能力を向上させることを提案する。
論文 参考訳(メタデータ) (2023-08-23T12:36:57Z) - Robust Prompt Optimization for Large Language Models Against
Distribution Shifts [80.6757997074956]
大規模言語モデル(LLM)は、様々な自然言語処理タスクにおいて重要な能力を示している。
本稿では,LLMの分散シフトに対するロバストな最適化法を提案する。
この問題は、ラベル付けされたソースグループに最適化されたプロンプトを同時にラベル付けされていないターゲットグループに一般化する必要がある。
論文 参考訳(メタデータ) (2023-05-23T11:30:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。