論文の概要: ssToken: Self-modulated and Semantic-aware Token Selection for LLM Fine-tuning
- arxiv url: http://arxiv.org/abs/2510.18250v1
- Date: Tue, 21 Oct 2025 03:21:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:12.833499
- Title: ssToken: Self-modulated and Semantic-aware Token Selection for LLM Fine-tuning
- Title(参考訳): ssToken:LLMファインチューニングのための自己変調型セマンティック対応型トークン選択
- Authors: Xiaohan Qin, Xiaoxing Wang, Ning Liao, Cancheng Zhang, Xiangdong Zhang, Mingquan Feng, Jingzhi Wang, Junchi Yan,
- Abstract要約: ssTokenは自己変調されたセマンティックなToken Selectionアプローチである。
自己変調の選択とセマンティック・アウェアの選択の両方が、フルデータの微調整よりも優れていることを示す。
- 参考スコア(独自算出の注目度): 51.133569963553576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data quality plays a critical role in enhancing supervised fine-tuning (SFT) for large language models (LLMs), and token-level data selection has emerged as a promising direction for its fine-grained nature. Despite their strong empirical performance, existing token-level selection methods share two key limitations: (1) requiring training or accessing an additional reference model, and (2) relying solely on loss information for token selection, which cannot well preserve semantically important tokens that are not favored by loss-based metrics. To address these challenges, we propose ssToken, a Self-modulated and Semantic-aware Token Selection approach. ssToken leverages readily accessible history models to compute the per-token loss difference with the current model, which serves as a self-modulated signal that enables the model to adaptively select tokens along its optimization trajectory, rather than relying on excess loss from an offline-trained reference model as in prior works. We further introduce a semantic-aware, attention-based token importance estimation metric, orthogonal to loss-based selection and providing complementary semantic information for more effective filtering. Extensive experiments across different model families and scales demonstrate that both self-modulated selection and semantic-aware selection alone outperform full-data fine-tuning, while their integration--ssToken--achieves synergistic gains and further surpasses prior token-level selection methods, delivering performance improvements while maintaining training efficiency.
- Abstract(参考訳): データ品質は、大規模言語モデル(LLM)の教師付き微調整(SFT)を強化する上で重要な役割を担い、トークンレベルのデータ選択は、その微細な性質にとって有望な方向として現れてきた。
その強力な経験的性能にもかかわらず、既存のトークンレベルの選択方法は、(1)トレーニングや追加参照モデルへのアクセスを必要とすること、(2)トークン選択の損失情報のみに依存すること、そして(2)損失ベースのメトリクスに好まれない意味的に重要なトークンを適切に保存できないこと、の2つの重要な制限を共有している。
これらの課題に対処するため,我々は自己変調型セマンティックなトークン選択手法であるssTokenを提案する。
ssTokenは、オフラインでトレーニングされた参照モデルからの余分な損失に頼るのではなく、最適化軌道に沿ってトークンを適応的に選択できる自己変調信号として機能する。
さらに、意味認識、注意に基づくトークン重要度推定基準、損失に基づく選択への直交、より効果的なフィルタリングのための補完的な意味情報を提供する。
さまざまなモデルファミリやスケールにわたる大規模な実験により、自己修飾の選択とセマンティックアウェアの選択は、フルデータの微調整よりも優れており、その統合-ssToken-は相乗的ゲインを達成し、従来のトークンレベルの選択方法をさらに超え、トレーニング効率を維持しながらパフォーマンスの向上を提供する。
関連論文リスト
- Direct Token Optimization: A Self-contained Approach to Large Language Model Unlearning [9.42887167048224]
マシン・アンラーニング(英: Machine unlearning)は、トレーニングデータのサブセット(ターゲットセット)の影響を、完全なリトレーニングなしでモデルから排除する新興技術である。
重要な課題は、モデルが全体的なユーティリティを損なうことなく、忘れた集合の知識を完全に忘れることである。
我々は,大規模言語モデルに対する自己完結型非学習手法であるダイレクトトークン最適化(DTO)を提案する。
論文 参考訳(メタデータ) (2025-09-30T18:05:06Z) - Forgetting: A New Mechanism Towards Better Large Language Model Fine-tuning [51.92313556418432]
Supervised Fine-tuning (SFT) は、事前訓練された大規模言語モデル (LLM) において重要な役割を果たす。
各コーパス内のトークンを、モデルパフォーマンスを改善するのに有用かどうかに基づいて、正と負の2つの部分に分類することを提案する。
我々は、よく確立されたベンチマークで実験を行い、この忘れるメカニズムが全体のモデル性能を向上するだけでなく、より多様なモデル応答を促進することを発見した。
論文 参考訳(メタデータ) (2025-08-06T11:22:23Z) - IGD: Token Decisiveness Modeling via Information Gain in LLMs for Personalized Recommendation [79.22388408461458]
我々は,トークン決定性をチューニングと復号の両方に統合する情報ゲインに基づく決定性対応トークンハンドリング(IGD)戦略を導入する。
IGDはリコメンデーションの精度を一貫して改善し、強力なベースラインに比べて広く使われているランキングの指標で顕著に向上した。
論文 参考訳(メタデータ) (2025-06-16T08:28:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。