論文の概要: Where Did This Sentence Come From? Tracing Provenance in LLM Reasoning Distillation
- arxiv url: http://arxiv.org/abs/2512.20908v1
- Date: Wed, 24 Dec 2025 03:19:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-25 19:43:21.663807
- Title: Where Did This Sentence Come From? Tracing Provenance in LLM Reasoning Distillation
- Title(参考訳): この文はどこから来たのか? LLMの蒸留液のトレーシング現象
- Authors: Kaiyuan Liu, Shaotian Yan, Rui Miao, Bing Wang, Chen Shen, Jun Zhang, Jieping Ye,
- Abstract要約: クロスモデル推論蒸留防止トラクションフレームワークについて紹介する。
蒸留モデルにより生成された各行動について,教師,元学生,蒸留モデルに割り当てられた予測確率を同じ文脈で求める。
実験により, 蒸留モデルでは, 実際に教師が選択した行動が生成され, 実験結果と相関し, 測定結果が妥当に説明できることが実証された。
- 参考スコア(独自算出の注目度): 44.23725347095524
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reasoning distillation has attracted increasing attention. It typically leverages a large teacher model to generate reasoning paths, which are then used to fine-tune a student model so that it mimics the teacher's behavior in training contexts. However, previous approaches have lacked a detailed analysis of the origins of the distilled model's capabilities. It remains unclear whether the student can maintain consistent behaviors with the teacher in novel test-time contexts, or whether it regresses to its original output patterns, raising concerns about the generalization of distillation models. To analyse this question, we introduce a cross-model Reasoning Distillation Provenance Tracing framework. For each action (e.g., a sentence) produced by the distilled model, we obtain the predictive probabilities assigned by the teacher, the original student, and the distilled model under the same context. By comparing these probabilities, we classify each action into different categories. By systematically disentangling the provenance of each action, we experimentally demonstrate that, in test-time contexts, the distilled model can indeed generate teacher-originated actions, which correlate with and plausibly explain observed performance on distilled model. Building on this analysis, we further propose a teacher-guided data selection method. Unlike prior approach that rely on heuristics, our method directly compares teacher-student divergences on the training data, providing a principled selection criterion. We validate the effectiveness of our approach across multiple representative teacher models and diverse student models. The results highlight the utility of our provenance-tracing framework and underscore its promise for reasoning distillation. We hope to share Reasoning Distillation Provenance Tracing and our insights into reasoning distillation with the community.
- Abstract(参考訳): 共鳴蒸留が注目を集めている。
典型的には、大きな教師モデルを利用して推論パスを生成し、それを使って学生モデルを微調整し、訓練コンテキストにおける教師の振る舞いを模倣する。
しかし、従来の方法では蒸留モデルの能力の起源を詳細に分析することができなかった。
学生が新しいテストタイムの文脈で教師と一貫した行動を維持することができるのか、それとも元の出力パターンに回帰し、蒸留モデルの一般化に懸念を抱いているのかは、いまだ不明である。
この問題を解析するために、私たちはクロスモデル推論蒸留防止トレーシングフレームワークを導入します。
蒸留モデルが生成する各アクション(例,文)について,教師,元学生,蒸留モデルに割り当てられた予測確率を同じ文脈で求める。
これらの確率を比較することで、各アクションを異なるカテゴリに分類する。
実験では, 各動作の証明を系統的に切り離すことにより, 蒸留したモデルが実際に教師の判断した動作を生成できることを実証した。
この分析に基づいて,教師が指導するデータ選択手法を提案する。
ヒューリスティックス(ヒューリスティックス)に頼った従来の手法とは異なり,本手法は教師と学生の相違をトレーニングデータ上で直接比較し,基本的選択基準を提供する。
複数の代表教師モデルと多様な学生モデルにまたがるアプローチの有効性を検証する。
その結果, 提案手法の有効性を強調し, 蒸留の推理への期待を裏付ける結果となった。
共生蒸留防止トラクションと地域コミュニティとの蒸留の推理に関する知見を共有したい。
関連論文リスト
- Warmup-Distill: Bridge the Distribution Mismatch between Teacher and Student before Knowledge Distillation [84.38105530043741]
本稿では, 学生の蒸留を教員の蒸留と整合させて, 蒸留に先立って行うワームアップ蒸留法を提案する。
7つのベンチマークの実験は、ウォームアップ・ディスティルが蒸留に適したウォームアップの学生を提供することを示した。
論文 参考訳(メタデータ) (2025-02-17T12:58:12Z) - Towards Training One-Step Diffusion Models Without Distillation [72.80423908458772]
我々は,教師のスコア管理を完全に禁止する,新しい研修方法のファミリーを紹介する。
教師の重みによる学生モデルの初期化は依然として重要な課題である。
論文 参考訳(メタデータ) (2025-02-11T23:02:14Z) - Knowledge Distillation with Refined Logits [31.205248790623703]
本稿では,現在のロジット蒸留法の限界に対処するため,Refined Logit Distillation (RLD)を導入する。
我々のアプローチは、高性能な教師モデルでさえ誤った予測をすることができるという観察に動機づけられている。
本手法は,教師からの誤解を招く情報を,重要なクラス相関を保ちながら効果的に排除することができる。
論文 参考訳(メタデータ) (2024-08-14T17:59:32Z) - Joint learning of interpretation and distillation [7.412850488684037]
本稿では,GBDT2NNの予測をそれぞれ説明するための新しいアプローチに関する実証的研究を行う。
いくつかのベンチマーク実験により、提案手法は説明と予測の両方でより良い性能が得られることが示された。
論文 参考訳(メタデータ) (2020-05-24T02:01:22Z) - Why distillation helps: a statistical perspective [69.90148901064747]
知識蒸留は、単純な「学生」モデルの性能を向上させる技術である。
この単純なアプローチは広く有効であることが証明されているが、基本的な問題は未解決のままである。
蒸留が既存の負の鉱業技術をどのように補完し, 極端に多層的検索を行うかを示す。
論文 参考訳(メタデータ) (2020-05-21T01:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。