論文の概要: Directional Reasoning Trajectory Change (DRTC): Identifying Critical Trace Segments in Reasoning Models
- arxiv url: http://arxiv.org/abs/2602.15332v1
- Date: Tue, 17 Feb 2026 03:38:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:17.971972
- Title: Directional Reasoning Trajectory Change (DRTC): Identifying Critical Trace Segments in Reasoning Models
- Title(参考訳): Directional Reasoning Trajectory Change (DRTC: Directional Reasoning Trajectory Change) : Reasoning Modelにおける臨界トレースセグメントの同定
- Authors: Waldemar Chang,
- Abstract要約: Directional Reasoning Trajectory Change (DRTC) は、単一のオン政治ロールアウトからロングフォーム推論を解釈するためのプロセス因果的なフレームワークである。
DRTCは不確実性と分布シフト信号を用いてピボット決定点を検出する。
各介入がモデルのログ確率軌道の方向をリダイレクトするかどうかを測定する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Understanding how language models carry out long-horizon reasoning remains an open challenge. Existing interpretability methods often highlight tokens or spans correlated with an answer, but they rarely reveal where the model makes consequential reasoning turns, which earlier context causally triggers those turns, or whether the highlighted text actually steers the reasoning process. We introduce Directional Reasoning Trajectory Change (DRTC), a process-causal framework for interpreting long-form reasoning from a single on-policy rollout. DRTC detects pivot decision points using uncertainty and distribution-shift signals, then applies receiver-side interventions that preserve the realized rollout without resampling the continuation while blocking information flow from selected earlier chunks only at a pivot. It measures whether each intervention redirects the direction of the model's log-probability trajectory relative to the realized rollout direction, producing a signed per-chunk attribution score. We also compute turning-angle curvature changes on raw logits as a complementary diagnostic and introduce curvature signatures to summarize shared intervention-response geometry. Empirically, directional influence is sharply concentrated across four reasoning models (per-example |DRTC| shares yield Gini 0.50 to 0.58 and top-5 percent mass 0.23 to 0.28), and learned pivots induce stronger intervention magnitudes than matched random spans. In a scaling study on 500 MATH problems with R1-Distill-Qwen-1.5B, learned spans outperform matched random spans (median delta = 0.409, 355 of 500 positive; sign test p = 2.3e-21). Overall, DRTC provides a causally grounded, trajectory-level view of how specific context elements steer reasoning under on-policy dynamics.
- Abstract(参考訳): 言語モデルがどのように長期の推論を行うかを理解することは、依然としてオープンな課題である。
既存の解釈可能性の手法は、しばしばトークンや回答と相関したスパンをハイライトするが、モデルが連続的推論のターンをどこで行うかを明らかにすることは滅多にない。
本稿では,1つのオンラインロールアウトから長文推論を解釈するプロセス因果的フレームワークであるDirectional Reasoning Trajectory Change (DRTC)を紹介する。
DRTCは、不確実性と分布シフト信号を用いてピボット決定点を検出し、その後、ピボットでのみ選択された前のチャンクからの情報の流れを遮断しながら継続をサンプリングすることなく、実際のロールアウトを保存するレシーバ側介入を適用する。
各介入が、実際のロールアウト方向に対してモデルのログ確率軌道の方向をリダイレクトするかどうかを測定し、署名されたチャンク毎の属性スコアを生成する。
また, 生ログの回転曲率変化を相補的診断として計算し, 干渉応答幾何学を要約するために曲率シグネチャを導入する。
実験的に、方向の影響は4つの推論モデル(例: DRTC| のシェアは Gini 0.50 から 0.58 となり、上位5 % は 0.23 から 0.28 になる)に急激に集中し、学習ピボットは一致したランダムスパンよりも強い介入規模を誘導する。
R1-Distill-Qwen-1.5B の 500 MATH 問題に関するスケールスタディでは、学習されたスパンは、一致したランダムなスパン(中間デルタ = 0.409, 500 の 355 、符号テスト p = 2.3e-21 )よりも優れていた。
全体として、DRTCは、特定のコンテキスト要素が、オン・ポリティクスの力学の下でどのように推理するかを、因果的に基礎づけた、軌跡レベルの視点を提供する。
関連論文リスト
- Internalizing LLM Reasoning via Discovery and Replay of Latent Actions [4.830503861275364]
連鎖プロセスの隠れ状態への内部化は、テスト時間計算をスケールするための非常に効率的なパラダイムとして現れている。
動的潜在軌道制御問題として推論強化を再構築するSTIR(Self-Distilled Tools for Internal Reasoning)を提案する。
論文 参考訳(メタデータ) (2026-02-04T08:44:57Z) - Efficient Thought Space Exploration through Strategic Intervention [54.35208611253168]
本稿では,この知見を2つの相乗的コンポーネントを通して操作するHint-Practice Reasoning(HPR)フレームワークを提案する。
フレームワークの中核となる革新は、動的に介入点を識別する分散不整合低減(DIR)である。
算術的および常識的推論ベンチマークによる実験は、HPRの最先端の効率-精度トレードオフを実証している。
論文 参考訳(メタデータ) (2025-11-13T07:26:01Z) - Alpamayo-R1: Bridging Reasoning and Action Prediction for Generalizable Autonomous Driving in the Long Tail [85.47497935739936]
Alpamayo-R1 (AR1) は、因果推論の連鎖と軌道計画を統合する視覚言語モデルである。
また,AR1は,軌道のみのベースラインに比べて,難問の計画精度が12%向上することを示した。
今後のアップデートで、AR1モデルとCoCのサブセットをリリースする予定です。
論文 参考訳(メタデータ) (2025-10-30T01:25:34Z) - ResAD: Normalized Residual Trajectory Modeling for End-to-End Autonomous Driving [64.42138266293202]
ResADは正規化された残留軌道モデリングフレームワークである。
学習タスクを再編成し、慣性参照からの残留偏差を予測する。
NAVSIMベンチマークでは、ResADはバニラ拡散ポリシーを用いて最先端のPDMS 88.6を達成している。
論文 参考訳(メタデータ) (2025-10-09T17:59:36Z) - Correct Reasoning Paths Visit Shared Decision Pivots [11.42890083738685]
我々は,任意の正しい推論経路を訪れる必要があるという,最小限かつ検証可能なチェックポイントの考え方を導入する。
我々は,多様な推論経路を抽出し,意思決定の選択肢を共有する自己学習パイプラインを提案する。
提案手法は, 根拠となる真理推論データや外部メトリクスを使わずに推論を整列する。
論文 参考訳(メタデータ) (2025-09-25T20:34:45Z) - SEAL: Steerable Reasoning Calibration of Large Language Models for Free [58.931194824519935]
大規模言語モデル(LLM)は、拡張チェーン・オブ・ソート(CoT)推論機構を通じて複雑な推論タスクに魅力的な機能を示した。
最近の研究では、CoT推論トレースにかなりの冗長性が示されており、これはモデル性能に悪影響を及ぼす。
我々は,CoTプロセスをシームレスに校正し,高い効率性を示しながら精度を向上する,トレーニング不要なアプローチであるSEALを紹介した。
論文 参考訳(メタデータ) (2025-04-07T02:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。