論文の概要: Not All Queries Need Deep Thought: CoFiCot for Adaptive Coarse-to-fine Stateful Refinement
- arxiv url: http://arxiv.org/abs/2603.08251v1
- Date: Mon, 09 Mar 2026 11:23:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:15.830214
- Title: Not All Queries Need Deep Thought: CoFiCot for Adaptive Coarse-to-fine Stateful Refinement
- Title(参考訳): すべてのクエリーが深く考える必要は無い:CoFiCotは適応的粗大なステートフルリファインメントのための
- Authors: Dongxu Zhang, Hongqiang Lin, Yiding Sun, Pengyu Wang, Qirui Wang, Ning Yang, Jihua Zhu,
- Abstract要約: CoFiCotは粗粒度適応フレームワークで、推論戦略を問題に合わせる。
セマンティックエントロピー、コンセンサス信頼性、予測推論深度でクエリをトリアージするマルチメトリック分類器を実装した。
これにより、複雑なクエリをコンテキスト対応の修正ループにルーティングしながら、単純なクエリに対して効率的なアグリゲーションを適用することができる。
- 参考スコア(独自算出の注目度): 24.721024438862553
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Scaling test-time computation enhances LLM reasoning ability but faces a uniform computation paradox. Allocating identical resources leads to over-correction on simple tasks and insufficient refinement on complex ones. To address this, we propose CoFiCot, a coarse-to-fine adaptive framework that dynamically tailors inference strategies to problem difficulty. Specifically, we implement a multi-metric classifier that triages queries by synthesizing semantic entropy, consensus reliability, and predicted reasoning depth . This enables a differentiated refinement stage that applies efficient aggregation for simple queries while routing complex ones to a context-aware correction loop . We formalize correction as a stateful sequential propagation process , where each repair is strictly conditioned on the verified history of prior rectifications. By integrating Process Reward Models (PRMs) within this state-dependent trajectory, CoFiCot effectively bridges the gap between granular error localization and global logical coherence, preventing the context fragmentation typical of stateless refinement methods.
- Abstract(参考訳): テスト時間計算のスケーリングはLLM推論能力を高めるが、一様計算パラドックスに直面している。
同一資源の割り当ては、単純なタスクに対する過度な補正と、複雑なタスクに対する不十分な改善につながる。
この問題に対処するために,提案するCoFiCotは,推論戦略を動的に調整する粗大な適応フレームワークである。
具体的には、セマンティックエントロピー、コンセンサス信頼性、予測推論深度を合成してクエリをトリアージするマルチメトリック分類器を実装する。
これにより、複雑なクエリをコンテキスト対応の修正ループにルーティングしながら、単純なクエリに対して効率的なアグリゲーションを適用することができる。
我々は,修正をステートフルな逐次伝播プロセスとして定式化し,各修復は事前修正の検証履歴に基づいて厳格に条件付けされる。
プロセス・リワード・モデル(PRM)を状態依存軌道に組み込むことで、CoFiCotはグラニュラーエラーの局所化とグローバル論理コヒーレンスの間のギャップを効果的に埋め、ステートレス・リファレンス法に典型的なコンテキストの断片化を防ぐ。
関連論文リスト
- Structure-Aware Robust Counterfactual Explanations via Conditional Gaussian Network Classifiers [0.26999000177990923]
本研究は,条件付き条件グラフに基づく構造認識型ロバストネス・ウンタファクト探索手法を提案する。
結果から,本手法は,特に安定な依存関係を提供する元の定式化を直接最適化することにより,強い整合性を実現することが示された。
提案手法は,非循環的制約下での非実効的推論における今後の進歩の基盤となる。
論文 参考訳(メタデータ) (2026-02-08T15:51:45Z) - CoT-Seg: Rethinking Segmentation with Chain-of-Thought Reasoning and Self-Correction [50.67483317563736]
本稿では,段階的に考察し,必要な情報を検索し,結果を生成し,自己評価を行い,結果を洗練するシステムを提案する。
CoT-Segは、思考の連鎖推論と自己補正を組み合わせることで、推論セグメンテーションを再考する、トレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2026-01-24T11:41:54Z) - Accelerate Speculative Decoding with Sparse Computation in Verification [49.74839681322316]
投機的復号化は、複数のドラフトトークンを並列に検証することにより、自動回帰言語モデル推論を加速する。
既存のスペーシフィケーション方式は主にトークン・バイ・トーケンの自己回帰復号化のために設計されている。
そこで本研究では,注目度,FFN,MoEを両立させるスパース検証フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-26T07:53:41Z) - Unlocking Symbol-Level Precoding Efficiency Through Tensor Equivariant Neural Network [84.22115118596741]
シンボルレベルのプリコーディングにおいて,推論の複雑さの低いエンドツーエンドディープラーニング(DL)フレームワークを提案する。
提案手法は,従来の手法よりも約80倍の高速化を実現しつつ,SLPの大幅な性能向上を達成できることを示す。
論文 参考訳(メタデータ) (2025-10-02T15:15:50Z) - AdaptiveK Sparse Autoencoders: Dynamic Sparsity Allocation for Interpretable LLM Representations [28.447024168930984]
本稿では,各入力の意味的複雑さに基づいて空間レベルを動的に調整する新しいフレームワークであるAdaptiveK SAE(Adaptive Top K Sparse Autoencoders)を提案する。
本研究では, この複雑化による適応が, 再構成忠実度, 分散, コサイン類似度, 解釈可能性指標において, 固定スパーシティアプローチを著しく上回っていることを示す。
論文 参考訳(メタデータ) (2025-08-24T12:00:41Z) - PATS: Process-Level Adaptive Thinking Mode Switching [53.53401063490537]
現在の大言語モデル(LLM)は、通常、難易度に関わらず、すべての質問に対して、単純または複雑に固定された推論戦略を採用する。
このようなタスクと推論プロセスの複雑さの変化の無視は、パフォーマンスと効率のバランスを損なう。
既存の手法では, 難易度が異なる問題に対処するために, 学習不要な高速スロー思考システムを導入しようとするが, 厳密な解レベルの戦略調整によって制限される。
プロセスレベル適応思考モードスイッチング(PATS)という新しい推論パラダイムを提案し,各ステップの難易度に基づいてLLMが推論戦略を動的に調整し,そのバランスを最適化する。
論文 参考訳(メタデータ) (2025-05-25T17:58:50Z) - AdaCoT: Pareto-Optimal Adaptive Chain-of-Thought Triggering via Reinforcement Learning [30.265984245328124]
Chain-of-Thoughtは、すべてのクエリに対する長い推論ステップを無差別に生成する。
AdaCoT(Adaptive Chain-of-Thought)は、LLMがCoTを呼び出すタイミングを適応的に決定できる新しいフレームワークである。
重要な技術的貢献はSLM(Selective Loss Masking)であり、決定境界崩壊の防止を目的としている。
論文 参考訳(メタデータ) (2025-05-17T08:27:00Z) - Latent Veracity Inference for Identifying Errors in Stepwise Reasoning [78.29317733206643]
本稿では、精度割当てに対する離散探索アルゴリズムであるVeracity Search(VS)を紹介する。
その他の方法では、後続の精度値よりも後続の分布において難解な推論を行う。
VSを一般化し、新しいコンテキストで正確なゼロショットの精度推論を可能にする。
論文 参考訳(メタデータ) (2025-05-17T04:16:36Z) - Doubly Robust Off-Policy Actor-Critic: Convergence and Optimality [131.45028999325797]
ディスカウント型MDPのための2倍堅牢なオフポリチックAC(DR-Off-PAC)を開発した。
DR-Off-PACは、俳優と批評家の両方が一定のステップで同時に更新される単一のタイムスケール構造を採用しています。
有限時間収束速度を研究し, dr-off-pac のサンプル複雑性を特徴とし, $epsilon$-accurate optimal policy を得る。
論文 参考訳(メタデータ) (2021-02-23T18:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。