論文の概要: ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning
- arxiv url: http://arxiv.org/abs/2505.04881v1
- Date: Thu, 08 May 2025 01:40:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-09 21:43:49.713626
- Title: ConCISE: Confidence-guided Compression in Step-by-step Efficient Reasoning
- Title(参考訳): ConCISE: ステップバイステップの効率的な推論における信頼誘導圧縮
- Authors: Ziqing Qiao, Yongheng Deng, Jiali Zeng, Dong Wang, Lai Wei, Fandong Meng, Jie Zhou, Ju Ren, Yaoxue Zhang,
- Abstract要約: 大規模推論モデル(LRM)は、Chain-of-Thought (CoT)プロンプトを介して複雑な推論タスクを強く行う。
LRMは冗長なコンテンツによる冗長なアウトプット、計算オーバーヘッドの増加、ユーザエクスペリエンスの低下に悩まされることが多い。
本稿では,推論中のモデルの信頼性を高めることによって推論チェーンを簡素化するフレームワークであるConCISEを提案する。
- 参考スコア(独自算出の注目度): 75.1101108949743
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Reasoning Models (LRMs) perform strongly in complex reasoning tasks via Chain-of-Thought (CoT) prompting, but often suffer from verbose outputs caused by redundant content, increasing computational overhead, and degrading user experience. Existing compression methods either operate post-hoc pruning, risking disruption to reasoning coherence, or rely on sampling-based selection, which fails to intervene effectively during generation. In this work, we introduce a confidence-guided perspective to explain the emergence of redundant reflection in LRMs, identifying two key patterns: Confidence Deficit, where the model reconsiders correct steps due to low internal confidence, and Termination Delay, where reasoning continues even after reaching a confident answer. Based on this analysis, we propose ConCISE (Confidence-guided Compression In Step-by-step Efficient Reasoning), a framework that simplifies reasoning chains by reinforcing the model's confidence during inference, thus preventing the generation of redundant reflection steps. It integrates Confidence Injection to stabilize intermediate steps and Early Stopping to terminate reasoning when confidence is sufficient. Extensive experiments demonstrate that fine-tuning LRMs on ConCISE-generated data yields significantly shorter outputs, reducing length by up to approximately 50% under SimPO, while maintaining high task accuracy. ConCISE consistently outperforms existing baselines across multiple reasoning benchmarks.
- Abstract(参考訳): 大規模推論モデル(LRM)は、Chain-of-Thought(CoT)のプロンプトを通じて複雑な推論タスクを強く行うが、冗長なコンテンツによって引き起こされる冗長なアウトプットに悩まされ、計算オーバーヘッドが増大し、ユーザエクスペリエンスが低下する。
既存の圧縮手法は、ポストホックプルーニングを動作させるか、コヒーレンスを推論するために混乱するリスクを冒すか、あるいはサンプリングベースの選択に依存するかのいずれかであり、生成時に効果的に介入することができない。
本研究では, LRMにおける冗長リフレクションの出現を説明するために, 信頼欠陥(Confidence Deficit, モデルの再検討者による内部信頼の低下によるステップの修正)と, 信頼度に達した後も推論が継続する終了遅延(Termination Delay)という2つの主要なパターンを同定する。
この分析に基づき、推論中のモデルの信頼性を高め、推論チェーンの簡易化を図るフレームワークであるConCISE(Confidence-guided Compression In Step-by-step Efficient Reasoning)を提案する。
信頼注入を統合して中間ステップを安定化し、信頼が十分であれば早期停止して推論を終了する。
大規模な実験により、ConCISE生成データ上での微調整LEMは、SimPOの下では最大50%まで長さを削減し、高いタスク精度を維持しながら、出力を大幅に短縮することが示された。
ConCISEは、複数の推論ベンチマークで既存のベースラインを一貫して上回る。
関連論文リスト
- Enhancing LLM Reliability via Explicit Knowledge Boundary Modeling [48.15636223774418]
大きな言語モデル(LLM)は、不一致の自己認識のためにしばしば幻覚する。
既存のアプローチは、不確実性推定やクエリの拒否を通じて幻覚を緩和する。
高速かつ低速な推論システムを統合するための明示的知識境界モデリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-04T03:16:02Z) - Bridging Internal Probability and Self-Consistency for Effective and Efficient LLM Reasoning [53.25336975467293]
パープレキシティや自己整合性などの手法の第一理論誤差分解解析について述べる。
パープレキシティ法は、適切な整合関数が存在しないため、かなりのモデル誤差に悩まされる。
本稿では、自己整合性とパープレキシティを統合したReasoning-Pruning Perplexity Consistency(RPC)と、低確率推論経路を排除したReasoning Pruningを提案する。
論文 参考訳(メタデータ) (2025-02-01T18:09:49Z) - Rethinking Chain-of-Thought from the Perspective of Self-Training [10.722453877596998]
思考の連鎖(CoT)推論はLLMの潜在能力を活性化するための効果的なアプローチとして現れている。
推論性能を改善するための新しいCoTフレームワークを提案する。
本フレームワークは,初期推論プロセスを最適化するタスク固有のプロンプトモジュールと,動的に推論プロセスを洗練させる適応推論モジュールの2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-12-14T13:12:50Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。