論文の概要: Dual-Density Inference for Efficient Language Model Reasoning
- arxiv url: http://arxiv.org/abs/2512.15358v1
- Date: Wed, 17 Dec 2025 12:04:05 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-18 17:06:26.972018
- Title: Dual-Density Inference for Efficient Language Model Reasoning
- Title(参考訳): 効率的な言語モデル推論のための二重密度推論
- Authors: Zhengyi Zhao, Shubo Zhang, Yuxi Zhang, Huimin Wang, Binyang Li, Kam-Fai Wong,
- Abstract要約: Denser: underlineDual-dunderlineensity infunderlineerenceは、情報密度を推論と応答のフェーズごとに個別に最適化する新しいフレームワークである。
本フレームワークでは、入力問題を解析するクエリ処理モジュール、効率的な中間計算のための高密度圧縮推論機構、圧縮推論を人間可読な解に変換する回答生成コンポーネントという3つのコンポーネントを用いてこれを実装している。
- 参考スコア(独自算出の注目度): 26.002819535382855
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have shown impressive capabilities in complex reasoning tasks. However, current approaches employ uniform language density for both intermediate reasoning and final answers, leading to computational inefficiency. Our observation found that reasoning process serves a computational function for the model itself, while answering serves a communicative function for human understanding. This distinction enables the use of compressed, symbol-rich language for intermediate computations while maintaining human-readable final explanations. To address this inefficiency, we present Denser: \underline{D}ual-d\underline{ens}ity inf\underline{er}ence, a novel framework that optimizes information density separately for reasoning and answering phases. Our framework implements this through three components: a query processing module that analyzes input problems, a high-density compressed reasoning mechanism for efficient intermediate computations, and an answer generation component that translates compressed reasoning into human-readable solutions. Experimental evaluation across multiple reasoning question answering benchmarks demonstrates that Denser reduces token consumption by up to 62\% compared to standard Chain-of-Thought methods while preserving or improving accuracy. These efficiency gains are particularly significant for complex multi-step reasoning problems where traditional methods generate extensive explanations.
- Abstract(参考訳): 大きな言語モデル(LLM)は複雑な推論タスクにおいて印象的な機能を示している。
しかし、現在のアプローチでは中間的推論と最終解の両方に一様言語密度が採用されており、計算の非効率性につながる。
我々の観察では、推論プロセスはモデル自体の計算機能であり、解答は人間の理解のためのコミュニケーション機能であることがわかった。
この区別により、人間可読な最終説明を維持しながら、中間計算に圧縮された記号リッチ言語を使用することが可能である。
この非効率性に対処するために、Denser: \underline{D}ual-d\underline{ens}ity inf\underline{er}enceという新しいフレームワークを紹介します。
本フレームワークでは、入力問題を解析するクエリ処理モジュール、効率的な中間計算のための高密度圧縮推論機構、圧縮推論を人間可読な解に変換する回答生成コンポーネントという3つのコンポーネントを用いてこれを実装している。
複数の推論質問応答ベンチマークの実験的評価により、デンサーは標準的なチェーン・オブ・ソート法と比較してトークンの消費を最大62%削減し、精度を保留または改善していることが示された。
これらの効率向上は、従来の手法が広範な説明を生成する複雑な多段階推論問題において特に重要である。
関連論文リスト
- ProofSketch: Efficient Verified Reasoning for Large Language Models [0.0]
本稿では,記号的クロージャ,語彙的検証,適応的スケッチ生成を統合した検証誘導推論フレームワークProofSketchを提案する。
実験の結果,ProofSketchはトークンの使用率を一定に抑えつつ精度を向上し,このアプローチが効率的かつ信頼性の高い推論に有望な経路を提供することを示した。
論文 参考訳(メタデータ) (2025-10-28T06:34:15Z) - Adaptive Test-Time Reasoning via Reward-Guided Dual-Phase Search [62.1546099504045]
本稿では、推論を計画と実行に分離する二相テストタイムスケーリングフレームワークを提案する。
具体的には、推論軌跡を分解し、各フェーズの報酬モデルを構築し、探索者が個別に計画と実行を探索、実行できるようにする。
数学的推論とコード生成ベンチマークの両方の実験により、我々の手法は計算の冗長性を低減しつつ、常に精度を向上することを示した。
論文 参考訳(メタデータ) (2025-09-29T19:27:23Z) - A Formal Comparison Between Chain-of-Thought and Latent Thought [32.84174396586435]
Chain-of-Thought (CoT) は、自然言語の中間ステップを明示的に生成することで、大きな言語モデルで推論を行う。
ループモデルにおける潜在思想は、連続潜在空間で直接動作し、離散言語表現を超えた計算を可能にする。
論文 参考訳(メタデータ) (2025-09-25T11:27:52Z) - Implicit Reasoning in Large Language Models: A Comprehensive Survey [67.53966514728383]
大規模言語モデル(LLM)は、幅広いタスクにまたがる強力な一般化を実証している。
最近の研究は、暗黙の推論に拍車をかけた、明示的な思考の連鎖から注意を向けている。
本調査では,表現形式から計算戦略へ焦点を移し,実行パラダイムを中心とした分類を紹介した。
論文 参考訳(メタデータ) (2025-09-02T14:16:02Z) - PixelThink: Towards Efficient Chain-of-Pixel Reasoning [70.32510083790069]
PixelThinkは、外部から推定されるタスクの難しさと内部で測定されたモデルの不確実性を統合する、シンプルで効果的なスキームである。
シーンの複雑さと予測信頼度に応じて推論の長さを圧縮することを学ぶ。
実験により,提案手法は推論効率と全体セグメンテーション性能の両方を改善した。
論文 参考訳(メタデータ) (2025-05-29T17:55:49Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Preventing Language Models From Hiding Their Reasoning [0.0]
大規模言語モデル(LLM)は、複雑な問題に対する答えを生成するための推論の中間ステップの恩恵を受けることが多い。
この研究では、推論の中間段階が不信である可能性のある1つの潜在的方法、すなわち符号化推論に焦点を当てる。
言語モデルは、ユーザが推論の中間ステップを理解せずに、符号化推論を利用してより高い性能を得るように訓練できることを示す。
論文 参考訳(メタデータ) (2023-10-27T22:02:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。