論文の概要: Diffuse Thinking: Exploring Diffusion Language Models as Efficient Thought Proposers for Reasoning
- arxiv url: http://arxiv.org/abs/2510.27469v1
- Date: Fri, 31 Oct 2025 13:41:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:16.111983
- Title: Diffuse Thinking: Exploring Diffusion Language Models as Efficient Thought Proposers for Reasoning
- Title(参考訳): Diffuse Thinking: 推論のための効果的な思考プロポーラとしての拡散言語モデルを探る
- Authors: Chenyang Shao, Sijian Ren, Fengli Xu, Yong Li,
- Abstract要約: そこで我々は,DLMを有効活用した効率的な協調推論フレームワークを提案し,その品質を評価するために,候補思考とLLMを生成する。
我々のフレームワークは複雑な推論タスクにおいて高いパフォーマンスを達成し、将来の研究に有望な方向性を提供する。
- 参考スコア(独自算出の注目度): 11.437063355666593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In recent years, large language models (LLMs) have witnessed remarkable advancements, with the test-time scaling law consistently enhancing the reasoning capabilities. Through systematic evaluation and exploration of a diverse spectrum of intermediate thoughts, LLMs demonstrate the potential to generate deliberate reasoning steps, thereby substantially enhancing reasoning accuracy. However, LLMs' autoregressive generation paradigm results in reasoning performance scaling sub-optimally with test-time computation, often requiring excessive computational overhead to propose thoughts while yielding only marginal performance gains. In contrast, diffusion language models (DLMs) can efficiently produce diverse samples through parallel denoising in a single forward pass, inspiring us to leverage them for proposing intermediate thoughts, thereby alleviating the computational burden associated with autoregressive generation while maintaining quality. In this work, we propose an efficient collaborative reasoning framework, leveraging DLMs to generate candidate thoughts and LLMs to evaluate their quality. Experiments across diverse benchmarks demonstrate that our framework achieves strong performance in complex reasoning tasks, offering a promising direction for future research. Our code is open-source at https://anonymous.4open.science/r/Diffuse-Thinking-EC60.
- Abstract(参考訳): 近年、大規模言語モデル (LLM) は目覚ましい進歩を見せており、テストタイムスケーリング法則は推論能力を継続的に強化している。
様々な中間的思考のスペクトルの体系的な評価と探索を通じて、LSMは意図的な推論ステップを生成する可能性を示し、それによって推論精度を大幅に向上させる。
しかし、LSMの自己回帰生成パラダイムは、性能スケーリングをテスト時間計算と準最適に推し進め、しばしば計算の過大なオーバーヘッドを伴って、限界的な性能向上しか得られない思想を提案する。
対照的に、拡散言語モデル(DLM)は、1つの前方通過を並列に認知することで多種多様なサンプルを効率よく生成し、中間思考の提案にそれらを活用することで、品質を維持しながら自己回帰生成に伴う計算負担を軽減することができる。
そこで本研究では, DLM を利用した効率的な協調推論手法を提案する。
様々なベンチマーク実験により、我々のフレームワークは複雑な推論タスクにおいて高いパフォーマンスを達成し、将来の研究に有望な方向性を提供することが示された。
私たちのコードはhttps://anonymous.4open.science/r/Diffuse-Thinking-EC60.comで公開されている。
関連論文リスト
- SoftCoT: Soft Chain-of-Thought for Efficient Reasoning with LLMs [48.28847964704554]
CoT(Chain-of-Thought)推論により、LLM(Large Language Models)は複雑な推論タスクを解くことができる。
LLMの変更を必要としない連続空間推論のための新しい手法を提案する。
論文 参考訳(メタデータ) (2025-02-17T18:52:29Z) - Can formal argumentative reasoning enhance LLMs performances? [0.3659498819753633]
本稿では,Large Language Models (LLM) の性能に及ぼす計算論証セマンティクスの導入効果を評価するパイプライン (MQArgEng) を提案する。
調査の結果、MQArgEngは、調査対象のトピックのカテゴリの大部分で適度なパフォーマンス向上をもたらし、将来性を示し、さらなる研究を保証していることが示された。
論文 参考訳(メタデータ) (2024-05-16T22:09:31Z) - LLMs for Relational Reasoning: How Far are We? [8.840750655261251]
大規模言語モデル(LLM)は、下流タスクで最先端のパフォーマンスを達成することで、多くの領域に革命をもたらした。
近年の取り組みにより,LSMは逐次決定問題の解決に乏しいことが示されている。
論文 参考訳(メタデータ) (2024-01-17T08:22:52Z) - CLOMO: Counterfactual Logical Modification with Large Language Models [109.60793869938534]
本稿では,新しいタスク,CLOMO(Counterfactual Logical Modification)と高品質な人間アノテーションベンチマークを紹介する。
このタスクでは、LLMは所定の論理的関係を維持するために、与えられた議論的テキストを順応的に変更しなければなりません。
LLMの自然言語出力を直接評価する革新的な評価指標である自己評価スコア(SES)を提案する。
論文 参考訳(メタデータ) (2023-11-29T08:29:54Z) - Encouraging Divergent Thinking in Large Language Models through Multi-Agent Debate [85.3444184685235]
複数のエージェントが"tit for tat"の状態で議論を表現するマルチエージェント議論(MAD)フレームワークを提案し、審査員が議論プロセスを管理して最終解を得る。
我々のフレームワークは、深い熟考を必要とするタスクに役立ちそうなLSMにおける散発的思考を奨励する。
論文 参考訳(メタデータ) (2023-05-30T15:25:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。