論文の概要: A Survey on Parallel Reasoning
- arxiv url: http://arxiv.org/abs/2510.12164v1
- Date: Tue, 14 Oct 2025 05:42:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-15 19:02:32.197854
- Title: A Survey on Parallel Reasoning
- Title(参考訳): 並列推論に関する調査
- Authors: Ziqi Wang, Boye Niu, Zipeng Gao, Zhi Zheng, Tong Xu, Linghui Meng, Zhongli Li, Jing Liu, Yilong Chen, Chen Zhu, Hua Wu, Haifeng Wang, Enhong Chen,
- Abstract要約: まず、並列推論の形式的定義を示し、その区別をChain-of-Thoughtのような関連する概念と明確にする。
次に、非対話的推論、対話的推論、効率を重視した復号戦略を含む、新しい分類法に基づく高度な手法を編成し、議論する。
並列推論の中核的な課題を強調し,今後の研究の方向性を示唆する。
- 参考スコア(独自算出の注目度): 58.66122129692264
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: With the increasing capabilities of Large Language Models (LLMs), parallel reasoning has emerged as a new inference paradigm that enhances reasoning robustness by concurrently exploring multiple lines of thought before converging on a final answer. It has become a significant trend to explore parallel reasoning to overcome the fragility of standard sequential methods and improve practical performance. In this paper, we aim to survey and summarize the progress and challenges of parallel reasoning. We first present a formal definition of parallel reasoning and clarify its distinction from related concepts like Chain-of-Thought. Then, we organize and discuss advanced techniques based on a novel taxonomy, including non-interactive reasoning, interactive reasoning, and efficiency-focused decoding strategies. Additionally, we explore various application scenarios, such as solving complex problems and enhancing the reliability of LLM outputs.Finally, we highlight the core challenges of parallel reasoning and suggest potential directions for future research. We hope that our work can provide a useful roadmap for beginners and encourage more research on improving parallel reasoning methods. Related source can be avaliable in https://github.com/PPPP-kaqiu/Awesome-Parallel-Reasoning.
- Abstract(参考訳): LLM(Large Language Models)の能力の増大に伴い、並列推論は、最終的な回答に収束する前に複数の思考行を同時に探索することで、推論の堅牢性を高める新しい推論パラダイムとして登場した。
標準的なシーケンシャルメソッドの脆弱性を克服し、実用的なパフォーマンスを向上させるために、並列推論を探求する重要なトレンドとなっている。
本稿では,並列推論の進歩と課題を調査・要約することを目的とする。
まず、並列推論の形式的定義を示し、その区別をChain-of-Thoughtのような関連する概念と明確にする。
そこで我々は,非対話的推論,対話的推論,効率を重視した復号戦略など,新しい分類法に基づく高度な手法を整理し,議論する。
さらに,複雑な問題の解決やLCM出力の信頼性向上など,様々なアプリケーションシナリオについても検討し,並列推論の課題を強調し,今後の研究の方向性を示唆する。
当社の作業が初心者に有用なロードマップを提供し、並列推論手法の改善に関するさらなる研究を奨励できることを願っています。
関連するソースはhttps://github.com/PPPP-kaqiu/Awesome-Parallel-Reasoningにある。
関連論文リスト
- Parallel-R1: Towards Parallel Thinking via Reinforcement Learning [65.68667585027232]
並列思考は、大規模言語モデルの推論能力を高めるための新しいアプローチである。
並列思考行動を可能にする最初の強化学習フレームワークである textbfParallel-R1 を提案する。
本フレームワークでは,並列思考のトレーニングにおいて,コールドスタート問題に明示的に対処する漸進的なカリキュラムを採用している。
論文 参考訳(メタデータ) (2025-09-09T17:59:35Z) - A Survey on Latent Reasoning [100.54120559169735]
大きな言語モデル(LLM)は印象的な推論機能を示している。
中間ステップを言語化するCoT推論は、モデルの表現帯域幅を制限する。
潜在的推論は、モデルの連続的な隠れ状態に完全にマルチステップの推論を実行することで、このボトルネックに対処する。
論文 参考訳(メタデータ) (2025-07-08T17:29:07Z) - Reasoning Beyond Language: A Comprehensive Survey on Latent Chain-of-Thought Reasoning [21.444049407715955]
大規模言語モデル(LLM)は、Chain-of-Thought(CoT)のプロンプトによる複雑な推論タスクにおいて、優れたパフォーマンスを実現している。
潜在CoT推論への研究の関心が高まっており、潜伏空間内で推論が行われる。
本稿では,この推論パラダイムの概観と解析について述べる。
論文 参考訳(メタデータ) (2025-05-22T15:26:51Z) - Why Reasoning Matters? A Survey of Advancements in Multimodal Reasoning (v1) [66.51642638034822]
推論は人間の知性の中心であり、多様なタスクにまたがる構造化された問題解決を可能にする。
大規模言語モデル(LLM)の最近の進歩は、算術、常識、記号領域における推論能力を大幅に向上させてきた。
本稿では,テキストおよびマルチモーダルLLMにおける推論手法の簡潔かつ洞察に富んだ概要について述べる。
論文 参考訳(メタデータ) (2025-04-04T04:04:56Z) - Meta-Reasoner: Dynamic Guidance for Optimized Inference-time Reasoning in Large Language Models [35.82665698868508]
大規模言語モデル(LLM)は、推論時間の間に高い計算時間とエラーの伝播に苦労する。
提案するMeta-Reasonerは,LLMが推論時間における推論方法の戦略を調整することで,推論計算を最適化するための新しいフレームワークである。
提案手法は,従来のSOTA法よりも9~12%向上し,推論時間を28~35%短縮する。
論文 参考訳(メタデータ) (2025-02-27T09:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。