論文の概要: Algorithmic Thinking Theory
- arxiv url: http://arxiv.org/abs/2512.04923v1
- Date: Thu, 04 Dec 2025 15:55:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-05 21:11:46.25629
- Title: Algorithmic Thinking Theory
- Title(参考訳): アルゴリズム思考理論
- Authors: MohammadHossein Bateni, Vincent Cohen-Addad, Yuzhou Gu, Silvio Lattanzi, Simon Meierhans, Christopher Mohri,
- Abstract要約: このような推論アルゴリズムを解析するための理論的枠組みを導入する。
アーキテクチャ仕様に依存したモデルを理解するためのアプローチとは異なり、我々のモデルは実験的なエビデンスに基礎を置いている。
- 参考スコア(独自算出の注目度): 32.67988252212099
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have proven to be highly effective for solving complex reasoning tasks. Surprisingly, their capabilities can often be improved by iterating on previously generated solutions. In this context, a reasoning plan for generating and combining a set of solutions can be thought of as an algorithm for reasoning using a probabilistic oracle. We introduce a theoretical framework for analyzing such reasoning algorithms. This framework formalizes the principles underlying popular techniques for iterative improvement and answer aggregation, providing a foundation for designing a new generation of more powerful reasoning methods. Unlike approaches for understanding models that rely on architectural specifics, our model is grounded in experimental evidence. As a result, it offers a general perspective that may extend to a wide range of current and future reasoning oracles.
- Abstract(参考訳): 大規模言語モデル(LLM)は複雑な推論タスクを解くのに非常に効果的であることが証明されている。
驚くべきことに、これらの機能は、以前生成されたソリューションを繰り返すことで、しばしば改善される。
この文脈では、一組の解の生成と組み合わせのための推論計画が確率的オラクルを用いた推論のアルゴリズムと考えることができる。
このような推論アルゴリズムを解析するための理論的枠組みを導入する。
このフレームワークは、反復的な改善と回答集約のための一般的な技術の基礎となる原則を定式化し、より強力な推論方法の新たな世代を設計するための基盤を提供する。
アーキテクチャ仕様に依存したモデルを理解するためのアプローチとは異なり、我々のモデルは実験的なエビデンスに基礎を置いている。
結果として、それは、広範囲の現在と将来の推論のオラクルにまで拡張できる一般的な視点を提供する。
関連論文リスト
- Step-Aware Policy Optimization for Reasoning in Diffusion Large Language Models [57.42778606399764]
拡散言語モデル(dLLM)は、テキスト生成に有望で非自己回帰的なパラダイムを提供する。
現在の強化学習アプローチは、しばしばスパースで結果に基づく報酬に頼っている。
これは推論の自然な構造との根本的なミスマッチに由来すると我々は主張する。
論文 参考訳(メタデータ) (2025-10-02T00:34:15Z) - Hypothesis-Driven Theory-of-Mind Reasoning for Large Language Models [76.6028674686018]
エージェントの精神状態を追跡するための推論時間推論アルゴリズムである思考トレースを導入する。
提案アルゴリズムは,ベイズ理論をモデルとした。
本研究は,様々なベンチマークにおける思考トレーシングを評価し,大幅な性能向上を実証した。
論文 参考訳(メタデータ) (2025-02-17T15:08:50Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - REL: Working out is all you need [20.65423513616306]
我々はOpenAIのO1モデルが、明らかに人間的な方法で問題解決にアプローチしていることを観察する。
これらの洗練された推論機能は、他の最先端の言語モデルでは特に欠落している。
論文 参考訳(メタデータ) (2024-12-05T22:32:01Z) - On the Diagram of Thought [20.805936414171892]
大規模言語モデル(LLM)は多くのタスクで優れているが、構造化された多段階の推論を必要とする複雑な問題に悩まされることが多い。
思考のダイアグラム(Diagram of Thought, DoT)は、1つのLCMがその推論のメンタルマップを構築し、ナビゲートすることを可能にする新しいフレームワークである。
論文 参考訳(メタデータ) (2024-09-16T07:01:41Z) - Understanding the Language Model to Solve the Symbolic Multi-Step Reasoning Problem from the Perspective of Buffer Mechanism [68.05754701230039]
本研究では,トランスフォーマーモデルにおける情報伝達機構を解明するために,シンボル的多段階推論タスクを構築する。
モデルの推論能力を高めるために,ランダムな行列に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:41:26Z) - Provably Convergent Algorithms for Solving Inverse Problems Using
Generative Models [47.208080968675574]
より完全な理解を伴う逆問題における生成モデルの利用について検討する。
我々は様々な逆問題を解くための実験結果を用いて主張を支持する。
我々は,モデルミスマッチ(生成前処理が必ずしも適用されない状況)を処理する手法の拡張を提案する。
論文 参考訳(メタデータ) (2021-05-13T15:58:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。