論文の概要: Framework of Thoughts: A Foundation Framework for Dynamic and Optimized Reasoning based on Chains, Trees, and Graphs
- arxiv url: http://arxiv.org/abs/2602.16512v1
- Date: Wed, 18 Feb 2026 14:58:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-19 15:58:30.624356
- Title: Framework of Thoughts: A Foundation Framework for Dynamic and Optimized Reasoning based on Chains, Trees, and Graphs
- Title(参考訳): 思考のフレームワーク: チェーン、ツリー、グラフに基づく動的で最適化された推論のための基盤フレームワーク
- Authors: Felix Fricke, Simon Malberg, Georg Groh,
- Abstract要約: Framework of Thoughts (FoT) は動的推論スキームの構築と最適化のための汎用フレームワークである。
FoTはハイパーパラメータチューニング、プロンプト最適化、並列実行、インテリジェントキャッシュのための組み込み機能を備えている。
本稿では,FoT の機能を示すために,Treee of Thoughts,Graph of Thoughts,ProbTree with FoT という3つの一般的なスキームを実装した。
- 参考スコア(独自算出の注目度): 2.9720228225700662
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Prompting schemes such as Chain of Thought, Tree of Thoughts, and Graph of Thoughts can significantly enhance the reasoning capabilities of large language models. However, most existing schemes require users to define static, problem-specific reasoning structures that lack adaptability to dynamic or unseen problem types. Additionally, these schemes are often under-optimized in terms of hyperparameters, prompts, runtime, and prompting cost. To address these limitations, we introduce Framework of Thoughts (FoT)--a general-purpose foundation framework for building and optimizing dynamic reasoning schemes. FoT comes with built-in features for hyperparameter tuning, prompt optimization, parallel execution, and intelligent caching, unlocking the latent performance potential of reasoning schemes. We demonstrate FoT's capabilities by implementing three popular schemes--Tree of Thoughts, Graph of Thoughts, and ProbTree--within FoT. We empirically show that FoT enables significantly faster execution, reduces costs, and achieves better task scores through optimization. We release our codebase to facilitate the development of future dynamic and efficient reasoning schemes.
- Abstract(参考訳): 思考の連鎖(Chain of Thought)、思考のツリー(Tree of Thoughts)、思考のグラフ(Graph of Thoughts)などのプロンプトスキームは、大きな言語モデルの推論能力を著しく向上させる。
しかし、既存のほとんどのスキームでは、動的または目に見えない問題タイプへの適応性に欠ける静的で問題固有の推論構造を定義する必要がある。
さらに、これらのスキームはハイパーパラメータ、プロンプト、ランタイム、そしてコストのプロンプトの観点から過度に最適化されることが多い。
これらの制約に対処するために、動的推論スキームの構築と最適化のための汎用基盤フレームワークであるFoT( Framework of Thoughts)を紹介します。
FoTには、ハイパーパラメータチューニング、プロンプト最適化、並列実行、インテリジェントキャッシングのためのビルトイン機能があり、推論スキームの潜在的なパフォーマンスポテンシャルを解放している。
本稿では,FoT の機能を示すために,Treee of Thoughts,Graph of Thoughts,ProbTree with FoT という3つの一般的なスキームを実装した。
実験により、FoTは実行を著しく高速化し、コストを削減し、最適化によってより良いタスクスコアを達成することを実証した。
将来の動的かつ効率的な推論スキームの開発を容易にするために、コードベースをリリースします。
関連論文リスト
- Graph-Memoized Reasoning: Foundations Structured Workflow Reuse in Intelligent Systems [0.0]
グラフ構造化メモリとして、推論を表現、保存、再利用するための正式なフレームワークであるGraph-Memoized Reasoningを導入する。
過去の決定グラフを符号化し、構造的および意味的類似性を通してそれらを検索することにより、新しい推論タスクにおける部分グラフの合成再利用を可能にする。
論文 参考訳(メタデータ) (2025-11-11T07:42:37Z) - Sketch-of-Thought: Efficient LLM Reasoning with Adaptive Cognitive-Inspired Sketching [64.74765550805024]
Chain-of-Thoughtはステップバイステップの問題解決を促すが、中間出力の過剰な冗長性を犠牲にすることが多い。
我々は,認知にインスパイアされた推論パラダイムを言語制約と統合する促進フレームワークであるSketch-of-Thought(SoT)を提案する。
SoTはトークンを最大84%削減し、18の推論データセットで最小限の精度ロスを達成している。
論文 参考訳(メタデータ) (2025-03-07T06:57:17Z) - Dynamic Parallel Tree Search for Efficient LLM Reasoning [102.16694475391665]
Tree of Thoughts (ToT) は大規模言語モデル(LLM)推論を強化し、分散木としての問題解決を構造化する。
推論における推論経路を動的に最適化することを目的とした,新しい並列化フレームワークであるDynamic Parallel Tree Search (DPTS)を提案する。
Qwen-2.5とLlama-3のMath500とGSM8Kデータセットによる実験では、DPTSは平均で2-4倍効率が向上した。
論文 参考訳(メタデータ) (2025-02-22T14:13:37Z) - GraphThought: Graph Combinatorial Optimization with Thought Generation [16.457287060520454]
グラフ最適化(GCO)問題は、ロジスティクスやバイオインフォマティクスといった領域の中心である。
我々はまず、高品質な中間推論ステップを生成するための構造化ガイダンスを提供する最適思考設計(OTD)問題を定式化する。
提案するGraphThoughtは, 効果的な推論シーケンスを生成する新しいフレームワークである。
論文 参考訳(メタデータ) (2025-02-17T09:50:41Z) - Adaptive Graph of Thoughts: Test-Time Adaptive Reasoning Unifying Chain, Tree, and Graph Structures [0.0]
本稿では,動的グラフベースの推論フレームワークであるAdaptive Graph of Thoughts (AGoT)を紹介する。
AGoTはテスト時間のみでのLarge Language Models (LLM)推論を強化する。
マルチホップ検索,科学的推論,数学的問題解決にまたがる多様なベンチマークに対するアプローチを検証する。
論文 参考訳(メタデータ) (2025-02-07T16:54:19Z) - Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning [40.069109287947875]
我々はフォレスト・オブ・サート(FoT)と呼ばれる新しい推論フレームワークを提案する。
FoTは複数の推論木を統合し、複雑な論理問題を解くために集合的な意思決定を活用する。
FoTは、最も関連性の高い推論パスを選択するためにスパースアクティベーション戦略を採用し、効率と精度の両方を改善している。
論文 参考訳(メタデータ) (2024-12-12T09:01:18Z) - ENTMOOT: A Framework for Optimization over Ensemble Tree Models [57.98561336670884]
ENTMOOTは、ツリーモデルをより大きな最適化問題に統合するためのフレームワークである。
ENTMOOTは、ツリーモデルの意思決定とブラックボックス最適化への単純な統合を可能にしていることを示す。
論文 参考訳(メタデータ) (2020-03-10T14:34:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。