論文の概要: Synergy-of-Thoughts: Eliciting Efficient Reasoning in Hybrid Language Models
- arxiv url: http://arxiv.org/abs/2402.02563v2
- Date: Thu, 23 May 2024 14:20:53 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-25 07:09:37.125841
- Title: Synergy-of-Thoughts: Eliciting Efficient Reasoning in Hybrid Language Models
- Title(参考訳): Synergy-of-Thoughts:ハイブリッド言語モデルにおける効率的な推論
- Authors: Yu Shang, Yu Li, Fengli Xu, Yong Li,
- Abstract要約: 大規模言語モデル(LLM)は、幅広いタスクにおいて驚くべき創発的能力を示してきたが、複雑な推論問題に対処する上ではまだ課題に直面している。
人間の認知の二重過程理論に触発され,効率的な推論のためにハイブリッドLLMの相乗的ポテンシャルを解き放つために,SoT(Synergy of Thoughts)を提案する。
SoTはトークンのコストを38.3%-75.1%削減し、最先端の推論精度と解の多様性を同時に達成する。
- 参考スコア(独自算出の注目度): 19.466985579720507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) have shown impressive emergent abilities in a wide range of tasks, but still face challenges in handling complex reasoning problems. Previous works like chain-of-thought (CoT) and tree-of-thoughts (ToT) have predominately focused on enhancing accuracy, but overlook the rapidly increasing token cost, which could be particularly problematic for open-ended real-world tasks with huge solution spaces. Motivated by the dual process theory of human cognition, we propose "Synergy of Thoughts" (SoT) to unleash the synergistic potential of hybrid LLMs for efficient reasoning. By default, SoT uses smaller-scale language models to generate multiple low-cost reasoning thoughts, which resembles the parallel intuitions produced by System 1. If these intuitions exhibit conflicts, SoT will invoke the reflective reasoning of scaled-up language models to emulate the intervention of System 2, which will override the intuitive thoughts and rectify the reasoning process. This framework is model-agnostic and training-free, which can be flexibly implemented with various off-the-shelf LLMs. Experiments on six representative reasoning tasks show that SoT substantially reduces the token cost by 38.3%-75.1%, and simultaneously achieves state-of-the-art reasoning accuracy and solution diversity. Notably, the average token cost reduction on open-ended tasks reaches up to 69.1%. Code repo with all prompts will be released upon publication.
- Abstract(参考訳): 大規模言語モデル(LLM)は、幅広いタスクにおいて驚くべき創発的能力を示してきたが、複雑な推論問題に対処する上ではまだ課題に直面している。
チェーン・オブ・シント(CoT)やツリー・オブ・シント(ToT)といったこれまでの作業は、精度の向上に重点を置いていたが、トークンコストの急激な増加を見落としている。
人間の認知の二重過程理論に触発され,効率的な推論のためにハイブリッドLLMの相乗的ポテンシャルを解き放つために,SoT(Synergy of Thoughts)を提案する。
デフォルトでは、SoTはより小規模の言語モデルを使用して、System 1の並列直観に類似した複数の低コストな推論思考を生成する。
これらの直観が矛盾を示すならば、SoTはシステム2の介入をエミュレートするためにスケールアップされた言語モデルの反射的推論を起動し、直感的な思考をオーバーライドし、推論プロセスの修正を行う。
このフレームワークはモデルに依存しないトレーニングフリーで、様々な既製のLCMで柔軟に実装できる。
6つの代表的な推論タスクの実験では、SoTはトークンのコストを38.3%-75.1%削減し、最先端の推論精度と解の多様性を同時に達成している。
特に、オープンエンドタスクの平均トークンコストの削減は69.1%に達する。
すべてのプロンプトによるコードレポジトリは、公開時に公開される。
関連論文リスト
- The Danger of Overthinking: Examining the Reasoning-Action Dilemma in Agentic Tasks [96.27754404942364]
大規模推論モデル(LRM)は、AI問題解決能力の突破口となるが、インタラクティブ環境での有効性は制限される可能性がある。
本稿では, LRMにおける過度な考察を紹介し, 分析する。
解析的麻痺,ローグ行動,早期解離の3つのパターンを観察した。
論文 参考訳(メタデータ) (2025-02-12T09:23:26Z) - BRiTE: Bootstrapping Reinforced Thinking Process to Enhance Language Model Reasoning [78.63421517563056]
大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な機能を示した。
本稿では,新しいグラフィカルモデルを用いてLLM推論を定式化する統一確率的フレームワークを提案する。
本稿では,Bootstrapping Reinforced Thinking Process (BRiTE)アルゴリズムについて述べる。
論文 参考訳(メタデータ) (2025-01-31T02:39:07Z) - Thoughts Are All Over the Place: On the Underthinking of o1-Like LLMs [86.79757571440082]
OpenAIのo1のような大規模言語モデル(LLM)は複雑な推論タスクにおいて顕著な能力を示している。
我々は、o1-like LLMがしばしば異なる理性的思考を切り替える、という現象を特定する。
本稿では,思考間の早期移行を回避できる思考切替ペナルティTIPを用いた復号戦略を提案する。
論文 参考訳(メタデータ) (2025-01-30T18:58:18Z) - Forest-of-Thought: Scaling Test-Time Compute for Enhancing LLM Reasoning [40.069109287947875]
我々はフォレスト・オブ・サート(FoT)と呼ばれる新しい推論フレームワークを提案する。
FoTは複数の推論木を統合し、複雑な論理問題を解くために集合的な意思決定を活用する。
本稿では,リアルタイムの誤り訂正を可能にする動的自己補正戦略と,コンセンサス誘導による意思決定戦略を導入する。
論文 参考訳(メタデータ) (2024-12-12T09:01:18Z) - Self-Harmonized Chain of Thought [8.540320749424172]
CoT(Chain-of- Thought)プロンプトは、中間ステップを通じて複雑な推論を行うための大きな言語モデルの能力を示している。
多様な解経路を一貫した効果的な推論パターンに統一する新しい手法ECHOを提案する。
論文 参考訳(メタデータ) (2024-09-06T06:57:04Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - Distilling Reasoning Ability from Large Language Models with Adaptive Thinking [54.047761094420174]
思考の微調整(cot-finetuning)の連鎖は、小さな言語モデル(SLM)を特定のタスクに対するパフォーマンス向上の推論能力で実現することを目的としている。
既存のコトファインタニング法の多くは事前に考えられたメカニズムを採用しており、SLMは答えを出す前に理性を生成することができる。
このメカニズムにより、SLMは複雑な質問を分析して考えることができるが、答えの正しさは論理的に小さな誤りに非常に敏感になる。
理性よりも先に回答を生成するための頑健な後思考機構を提案する。
論文 参考訳(メタデータ) (2024-04-14T07:19:27Z) - What if...?: Thinking Counterfactual Keywords Helps to Mitigate Hallucination in Large Multi-modal Models [50.97705264224828]
大規模マルチモーダルモデルに反現実的思考を組み込む新しい手法である反現実的インセプションを提案する。
我々は、より広い文脈のシーン理解にまたがる応答をモデルが関与し、生成することを目指している。
オープンソースモデルとプロプライエタリモデルの両方を含む様々なLMMの包括的分析は、反事実的思考が幻覚を著しく減少させることを裏付ける。
論文 参考訳(メタデータ) (2024-03-20T11:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。