論文の概要: $T^2$ of Thoughts: Temperature Tree Elicits Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2405.14075v1
- Date: Thu, 23 May 2024 00:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:34:41.488365
- Title: $T^2$ of Thoughts: Temperature Tree Elicits Reasoning in Large Language Models
- Title(参考訳): 思考の$T^2$:大規模言語モデルにおける温度木推論を緩和する
- Authors: Chengkun Cai, Xu Zhao, Yucheng Du, Haoliang Liu, Lei Li,
- Abstract要約: 大規模言語モデル(LLM)は人工知能、特に複雑な意思決定シナリオにおいて強力なツールとして登場した。
粒子群最適化による温度木(T2$)によるLCMの推論能力の向上について検討する。
温度に基づく動的探索深度調整は混合結果が得られるが,T2oT$の適応能力と組み合わせた固定探索深度は,より信頼性が高く,汎用的な問題解決戦略をもたらすことが示唆された。
- 参考スコア(独自算出の注目度): 16.74576471336245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have emerged as powerful tools in artificial intelligence, especially in complex decision-making scenarios, but their static problem-solving strategies often limit their adaptability to dynamic environments. We explore the enhancement of reasoning capabilities in LLMs through Temperature Tree ($T^2$) prompting via Particle Swarm Optimization, termed as $T^2$ of Thoughts ($T^2oT$). The primary focus is on enhancing decision-making processes by dynamically adjusting search parameters, especially temperature, to improve accuracy without increasing computational demands. We empirically validate that our hybrid $T^2oT$ approach yields enhancements in, single-solution accuracy, multi-solution generation and text generation quality. Our findings suggest that while dynamic search depth adjustments based on temperature can yield mixed results, a fixed search depth, when coupled with adaptive capabilities of $T^2oT$, provides a more reliable and versatile problem-solving strategy. This work highlights the potential for future explorations in optimizing algorithmic interactions with foundational language models, particularly illustrated by our development for the Game of 24 and Creative Writing tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人工知能、特に複雑な意思決定シナリオにおいて強力なツールとして登場したが、静的な問題解決戦略はしばしば動的環境への適応性を制限している。
本研究では,LLMにおける温度木(T^2$)による推論能力の向上について,粒子群最適化(T^2$ of Thoughts(T^2oT$)と呼ぶ)を通じて検討する。
主な焦点は、探索パラメータ、特に温度を動的に調整し、計算要求を増大させることなく精度を向上させることで意思決定プロセスを強化することである。
我々は,我々のハイブリッドな$T^2oT$アプローチが,単解精度,多解生成,テキスト生成品質の向上をもたらすことを実証的に検証した。
温度に基づく動的探索深度調整は混合結果が得られるが,T^2oT$の適応能力と組み合わせた固定探索深度は,より信頼性が高く,汎用的な問題解決戦略をもたらすことが示唆された。
この研究は、基礎言語モデルとのアルゴリズム的相互作用を最適化する将来の探索の可能性を強調し、特にゲーム・オブ・24とクリエイティブ・ライティング・タスクの開発で示される。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Accelerated AI Inference via Dynamic Execution Methods [0.562479170374811]
本稿では,入力に基づいて計算フローを最適化する動的実行手法に着目する。
議論されている手法には、ディープネットワークからの早期離脱、言語モデルの投機的サンプリング、拡散モデルの適応的なステップが含まれる。
実験により、これらの動的アプローチは、品質を損なうことなく、レイテンシとスループットを大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-10-30T12:49:23Z) - Agent Q: Advanced Reasoning and Learning for Autonomous AI Agents [44.34340798542]
大きな言語モデル(LLM)は、複雑な推論を必要とする自然言語タスクにおいて顕著な能力を示している。
静的データセットに対する従来の教師付き事前トレーニングは、自律的なエージェント機能を実現するには不十分である。
本稿では,モンテカルロ木探索(MCTS)を自己批判機構と組み合わせ,エージェント間相互作用を反復的に微調整するフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-13T20:52:13Z) - Tree Search for Language Model Agents [69.43007235771383]
対話型Web環境での探索と多段階計画を行うために,LMエージェントの推論時探索アルゴリズムを提案する。
我々のアプローチは、実環境空間内で機能する最優先木探索の一形態である。
現実的なWebタスクにおいて有効性を示すLMエージェントのための最初の木探索アルゴリズムである。
論文 参考訳(メタデータ) (2024-07-01T17:07:55Z) - Edge Intelligence Optimization for Large Language Model Inference with Batching and Quantization [20.631476379056892]
大規模言語モデル(LLM)がこの運動の最前線にある。
LLMはクラウドホスティングを必要とするため、プライバシやレイテンシ、使用制限に関する問題が発生する。
LLM推論に適したエッジインテリジェンス最適化問題を提案する。
論文 参考訳(メタデータ) (2024-05-12T02:38:58Z) - TENG: Time-Evolving Natural Gradient for Solving PDEs With Deep Neural Nets Toward Machine Precision [5.283885355422517]
偏微分方程式 (Partial differential equation, PDE) は、科学と工学における力学系をモデル化するための道具である。
本稿では、時間依存の変動原理と最適化に基づく時間統合を一般化した、$textitTime-Evolving Natural Gradient (TENG)$を紹介する。
私たちの包括的開発には、TENG-Eulerのようなアルゴリズムと、TENG-Heunのような高階の亜種が含まれています。
論文 参考訳(メタデータ) (2024-04-16T17:55:31Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - Comparative Evaluation of Metaheuristic Algorithms for Hyperparameter
Selection in Short-Term Weather Forecasting [0.0]
本稿では,遺伝的アルゴリズム (GA), 微分進化 (DE), 粒子群最適化 (PSO) のメタヒューリスティックアルゴリズムの適用について検討する。
平均二乗誤差(MSE)や平均絶対パーセンテージ誤差(MAPE)といった指標に基づいて天気予報の性能を評価する。
論文 参考訳(メタデータ) (2023-09-05T22:13:35Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Polymers for Extreme Conditions Designed Using Syntax-Directed
Variational Autoencoders [53.34780987686359]
現在、機械学習ツールは、望まれる特性を持つ材料候補を事実上スクリーニングするために使用される。
このアプローチは非効率であり、人間の想像力が知覚できる候補によって厳しく制約されている。
文法指向の変分オートエンコーダ(VAE)とガウス過程回帰(GPR)モデルを用いて、3つの極端な条件下で頑健なポリマーを発見する。
論文 参考訳(メタデータ) (2020-11-04T21:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。