論文の概要: $T^2$ of Thoughts: Temperature Tree Elicits Reasoning in Large Language Models
- arxiv url: http://arxiv.org/abs/2405.14075v1
- Date: Thu, 23 May 2024 00:40:43 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-24 19:34:41.488365
- Title: $T^2$ of Thoughts: Temperature Tree Elicits Reasoning in Large Language Models
- Title(参考訳): 思考の$T^2$:大規模言語モデルにおける温度木推論を緩和する
- Authors: Chengkun Cai, Xu Zhao, Yucheng Du, Haoliang Liu, Lei Li,
- Abstract要約: 大規模言語モデル(LLM)は人工知能、特に複雑な意思決定シナリオにおいて強力なツールとして登場した。
粒子群最適化による温度木(T2$)によるLCMの推論能力の向上について検討する。
温度に基づく動的探索深度調整は混合結果が得られるが,T2oT$の適応能力と組み合わせた固定探索深度は,より信頼性が高く,汎用的な問題解決戦略をもたらすことが示唆された。
- 参考スコア(独自算出の注目度): 16.74576471336245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) have emerged as powerful tools in artificial intelligence, especially in complex decision-making scenarios, but their static problem-solving strategies often limit their adaptability to dynamic environments. We explore the enhancement of reasoning capabilities in LLMs through Temperature Tree ($T^2$) prompting via Particle Swarm Optimization, termed as $T^2$ of Thoughts ($T^2oT$). The primary focus is on enhancing decision-making processes by dynamically adjusting search parameters, especially temperature, to improve accuracy without increasing computational demands. We empirically validate that our hybrid $T^2oT$ approach yields enhancements in, single-solution accuracy, multi-solution generation and text generation quality. Our findings suggest that while dynamic search depth adjustments based on temperature can yield mixed results, a fixed search depth, when coupled with adaptive capabilities of $T^2oT$, provides a more reliable and versatile problem-solving strategy. This work highlights the potential for future explorations in optimizing algorithmic interactions with foundational language models, particularly illustrated by our development for the Game of 24 and Creative Writing tasks.
- Abstract(参考訳): 大規模言語モデル(LLM)は、人工知能、特に複雑な意思決定シナリオにおいて強力なツールとして登場したが、静的な問題解決戦略はしばしば動的環境への適応性を制限している。
本研究では,LLMにおける温度木(T^2$)による推論能力の向上について,粒子群最適化(T^2$ of Thoughts(T^2oT$)と呼ぶ)を通じて検討する。
主な焦点は、探索パラメータ、特に温度を動的に調整し、計算要求を増大させることなく精度を向上させることで意思決定プロセスを強化することである。
我々は,我々のハイブリッドな$T^2oT$アプローチが,単解精度,多解生成,テキスト生成品質の向上をもたらすことを実証的に検証した。
温度に基づく動的探索深度調整は混合結果が得られるが,T^2oT$の適応能力と組み合わせた固定探索深度は,より信頼性が高く,汎用的な問題解決戦略をもたらすことが示唆された。
この研究は、基礎言語モデルとのアルゴリズム的相互作用を最適化する将来の探索の可能性を強調し、特にゲーム・オブ・24とクリエイティブ・ライティング・タスクの開発で示される。
関連論文リスト
- Automatically Learning Hybrid Digital Twins of Dynamical Systems [56.69628749813084]
Digital Twins (DT)は、現実世界のシステムの状態と時間力学をシミュレートする。
DTは、しばしばデータスカース設定で目に見えない条件に一般化するのに苦労します。
本稿では,HDTwinsを自律的に提案し,評価し,最適化するための進化的アルゴリズム(textbfHDTwinGen$)を提案する。
論文 参考訳(メタデータ) (2024-10-31T07:28:22Z) - Accelerated AI Inference via Dynamic Execution Methods [0.562479170374811]
本稿では,入力に基づいて計算フローを最適化する動的実行手法に着目する。
議論されている手法には、ディープネットワークからの早期離脱、言語モデルの投機的サンプリング、拡散モデルの適応的なステップが含まれる。
実験により、これらの動的アプローチは、品質を損なうことなく、レイテンシとスループットを大幅に改善できることが示された。
論文 参考訳(メタデータ) (2024-10-30T12:49:23Z) - Step-by-Step Unmasking for Parameter-Efficient Fine-tuning of Large Language Models [18.877891285367216]
パラメータ効率細調整(PEFT)のクラスは、モデルのパラメータのごく一部だけを選択的に微調整することで、計算上の課題を軽減することを目的としている。
我々はパラメータの重要度を連続的に計算し,パラメータを動的にアンマスクする新しいPEFT法である$textID3$を紹介した。
解析的に、$textID3$は勾配更新数を2倍に減らし、計算効率が向上することを示した。
論文 参考訳(メタデータ) (2024-08-26T17:58:53Z) - TENG: Time-Evolving Natural Gradient for Solving PDEs With Deep Neural Nets Toward Machine Precision [5.283885355422517]
偏微分方程式 (Partial differential equation, PDE) は、科学と工学における力学系をモデル化するための道具である。
本稿では、時間依存の変動原理と最適化に基づく時間統合を一般化した、$textitTime-Evolving Natural Gradient (TENG)$を紹介する。
私たちの包括的開発には、TENG-Eulerのようなアルゴリズムと、TENG-Heunのような高階の亜種が含まれています。
論文 参考訳(メタデータ) (2024-04-16T17:55:31Z) - Entropy-Regularized Token-Level Policy Optimization for Language Agent Reinforcement [67.1393112206885]
大規模言語モデル(LLM)は、対話的な意思決定タスクにおいてインテリジェントなエージェントとして期待されている。
本稿では,トークンレベルでのLLMの最適化に適したエントロピー拡張RL法である,エントロピー正規化トークンレベル最適化(ETPO)を導入する。
我々は,データサイエンスコード生成を多段階対話型タスクのシリーズとしてモデル化したシミュレーション環境におけるETPOの有効性を評価する。
論文 参考訳(メタデータ) (2024-02-09T07:45:26Z) - HAZARD Challenge: Embodied Decision Making in Dynamically Changing
Environments [93.94020724735199]
HAZARDは、火災、洪水、風などの3つの予期せぬ災害シナリオで構成されている。
このベンチマークにより、さまざまなパイプラインで自律エージェントの意思決定能力を評価することができる。
論文 参考訳(メタデータ) (2024-01-23T18:59:43Z) - Fine-Tuning Adaptive Stochastic Optimizers: Determining the Optimal Hyperparameter $ε$ via Gradient Magnitude Histogram Analysis [0.7366405857677226]
我々は、損失の大きさの経験的確率密度関数に基づく新しい枠組みを導入し、これを「緩やかな等級ヒストグラム」と呼ぶ。
そこで本稿では, 最適安全のための精密かつ高精度な探索空間を自動推定するために, 勾配等級ヒストグラムを用いた新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-11-20T04:34:19Z) - Comparative Evaluation of Metaheuristic Algorithms for Hyperparameter
Selection in Short-Term Weather Forecasting [0.0]
本稿では,遺伝的アルゴリズム (GA), 微分進化 (DE), 粒子群最適化 (PSO) のメタヒューリスティックアルゴリズムの適用について検討する。
平均二乗誤差(MSE)や平均絶対パーセンテージ誤差(MAPE)といった指標に基づいて天気予報の性能を評価する。
論文 参考訳(メタデータ) (2023-09-05T22:13:35Z) - Result Diversification by Multi-objective Evolutionary Algorithms with
Theoretical Guarantees [94.72461292387146]
両目的探索問題として結果の多様化問題を再構成し,多目的進化アルゴリズム(EA)を用いて解くことを提案する。
GSEMOが最適時間近似比1/2$を達成できることを理論的に証明する。
目的関数が動的に変化すると、GSEMOはこの近似比をランニングタイムで維持することができ、Borodinらによって提案されたオープンな問題に対処する。
論文 参考訳(メタデータ) (2021-10-18T14:00:22Z) - Designing Air Flow with Surrogate-assisted Phenotypic Niching [117.44028458220427]
品質多様性アルゴリズムであるサロゲート支援表現型ニッチを導入する。
計算に高価な表現型特徴を用いることで、大規模で多様な行動群を発見することができる。
本研究では,2次元流体力学最適化問題における気流の種類を明らかにする。
論文 参考訳(メタデータ) (2021-05-10T10:45:28Z) - Polymers for Extreme Conditions Designed Using Syntax-Directed
Variational Autoencoders [53.34780987686359]
現在、機械学習ツールは、望まれる特性を持つ材料候補を事実上スクリーニングするために使用される。
このアプローチは非効率であり、人間の想像力が知覚できる候補によって厳しく制約されている。
文法指向の変分オートエンコーダ(VAE)とガウス過程回帰(GPR)モデルを用いて、3つの極端な条件下で頑健なポリマーを発見する。
論文 参考訳(メタデータ) (2020-11-04T21:36:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。