論文の概要: Boosting Logical Reasoning in Large Language Models through a New
Framework: The Graph of Thought
- arxiv url: http://arxiv.org/abs/2308.08614v1
- Date: Wed, 16 Aug 2023 18:13:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-21 18:52:42.365899
- Title: Boosting Logical Reasoning in Large Language Models through a New
Framework: The Graph of Thought
- Title(参考訳): 新しいフレームワークによる大規模言語モデルにおける論理的推論の促進:思考のグラフ
- Authors: Bin Lei, pei-Hung Lin, Chunhua Liao, Caiwen Ding
- Abstract要約: 本稿は、TextitGraph of Thoughts (GoT)と呼ばれる先駆的なプロンプト技術について紹介する。
提案手法は GPT-4 よりも優れ,各タスクに対して 89.7%$, 86%$, 56%$ の精度向上を実現した。
最先端のプロンプトメソッドである textitTree of Thought (ToT) を併用すると,我々のアプローチでは,平均精度が23%,24%,15%向上した。
- 参考スコア(独自算出の注目度): 7.356034193515096
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in large-scale models, such as GPT-4, have showcased
remarkable capabilities in addressing standard queries. However, when facing
complex problems that require multi-step logical reasoning, their accuracy
dramatically decreases. Current research has explored the realm of
\textit{prompting engineering} to bolster the inferential capacities of these
models. Our paper unveils a pioneering prompting technique, dubbed
\textit{Graph of Thoughts (GoT)}. Through testing on a trio of escalating
challenges: the 24-point game, resolution of high-degree polynomial equations,
and derivation of formulas for recursive sequences, our method outperformed
GPT-4, achieving accuracy improvements of $89.7\%$, $86\%$, and $56\%$ for each
respective task. Moreover, when juxtaposed with the state-of-the-art (SOTA)
prompting method, \textit{Tree of Thought (ToT)}, our approach registered an
average accuracy boost of $23\%$, $24\%$, and $15\%$.
- Abstract(参考訳): GPT-4のような大規模モデルの最近の進歩は、標準クエリに対処する際、顕著な能力を示した。
しかし、多段階論理的推論を必要とする複雑な問題に直面した場合、その精度は劇的に低下する。
現在の研究は、これらのモデルの推論能力を強化するために、 \textit{prompting engineering}の領域を探求している。
本稿は,GoT (textit{Graph of Thoughts) と呼ばれる先駆的促進技術について紹介する。
24点ゲーム,高次多項式方程式の解法,再帰列の公式の導出という3つの課題の試行を通じて,本手法は GPT-4 よりも優れ,各タスクに対して 89.7 %$, 86 %$, 56 %$ の精度向上を実現した。
さらに,state-of-the-art (sota) プロンプト法である \textit{tree of thought (tot)} を用いた場合,提案手法では平均精度向上率を2,23\%$,2,24\%$,15\%$とした。
関連論文リスト
- Evaluating GPT-4 at Grading Handwritten Solutions in Math Exams [48.99818550820575]
我々は、最先端のマルチモーダルAIモデル、特にGPT-4oを利用して、大学レベルの数学試験に対する手書きの応答を自動的に評価する。
確率論試験における質問に対する実際の学生の反応を用いて, GPT-4oのスコアと, 様々なプロンプト技術を用いて, 人間の学級のスコアとの整合性を評価する。
論文 参考訳(メタデータ) (2024-11-07T22:51:47Z) - Seq-VCR: Preventing Collapse in Intermediate Transformer Representations for Enhanced Reasoning [29.39584492735953]
我々は,モデル中間層における表現の崩壊を,その推論能力を制限する重要な要因として認識する。
本稿では、中間表現のエントロピーを高め、崩壊を防止するシークエンシャル変数共分散正規化(Seq-VCR)を提案する。
論文 参考訳(メタデータ) (2024-11-04T18:14:07Z) - FLARE: Faithful Logic-Aided Reasoning and Exploration [50.9814063216852]
タスク分解を用いて問題空間をトラバースする新しい手法を提案する。
我々はLarge Language Modelsを使ってソリューションを計画し、クエリを事実に軟式化し、論理プログラミングコードを使って述語する。
提案手法は,生成したコードに対する推論プロセスの忠実度を計算し,外部の解法に頼らずにマルチホップ探索のステップを解析する。
論文 参考訳(メタデータ) (2024-10-14T19:39:11Z) - Weak-to-Strong Search: Align Large Language Models via Searching over Small Language Models [22.425339110551743]
我々は,テストタイムの欲求検索として,大規模言語モデルのアライメントをフレーミングする,$textitweak-to-strong検索を導入する。
制御された知覚生成と要約では、チューニングされていない$textttgpt2$sを使用して、追加のトレーニングなしで大規模モデルのアライメントを改善する。
より難しい命令追従ベンチマークでは、市販の小型モデルの再利用により、ホワイトボックスモデルとブラックボックスモデルの両方の長制御された勝利率を改善することが示されている。
論文 参考訳(メタデータ) (2024-05-29T16:55:32Z) - DGoT: Dynamic Graph of Thoughts for Scientific Abstract Generation [4.404836880890741]
本稿では,科学論文の要約を生成するための動的思考グラフ(DGoT)を提案する。
抽象生成タスクにおけるコスト効率は,他のマルチラウンドクエリプロンプト手法の43.7%から56.4%に過ぎなかった。
論文 参考訳(メタデータ) (2024-03-26T08:47:23Z) - Tree of Thoughts: Deliberate Problem Solving with Large Language Models [52.31950122881687]
言語モデル推論のための新しいフレームワーク、Tree of Thoughts (ToT)を紹介します。
ToTは、言語モデルを促進するために人気のChain of Thoughtアプローチを一般化する。
実験の結果,ToTは言語モデルの問題解決能力を大幅に向上させることがわかった。
論文 参考訳(メタデータ) (2023-05-17T23:16:17Z) - Progressive-Hint Prompting Improves Reasoning in Large Language Models [63.98629132836499]
本稿では,プログレッシブ・ヒント・プロンプト(PHP)と呼ばれる新しいプロンプト手法を提案する。
事前に生成された回答をヒントとして使用することで、ユーザとLLM(Large Language Models)間の自動多元的対話を可能にする。
我々は7つのベンチマークで広範囲かつ包括的な実験を行った。その結果、PHPは高い効率を保ちながら精度を大幅に向上することが示された。
論文 参考訳(メタデータ) (2023-04-19T16:29:48Z) - Reframing Instructional Prompts to GPTk's Language [72.69833640335519]
本稿では,モデル設計者が言語モデルに対して効果的なプロンプトを作成するためのリフレーミング手法を提案する。
その結果、リフレーミングはサンプルの複雑さを減らしながら、数ショットの学習性能を14%向上させることがわかった。
GPT3では、大規模なデータセットでモデルやプロンプトをチューニングすることは不可能である。
論文 参考訳(メタデータ) (2021-09-16T09:44:43Z) - Improving Robustness and Generality of NLP Models Using Disentangled
Representations [62.08794500431367]
スーパービジョンニューラルネットワークはまず入力$x$を単一の表現$z$にマップし、次に出力ラベル$y$にマッピングする。
本研究では,非交叉表現学習の観点から,NLPモデルの堅牢性と汎用性を改善する手法を提案する。
提案した基準でトレーニングしたモデルは、広範囲の教師付き学習タスクにおいて、より堅牢性とドメイン適応性を向上することを示す。
論文 参考訳(メタデータ) (2020-09-21T02:48:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。