論文の概要: Satisfiability-Aided Language Models Using Declarative Prompting
- arxiv url: http://arxiv.org/abs/2305.09656v1
- Date: Tue, 16 May 2023 17:55:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 13:32:13.238354
- Title: Satisfiability-Aided Language Models Using Declarative Prompting
- Title(参考訳): 宣言型プロンプトを用いた満足度支援言語モデル
- Authors: Xi Ye, Qiaochu Chen, Isil Dillig, Greg Durrett
- Abstract要約: 我々は,大規模言語モデル(LLM)の推論能力を改善するために,新しい満足度支援言語モデリング手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明器を利用して最終解を導出する。
我々はSATLMを6つの異なるデータセット上で評価し、プログラム支援されたLMを命令的パラダイムで一貫して上回ることを示す。
- 参考スコア(独自算出の注目度): 45.35689345004124
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Prior work has combined chain-of-thought prompting in large language models
(LLMs) with programmatic representations to perform effective and transparent
reasoning. While such an approach works very well for tasks that only require
forward reasoning (e.g., straightforward arithmetic), it is less effective for
constraint solving tasks that require more sophisticated planning and search.
In this paper, we propose a new satisfiability-aided language modeling approach
for improving the reasoning capabilities of LLMs. We use an LLM to generate a
declarative task specification rather than an imperative program and leverage
an off-the-shelf automated theorem prover to derive the final answer. This
approach has two key advantages. The declarative specification is closer to the
problem description than the reasoning steps are, so the LLM can parse it more
accurately. Furthermore, by offloading the actual reasoning task to an
automated theorem prover, our approach can guarantee the correctness of the
answer with respect to the parsed specification and avoid planning errors in
the reasoning process. We evaluate SATLM on 6 different datasets and show that
it consistently outperforms program-aided LMs in an imperative paradigm
(PROGLM). In particular, SATLM outperforms PROGLM by 23% on a challenging
subset of GSM; SATLM also achieves a new SoTA on LSAT, surpassing previous
models that are trained on the full training set.
- Abstract(参考訳): これまでの研究は、大規模言語モデル(LLM)におけるチェーン・オブ・シークレットとプログラム表現を組み合わせることで、効果的で透明な推論を実現してきた。
このようなアプローチは前方推論のみを必要とするタスク(例:単純算術)ではうまく機能するが、より洗練された計画と探索を必要とするタスクの制約にはあまり効果がない。
本稿では,LLMの推論能力を向上させるための言語モデリング手法を提案する。
我々はLLMを用いて命令型プログラムではなく宣言型タスク仕様を生成し、既製の自動定理証明を利用して最終解を導出する。
このアプローチには2つの大きな利点がある。
宣言的仕様は推論ステップよりも問題記述に近いため、llmはそれをより正確に解析することができる。
さらに、自動定理証明器に実際の推論タスクをオフロードすることにより、解析された仕様に対する回答の正しさを保証し、推論プロセスにおける計画誤差を回避することができる。
我々はSATLMを6つの異なるデータセット上で評価し、命令パラダイム(PROGLM)でプログラム支援されたLMより一貫して優れていることを示す。
特にSATLMは、GSMの挑戦的なサブセットでPROGLMを23%上回り、SATLMはLSAT上の新しいSoTAも達成し、フルトレーニングセットでトレーニングされた以前のモデルを上回っている。
関連論文リスト
- Gap-Filling Prompting Enhances Code-Assisted Mathematical Reasoning [0.0]
パターン・オブ・シント(CoT)とプログラム・オブ・シント(PoT)ファインチューニング(PoT)は、LPMの知識を小さな言語モデル(SLM)に転送する一般的な方法である。
本稿では,SLMの問題解決プロセスを強化するために,新たな2段階のプロンプト戦略であるGap-Filling Prompting(GFP)を紹介する。
論文 参考訳(メタデータ) (2024-11-08T08:52:59Z) - Rational Metareasoning for Large Language Models [5.5539136805232205]
大きな言語モデル(LLM)を使用するためのコアテクニックとして,推論への関与を促す声が上がっている。
本研究は,認知科学で用いられるメタレゾニングの計算モデルに基づく新しいアプローチを導入する。
我々は不必要な推論を罰することで計算の価値を組み込む報酬関数を開発する。
論文 参考訳(メタデータ) (2024-10-07T23:48:52Z) - Improving LLM Reasoning through Scaling Inference Computation with Collaborative Verification [52.095460362197336]
大規模言語モデル(LLM)は一貫性と正確な推論に苦しむ。
LLMは、主に正しいソリューションに基づいて訓練され、エラーを検出して学習する能力を減らす。
本稿では,CoT(Chain-of-Thought)とPoT(Program-of-Thought)を組み合わせた新しい協調手法を提案する。
論文 参考訳(メタデータ) (2024-10-05T05:21:48Z) - SELF-GUIDE: Better Task-Specific Instruction Following via Self-Synthetic Finetuning [70.21358720599821]
大規模言語モデル(LLM)は、適切な自然言語プロンプトを提供する際に、多様なタスクを解決するという約束を持っている。
学生LLMからタスク固有の入出力ペアを合成する多段階メカニズムであるSELF-GUIDEを提案する。
ベンチマークの指標から,分類タスクに約15%,生成タスクに18%の絶対的な改善を報告した。
論文 参考訳(メタデータ) (2024-07-16T04:41:58Z) - Q*: Improving Multi-step Reasoning for LLMs with Deliberative Planning [53.6472920229013]
大規模言語モデル(LLM)は多くの自然言語タスクにおいて印象的な能力を示している。
LLMは多段階推論を行う際にエラー、幻覚、矛盾する文を生成する傾向がある。
本稿では,LLMの復号化過程を検討計画で導くためのフレームワークであるQ*を紹介する。
論文 参考訳(メタデータ) (2024-06-20T13:08:09Z) - MindStar: Enhancing Math Reasoning in Pre-trained LLMs at Inference Time [51.5039731721706]
MindStarは、大言語モデルの純粋に推論に基づく探索手法である。
推論タスクを探索問題として定式化し、最適な推論経路を特定するための2つの探索アイデアを提案する。
Llama-2-13BやMistral-7Bのようなオープンソースモデルの推論能力を大幅に向上させ、GPT-3.5やGrok-1に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2024-05-25T15:07:33Z) - Zero-Shot Question Answering over Financial Documents using Large
Language Models [0.18749305679160366]
我々は,財務報告に対するマルチホップ数値推論を必要とする複雑な問題に答えるために,大規模言語モデル(LLM)に基づくアプローチを導入する。
LLMを誘導する新しいゼロショットプロンプトを使用して、必要な推論をPythonプログラムやドメイン固有言語にエンコードします。
論文 参考訳(メタデータ) (2023-11-19T16:23:34Z) - Fill in the Blank: Exploring and Enhancing LLM Capabilities for Backward Reasoning in Math Word Problems [17.80128896525717]
後向きの推論は 比較的未調査です
後方推論は 前方推論の「逆」と見なすことができます
性能改善のための3つの異なる前方推論戦略のバリエーションを提案する。
論文 参考訳(メタデータ) (2023-10-03T12:03:06Z) - Evaluating and Improving Tool-Augmented Computation-Intensive Math
Reasoning [75.74103236299477]
CoT(Chain-of- Thought prompting)とツール拡張は、大きな言語モデルを改善するための効果的なプラクティスとして検証されている。
ツールインターフェース,すなわち textbfDELI を用いた推論ステップを考慮に入れた新しい手法を提案する。
CARPと他の6つのデータセットの実験結果から、提案されたDELIは、主に競合ベースラインを上回っていることが示された。
論文 参考訳(メタデータ) (2023-06-04T17:02:59Z) - MathPrompter: Mathematical Reasoning using Large Language Models [7.953723258038284]
大規模言語モデル (LLM) は算術的推論タスクを解く際の性能に制限がある。
MathPrompterはZero-shot-of- Thoughtプロンプト技術を使って複数の代数式やPython関数を生成し、異なる方法で同じ数学問題を解く。
論文 参考訳(メタデータ) (2023-03-04T04:43:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。