論文の概要: Using Language Models For Knowledge Acquisition in Natural Language
Reasoning Problems
- arxiv url: http://arxiv.org/abs/2304.01771v1
- Date: Tue, 4 Apr 2023 13:01:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-05 13:48:13.603642
- Title: Using Language Models For Knowledge Acquisition in Natural Language
Reasoning Problems
- Title(参考訳): 自然言語推論問題における知識獲得のための言語モデルの利用
- Authors: Fangzhen Lin and Ziyi Shou and Chengcai Chen
- Abstract要約: 非自明な推論を必要とする自然言語問題では、大きな言語モデル(LLM)を使用してそれを行うには少なくとも2つの方法がある。
1つは直接解けるように求め、もう1つは問題テキストから事実を抽出し、それから定理証明器を使って解くことである。
本稿では,一連の論理語パズルに対してChatGPTとGPT4を用いた2つの手法を比較し,後者が正しいアプローチであると結論づける。
- 参考スコア(独自算出の注目度): 10.055143995729415
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For a natural language problem that requires some non-trivial reasoning to
solve, there are at least two ways to do it using a large language model (LLM).
One is to ask it to solve it directly. The other is to use it to extract the
facts from the problem text and then use a theorem prover to solve it. In this
note, we compare the two methods using ChatGPT and GPT4 on a series of logic
word puzzles, and conclude that the latter is the right approach.
- Abstract(参考訳): 非自明な推論を必要とする自然言語問題に対して、大規模な言語モデル(llm)を使用するには、少なくとも2つの方法がある。
ひとつは、それを直接解決するように頼むことです。
もう1つは、問題テキストから事実を抽出し、定理証明器を使って解決することである。
本稿では,一連の論理語パズルに対してChatGPTとGPT4を用いた2つの手法を比較し,後者が正しいアプローチであることを示す。
関連論文リスト
- INC-Math: Integrating Natural Language and Code for Enhanced Mathematical Reasoning in Large Language Models [21.082464220284127]
自然言語とコードを用いた数学的推論問題の解法に関する基礎的疑問を考察する。
その結果,LLMはコードよりも自然言語の推論が優れていることがわかった。
自然言語とコードは相補的な推論の形式として機能するが、特定のシナリオでは互いに負の形で影響を及ぼすことがある。
論文 参考訳(メタデータ) (2024-09-28T15:12:55Z) - Distilling Algorithmic Reasoning from LLMs via Explaining Solution Programs [2.3020018305241337]
大きな言語モデルの推論能力を改善する効果的な方法として、明確な推論経路を蒸留する手法が登場している。
本稿では, LLM から推論能力を抽出する手法を提案する。
提案実験は,ReasonerがCoderによるプログラム実装をより効果的にガイドできることを示す。
論文 参考訳(メタデータ) (2024-04-11T22:19:50Z) - Language Models as Compilers: Simulating Pseudocode Execution Improves Algorithmic Reasoning in Language Models [17.76252625790628]
本稿では,言語モデルの推論過程を2段階に分解するフレームワークであるThink-and-Executeについて述べる。
7つのアルゴリズム的推論タスクについて広範な実験を行い、思考と実行の有効性を実証する。
論文 参考訳(メタデータ) (2024-04-03T08:49:11Z) - Do Language Models Exhibit the Same Cognitive Biases in Problem Solving as Human Learners? [140.9751389452011]
本研究では,大言語モデル(LLM)の偏りを,算術語問題を解く際に,子どもに知られているものと関連づけて検討する。
我々は,これらの各テストに対して,問題特徴のきめ細かい制御を可能にするニューロシンボリックアプローチを用いて,新しい単語問題を生成する。
論文 参考訳(メタデータ) (2024-01-31T18:48:20Z) - Language Models can be Logical Solvers [99.40649402395725]
論理解法の推論過程を直接エミュレートする新しい言語モデルであるLoGiPTを導入する。
LoGiPTは、導出的ソルバの見えない推論過程を明らかにして精錬することから導かれる、新しく構築された命令チューニングデータセットに基づいて微調整される。
論文 参考訳(メタデータ) (2023-11-10T16:23:50Z) - Frontier Language Models are not Robust to Adversarial Arithmetic, or
"What do I need to say so you agree 2+2=5? [88.59136033348378]
言語モデルアライメントのための単純なテストベッドを提供する逆算術の問題を考察する。
この問題は自然言語で表される算術的な問題から成り、質問が完了する前に任意の逆文字列を挿入する。
これらの攻撃に対して、強化学習やエージェント構成ループを通じて、モデルを部分的に強化できることが示される。
論文 参考訳(メタデータ) (2023-11-08T19:07:10Z) - Large Language Models as Analogical Reasoners [155.9617224350088]
CoT(Chain-of- Thought)は、言語モデルのプロンプトとして、推論タスク全体で素晴らしいパフォーマンスを示す。
そこで本稿では,大規模言語モデルの推論プロセスを自動的にガイドする,新たなプロンプト手法であるアナログプロンプトを導入する。
論文 参考訳(メタデータ) (2023-10-03T00:57:26Z) - Solving Math Word Problems by Combining Language Models With Symbolic
Solvers [28.010617102877923]
大規模言語モデル(LLM)は複雑な推論と計算を行うために外部ツールと組み合わせることができる。
本稿では,変数と方程式の集合として単語問題を段階的に形式化するLLMと,外部記号解法を併用する手法を提案する。
提案手法は,GSM8Kベンチマークにおける元のPALに匹敵する精度を達成し,ALGEBRAでPALを絶対20%上回る性能を示した。
論文 参考訳(メタデータ) (2023-04-16T04:16:06Z) - PAL: Program-aided Language Models [112.94785609781503]
自然言語問題を理解するために,プログラム支援言語モデル(PaL)を提案する。
PaLはソリューションステップをPythonインタプリタのようなプログラムランタイムにオフロードする。
私たちは12のベンチマークで新しい最先端の結果を設定しました。
論文 参考訳(メタデータ) (2022-11-18T18:56:13Z) - Making Large Language Models Better Reasoners with Step-Aware Verifier [49.16750018427259]
DIVERSE(Diverse Verifier on Reasoning Step)は、言語モデルの推論能力をさらに強化する新しいアプローチである。
最新の言語モデルであるcode-davinci 上で DIVERSE を評価し,8つの推論ベンチマークのうち6つで新たな最先端結果が得られることを示す。
論文 参考訳(メタデータ) (2022-06-06T03:38:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。