論文の概要: SymBa: Symbolic Backward Chaining for Multi-step Natural Language
Reasoning
- arxiv url: http://arxiv.org/abs/2402.12806v1
- Date: Tue, 20 Feb 2024 08:27:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-21 16:19:21.395044
- Title: SymBa: Symbolic Backward Chaining for Multi-step Natural Language
Reasoning
- Title(参考訳): symba:多段階自然言語推論のためのシンボリック後方連鎖
- Authors: Jinu Lee, Wonseok Hwang
- Abstract要約: 我々は,現在の後方連鎖実装の限界に対処するため,Symbic Backward Chaining(Symbolic Backward Chaining)を提案する。
SymBaでは、シンボリックトップダウンソルバが証明プロセス全体を制御し、LLMは、そのソルバがデッドエンドに遭遇したときのみ、単一の推論ステップを生成する。
この新しいソルバとLLMの統合により、SymBaは様々なマルチステップ推論ベンチマークにおいて、性能、証明忠実性、効率を大幅に改善する。
- 参考スコア(独自算出の注目度): 6.961946145048321
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large Language Models (LLMs) have recently demonstrated remarkable reasoning
ability as in Chain-of-thought prompting, but faithful multi-step reasoning
remains a challenge. We specifically focus on backward chaining, where the
query is recursively decomposed using logical rules until proven. To address
the limitations of current backward chaining implementations, we propose SymBa
(Symbolic Backward Chaining). In SymBa, the symbolic top-down solver controls
the entire proof process and the LLM is called to generate a single reasoning
step only when the solver encounters a dead end. By this novel solver-LLM
integration, while being able to produce an interpretable, structured proof,
SymBa achieves significant improvement in performance, proof faithfulness, and
efficiency in diverse multi-step reasoning benchmarks (ProofWriter,
Birds-Electricity, GSM8k, CLUTRR-TF, ECtHR Article 6) compared to backward
chaining baselines.
- Abstract(参考訳): 大規模言語モデル(LLM)は最近、チェーン・オブ・シンセサイティングのように顕著な推論能力を示したが、忠実な多段階推論は依然として課題である。
特に、クエリーが証明されるまで論理ルールを使って再帰的に分解される後方連鎖にフォーカスします。
現在の後方チェーン実装の限界に対処するために、symbolic backward chaining (symbolic backward chaining)を提案する。
symbaでは、シンボリックトップダウンソルバが証明プロセス全体を制御し、llmは、ソルバがデッドエンドに遭遇した場合にのみ単一の推論ステップを生成するために呼び出される。
この新しいソルバとLLMの統合により、解釈可能な構造化された証明を生成できる一方で、多段階推論ベンチマーク(ProofWriter, Birds-Electricity, GSM8k, CLUTRR-TF, ECtHR Article 6)における性能、証明忠実性、効率の大幅な向上を実現している。
関連論文リスト
- Divide and Conquer for Large Language Models Reasoning [53.27384085738965]
本稿では,大言語モデルにDivide and Conquer戦略を適用することを提案する。
まず、統計的信頼度スコアに基づいて、質問を異なるサブセットに分割する。
そして、ほぼ解決された集合を修正し、精巧に設計された手法で要求されるニュアンス処理を克服します。
論文 参考訳(メタデータ) (2024-01-10T14:38:46Z) - Neuro-Symbolic Integration Brings Causal and Reliable Reasoning Proofs [102.00359477458029]
本稿では,ニューラル・シンボリック統合法について述べる。
LLMフリーのシンボリック・ソルバを用いて、知識を用いた熟考的推論を行う。
論文 参考訳(メタデータ) (2023-11-16T11:26:21Z) - LINC: A Neurosymbolic Approach for Logical Reasoning by Combining
Language Models with First-Order Logic Provers [60.009969929857704]
論理的推論は、科学、数学、社会に潜在的影響を与える可能性のある人工知能にとって重要なタスクである。
本研究では、LINCと呼ばれるモジュール型ニューロシンボリックプログラミングのようなタスクを再構成する。
我々は,FOLIOとProofWriterのバランスの取れたサブセットに対して,ほぼすべての実験条件下で,3つの異なるモデルに対して顕著な性能向上を観察した。
論文 参考訳(メタデータ) (2023-10-23T17:58:40Z) - Resprompt: Residual Connection Prompting Advances Multi-Step Reasoning
in Large Language Models [75.62842701840543]
チェーン・オブ・シント(CoT)のプロンプトによって、大きな言語モデル(LLM)の推論の可能性は著しく解放された。
しかし、標準的なCoTは複数の推論ステップを必要とする問題では効果が低い。
LLMにおける多段階推論を推し進める新しいプロンプト戦略であるRESPROMPTを提案する。
論文 参考訳(メタデータ) (2023-10-07T08:56:28Z) - Enhancing Chain-of-Thoughts Prompting with Iterative Bootstrapping in
Large Language Models [85.07648361429816]
大規模言語モデル (LLM) は、ステップ・バイ・ステップ・チェーン・オブ・シークレット (CoT) をデモンストレーションとして組み込むことで、様々な推論タスクにおいて高い効果的な性能を達成することができる。
本稿では,イターCoT (Iterative bootstrapping in Chain-of-Thoughts Prompting) を導入する。
論文 参考訳(メタデータ) (2023-04-23T13:54:39Z) - LAMBADA: Backward Chaining for Automated Reasoning in Natural Language [11.096348678079574]
LAMBADAと呼ばれる逆チェインアルゴリズムは、推論を4つのサブモジュールに分解する。
LAMBADAは最先端のフォワード推論手法よりも精度が向上することを示す。
論文 参考訳(メタデータ) (2022-12-20T18:06:03Z) - Language Models Are Greedy Reasoners: A Systematic Formal Analysis of
Chain-of-Thought [10.524051272257614]
大規模言語モデル(LLM)は、チェーン・オブ・シークレット・プロンプトが与えられた顕著な推論能力を示している。
本稿では, PrOntoQAと呼ばれる合成質問応答データセットを提案し, それぞれの例を合成世界モデルとして生成する。
これにより、生成された連鎖を形式解析の象徴的な証明に解析することができる。
論文 参考訳(メタデータ) (2022-10-03T21:34:32Z) - Complexity-Based Prompting for Multi-Step Reasoning [72.0057198610614]
大規模言語モデルに対して,多段階推論を行うための課題について検討する。
中心的な疑問は、どの推論例が最も効果的なプロンプトを作るかである。
多段階推論のためのシンプルで効果的な例選択方式である複雑性ベースのプロンプトを提案する。
論文 参考訳(メタデータ) (2022-10-03T05:33:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。