論文の概要: Learning to Reason Deductively: Math Word Problem Solving as Complex
Relation Extraction
- arxiv url: http://arxiv.org/abs/2203.10316v1
- Date: Sat, 19 Mar 2022 12:37:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-26 19:36:54.672909
- Title: Learning to Reason Deductively: Math Word Problem Solving as Complex
Relation Extraction
- Title(参考訳): 推論への学習 : 複雑な関係抽出としての数学語問題解法
- Authors: Zhanming Jie, Jierui Li, Wei Lu
- Abstract要約: 数学用語の問題を解くには、テキストの量に対する演能的な推論が必要である。
近年の研究は、式を生成するためのシーケンス・ツー・シークエンスまたはシーケンス・トゥ・ツリーモデルに大きく依存している。
本稿では,目的表現を反復的に構築するための説明可能な推論ステップを提案する。
- 参考スコア(独自算出の注目度): 10.721488421356053
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Solving math word problems requires deductive reasoning over the quantities
in the text. Various recent research efforts mostly relied on
sequence-to-sequence or sequence-to-tree models to generate mathematical
expressions without explicitly performing relational reasoning between
quantities in the given context. While empirically effective, such approaches
typically do not provide explanations for the generated expressions. In this
work, we view the task as a complex relation extraction problem, proposing a
novel approach that presents explainable deductive reasoning steps to
iteratively construct target expressions, where each step involves a primitive
operation over two quantities defining their relation. Through extensive
experiments on four benchmark datasets, we show that the proposed model
significantly outperforms existing strong baselines. We further demonstrate
that the deductive procedure not only presents more explainable steps but also
enables us to make more accurate predictions on questions that require more
complex reasoning.
- Abstract(参考訳): 数学的な単語の問題を解決するには、テキストの量に対する推論が必要である。
近年の様々な研究は、与えられた文脈で量間の関係推論を明示的に行なわずに数学的表現を生成するために、シーケンス・ツー・シーケンスまたはシーケンス・トゥ・ツリーモデルに主に依存している。
経験的に有効ではあるが、そのようなアプローチは一般的に生成された式の説明を提供しない。
本研究では,この課題を複雑な関係抽出問題とみなし,目的表現を反復的に構築するための説明可能な推論ステップを提案する。
4つのベンチマークデータセットの広範な実験を通して、提案モデルが既存の強いベースラインを大幅に上回ることを示す。
さらに,より説明可能な手順を示すだけでなく,より複雑な推論を必要とする質問に対して,より正確な予測を行うことができることを示す。
関連論文リスト
- H-STAR: LLM-driven Hybrid SQL-Text Adaptive Reasoning on Tables [56.73919743039263]
本稿では,2段階のプロセスにシンボル的アプローチと意味的アプローチ(テキスト的アプローチ)を統合し,制約に対処する新しいアルゴリズムを提案する。
実験の結果,H-STARは3つの質問応答(QA)と事実検証データセットにおいて,最先端の手法を大幅に上回っていることがわかった。
論文 参考訳(メタデータ) (2024-06-29T21:24:19Z) - The Impact of Reasoning Step Length on Large Language Models [40.546685248243534]
思考の連鎖(CoT)は、大きな言語モデルの推論能力を改善する上で重要である。
プロンプトにおけるCoTの有効性と推論ステップの長さの相関について検討した。
論文 参考訳(メタデータ) (2024-01-10T04:37:38Z) - Deductive Verification of Chain-of-Thought Reasoning [22.79166959432764]
大型言語モデル(LLM)は、様々な推論タスクを実行する上で、Chain-of-Thoughtの恩恵を受ける。
CoTはモデルがより包括的な推論プロセスを生成することを可能にするが、中間的推論ステップに重点を置くことは、必然的に幻覚や累積エラーをもたらす可能性がある。
本研究では,自然言語に基づく帰納的推論形式であるNatural Programを提案する。
論文 参考訳(メタデータ) (2023-06-06T17:18:56Z) - Faith and Fate: Limits of Transformers on Compositionality [109.79516190693415]
3つの代表的構成課題にまたがる変圧器大言語モデルの限界について検討する。
これらのタスクは、問題をサブステップに分割し、これらのステップを正確な答えに合成する必要があります。
実験結果から,多段階合成推論を線形化部分グラフマッチングに還元することにより,トランスフォーマーLLMが構成課題を解くことが示唆された。
論文 参考訳(メタデータ) (2023-05-29T23:24:14Z) - MetaLogic: Logical Reasoning Explanations with Fine-Grained Structure [129.8481568648651]
複雑な実生活シナリオにおけるモデルの論理的推論能力を調べるためのベンチマークを提案する。
推論のマルチホップ連鎖に基づいて、説明形式は3つの主成分を含む。
この新たな説明形式を用いて,現在のベストモデルの性能を評価した。
論文 参考訳(メタデータ) (2022-10-22T16:01:13Z) - Learning to Reason With Relational Abstractions [65.89553417442049]
関係抽象化の考え方を用いて,言語モデルにおいてより強力な推論能力を構築する方法について検討する。
このようなシーケンスをプロンプトとして提供したモデルでは,タスクの精度が大幅に向上することがわかった。
論文 参考訳(メタデータ) (2022-10-06T00:27:50Z) - Rationale-Augmented Ensembles in Language Models [53.45015291520658]
我々は、数発のテキスト内学習のための合理化促進策を再考する。
我々は、出力空間における合理的サンプリングを、性能を確実に向上させるキーコンポーネントとして特定する。
有理拡張アンサンブルは既存のプロンプト手法よりも正確で解釈可能な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-07-02T06:20:57Z) - Pushing the Limits of Rule Reasoning in Transformers through Natural
Language Satisfiability [30.01308882849197]
本稿では,アルゴリズム推論データセットを作成するための新しい手法を提案する。
鍵となる考え方は、ハードプロポーズSAT問題の経験的なサンプリングや、言語に関する複雑性理論的な研究から洞察を得ることである。
十分なトレーニングデータを得た現在のトランスフォーマーは、結果のNLSat問題を解決するのに驚くほど堅牢であることがわかった。
論文 参考訳(メタデータ) (2021-12-16T17:47:20Z) - Discrete Reasoning Templates for Natural Language Understanding [79.07883990966077]
我々は,複雑な質問をより単純な質問に分解する手法を提案する。
事前定義された推論テンプレートの指示に従って最終回答を導出する。
我々のアプローチは、解釈可能でありながら最先端技術と競合し、監督をほとんど必要としないことを示す。
論文 参考訳(メタデータ) (2021-04-05T18:56:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。