論文の概要: Techniques to Improve Neural Math Word Problem Solvers
- arxiv url: http://arxiv.org/abs/2302.03145v1
- Date: Mon, 6 Feb 2023 22:41:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-08 18:04:04.615118
- Title: Techniques to Improve Neural Math Word Problem Solvers
- Title(参考訳): ニューラルネットワークを用いた単語問題解法の改良手法
- Authors: Youyuan Zhang
- Abstract要約: 最近のニューラルベースアプローチは、主に言語モデルを用いて問題テキストをエンコードし、量や演算子を反復的に数学的表現をデコードする。
本稿では,質問文を完全に活用し,段階的可換法則を保存するエンコーダ・デコーダアーキテクチャを提案する。
確立された4つのベンチマーク実験により、我々のフレームワークは最先端のニューラルMWPソルバより優れていることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Developing automatic Math Word Problem (MWP) solvers is a challenging task
that demands the ability of understanding and mathematical reasoning over the
natural language. Recent neural-based approaches mainly encode the problem text
using a language model and decode a mathematical expression over quantities and
operators iteratively. Note the problem text of a MWP consists of a context
part and a question part, a recent work finds these neural solvers may only
perform shallow pattern matching between the context text and the golden
expression, where question text is not well used. Meanwhile, existing decoding
processes fail to enforce the mathematical laws into the design, where the
representations for mathematical equivalent expressions are different. To
address these two issues, we propose a new encoder-decoder architecture that
fully leverages the question text and preserves step-wise commutative law.
Besides generating quantity embeddings, our encoder further encodes the
question text and uses it to guide the decoding process. At each step, our
decoder uses Deep Sets to compute expression representations so that these
embeddings are invariant under any permutation of quantities. Experiments on
four established benchmarks demonstrate that our framework outperforms
state-of-the-art neural MWP solvers, showing the effectiveness of our
techniques. We also conduct a detailed analysis of the results to show the
limitations of our approach and further discuss the potential future work. Code
is available at https://github.com/sophistz/Question-Aware-Deductive-MWP.
- Abstract(参考訳): 数学語問題の自動解法(MWP)の開発は、自然言語に対する理解と数学的推論の能力を必要とする課題である。
最近のニューラルベースアプローチは、主に言語モデルを用いて問題テキストをエンコードし、量や演算子を反復的に数学的表現をデコードする。
MWPの問題点テキストは、文脈部分と質問部分から構成されており、最近の研究では、これらのニューラルソルバは、文脈テキストと黄金表現との浅いパターンマッチングのみを行うことができ、質問テキストがあまり使われていない。
一方、既存の復号化プロセスは、数学的等価表現の表現が異なる設計に数学的法則を強制することができない。
これら2つの問題に対処するために,質問文を完全に活用し,段階的可換法則を保存するエンコーダ・デコーダアーキテクチャを提案する。
エンコーダは量埋め込みを生成するだけでなく、質問文をさらにエンコードし、復号処理のガイドに使用します。
各ステップにおいて、デコーダはDeep Setsを使用して表現表現を計算し、これらの埋め込みは任意の量の置換の下で不変である。
4つの確立されたベンチマーク実験により、我々のフレームワークは最先端のニューラルMWPソルバよりも優れており、我々の手法の有効性を示している。
また,提案手法の限界を示すために,結果の詳細な分析を行い,今後の課題についてさらに議論する。
コードはhttps://github.com/sophistz/question-aware-deductive-mwpで入手できる。
関連論文リスト
- Solving Math Word Problems with Reexamination [27.80592576792461]
モデルに依存しない擬似双対学習手法を提案する。
擬似双対タスクは、表現中の数字を元の単語問題に記入し、数字をマスクするものとして特に定義される。
提案手法は,複数の代表MWPソルバを実証実験により適用した場合に有効であることが確認された。
論文 参考訳(メタデータ) (2023-10-14T14:23:44Z) - Math Word Problem Solving by Generating Linguistic Variants of Problem
Statements [1.742186232261139]
本稿では,問題テキストの言語的変種生成に基づくMWP問題解決のためのフレームワークを提案する。
このアプローチでは、各変種問題を解決し、予測された表現を過半数の票で選択する。
本稿では,問題文の言語的変種に関するトレーニングと候補予測による投票により,モデルの数学的推論やロバスト性が改善されることを示す。
論文 参考訳(メタデータ) (2023-06-24T08:27:39Z) - Momentum Decoding: Open-ended Text Generation As Graph Exploration [49.812280360794894]
自動回帰言語モデル(LM)を用いたオープンエンドテキスト生成は、自然言語処理における中核的なタスクの1つである。
我々は、新しい視点から、すなわち、有向グラフ内の探索プロセスとして、オープンエンドテキスト生成を定式化する。
本稿では,新しい復号法であるtextitmomentum decodingを提案する。
論文 参考訳(メタデータ) (2022-12-05T11:16:47Z) - Revisiting the Roles of "Text" in Text Games [102.22750109468652]
本稿では,強化学習におけるテキストの役割について検討する。
本稿では,関連するコンテキスト情報を近似状態ハッシュに抽出する簡単な手法を提案する。
このような軽量なプラグインは最先端のテキストエージェントとの競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-15T21:52:39Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Tackling Math Word Problems with Fine-to-Coarse Abstracting and
Reasoning [22.127301797950572]
本稿では,局所的なきめ細かい情報と,その大域的な論理構造の両方を捉えるために,微粒な方法で数学語問題をモデル化することを提案する。
我々のモデルは局所的な変動に自然に敏感であり、目に見えない問題タイプにより良い一般化が可能である。
論文 参考訳(メタデータ) (2022-05-17T12:14:44Z) - MWP-BERT: A Strong Baseline for Math Word Problems [47.51572465676904]
数学語問題(英: Math word problem、MWP)とは、自然言語による問題記述の列を、実行可能な数学方程式に変換するタスクである。
近年, MWP の逐次モデル化は, 文脈理解の数学的側面から評価されているが, 事前学習言語モデル (PLM) はMWP の解法として研究されていない。
我々はMWP-BERTを導入し、テキスト記述と数理論理の整合性を捉える事前訓練されたトークン表現を得る。
論文 参考訳(メタデータ) (2021-07-28T15:28:41Z) - Neural-Symbolic Solver for Math Word Problems with Auxiliary Tasks [130.70449023574537]
我々のNS-rは、問題を読み取り、問題をエンコードする問題リーダーと、記号方程式を生成するプログラマと、答えを得るシンボリックエグゼキュータから構成される。
また, 目的表現の監督とともに, 4つの新たな補助的目的によって, 異なる記号的推論を強制的に行うように最適化した。
論文 参考訳(メタデータ) (2021-07-03T13:14:58Z) - Generating Math Word Problems from Equations with Topic Controlling and
Commonsense Enforcement [11.459200644989227]
本稿では,新しいテキスト生成モデルを提案する。
本モデルでは, 方程式を効果的に符号化するフレキシブルなスキームを提案し, 可変オートエンコーダ(VAE)による方程式エンコーダを強化する。
論文 参考訳(メタデータ) (2020-12-14T10:02:11Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。