論文の概要: Towards Tractable Mathematical Reasoning: Challenges, Strategies, and
Opportunities for Solving Math Word Problems
- arxiv url: http://arxiv.org/abs/2111.05364v1
- Date: Fri, 29 Oct 2021 05:20:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-14 16:31:15.976882
- Title: Towards Tractable Mathematical Reasoning: Challenges, Strategies, and
Opportunities for Solving Math Word Problems
- Title(参考訳): トレーサブルな数学的推論に向けて : 数学語問題解決への挑戦,戦略,機会
- Authors: Keyur Faldu, Amit Sheth, Prashant Kikani, Manas Gaur, Aditi Avasthi
- Abstract要約: 自然言語を用いた数学単語問題の解法として,非神経的・神経的手法を検証した。
これらの手法が一般化可能であり、数学的に合理的であり、解釈可能であり、説明可能であることを強調する。
技術的アプローチについて議論し、MWPを解くための直感的な設計選択の進化を概観し、数学的推論能力について検討する。
- 参考スコア(独自算出の注目度): 4.309840398782996
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Mathematical reasoning would be one of the next frontiers for artificial
intelligence to make significant progress. The ongoing surge to solve math word
problems (MWPs) and hence achieve better mathematical reasoning ability would
continue to be a key line of research in the coming time. We inspect non-neural
and neural methods to solve math word problems narrated in a natural language.
We also highlight the ability of these methods to be generalizable,
mathematically reasonable, interpretable, and explainable. Neural approaches
dominate the current state of the art, and we survey them highlighting three
strategies to MWP solving: (1) direct answer generation, (2) expression tree
generation for inferring answers, and (3) template retrieval for answer
computation. Moreover, we discuss technological approaches, review the
evolution of intuitive design choices to solve MWPs, and examine them for
mathematical reasoning ability. We finally identify several gaps that warrant
the need for external knowledge and knowledge-infused learning, among several
other opportunities in solving MWPs.
- Abstract(参考訳): 数学的推論は、人工知能が大きな進歩を遂げる次のフロンティアの1つである。
数学語問題(MWP)を解き、より良い数学的推論能力を達成するために進行中の急上昇は、今後の研究の鍵となるものとなるだろう。
自然言語を用いた数学単語問題の解法として,非神経的・神経的手法を検証した。
また,これらの手法が一般化可能であり,数学的に合理的であり,解釈可能であり,説明可能であることも強調する。
本稿では,mwpの解法として,(1)直接解答生成,(2)推論のための表現木生成,(3)解答計算のためのテンプレート検索の3つの手法に注目した。
さらに,技術アプローチを議論し,mwpを解くための直感的設計選択の進化をレビューし,数学的推論能力について検討する。
MWPの解決には,外部知識と知識注入学習の必要性を保証できるいくつかのギャップがある。
関連論文リスト
- Mathify: Evaluating Large Language Models on Mathematical Problem Solving Tasks [34.09857430966818]
我々は,11番目と12番目の標準数学 NCERT 教科書から得られた数学データセット "MathQuest" を紹介する。
LLaMA-2, WizardMath, MAmmoTHの3つの大きな言語モデルを用いた微調整実験を行った。
この3つのモデルのうち,MAmmoTH-13Bが最も熟練したモデルとして登場し,提示された数理問題の解法において,最高レベルの能力を達成した。
論文 参考訳(メタデータ) (2024-04-19T08:45:42Z) - MathScale: Scaling Instruction Tuning for Mathematical Reasoning [70.89605383298331]
大規模言語モデル(LLM)は問題解決において顕著な能力を示した。
しかし、数学的な問題を解く能力は依然として不十分である。
高品質な数学的推論データを作成するためのシンプルでスケーラブルな方法であるMathScaleを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:42:59Z) - Do Language Models Exhibit the Same Cognitive Biases in Problem Solving as Human Learners? [140.9751389452011]
本研究では,大言語モデル(LLM)の偏りを,算術語問題を解く際に,子どもに知られているものと関連づけて検討する。
我々は,これらの各テストに対して,問題特徴のきめ細かい制御を可能にするニューロシンボリックアプローチを用いて,新しい単語問題を生成する。
論文 参考訳(メタデータ) (2024-01-31T18:48:20Z) - Techniques to Improve Neural Math Word Problem Solvers [0.0]
最近のニューラルベースアプローチは、主に言語モデルを用いて問題テキストをエンコードし、量や演算子を反復的に数学的表現をデコードする。
本稿では,質問文を完全に活用し,段階的可換法則を保存するエンコーダ・デコーダアーキテクチャを提案する。
確立された4つのベンチマーク実験により、我々のフレームワークは最先端のニューラルMWPソルバより優れていることが示された。
論文 参考訳(メタデータ) (2023-02-06T22:41:51Z) - Towards a Holistic Understanding of Mathematical Questions with
Contrastive Pre-training [65.10741459705739]
本稿では,数学的問題表現,すなわち QuesCo に対する対照的な事前学習手法を提案する。
まず、コンテンツレベルと構造レベルを含む2段階の質問強化を設計し、類似した目的で文字通り多様な質問ペアを生成する。
そこで我々は,知識概念の階層的情報を完全に活用するために,知識階層を意識したランク戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T14:23:29Z) - A Survey of Deep Learning for Mathematical Reasoning [71.88150173381153]
我々は過去10年間の数学的推論とディープラーニングの交差点における重要なタスク、データセット、方法についてレビューする。
大規模ニューラルネットワークモデルの最近の進歩は、新しいベンチマークと、数学的推論にディープラーニングを使用する機会を開放している。
論文 参考訳(メタデータ) (2022-12-20T18:46:16Z) - JiuZhang: A Chinese Pre-trained Language Model for Mathematical Problem
Understanding [74.12405417718054]
本稿では,中国初の数学的事前学習言語モデル(PLM)を提示することにより,機械の数学的知性向上を目指す。
他の標準のNLPタスクとは異なり、数学的テキストは問題文に数学的用語、記号、公式を含むため理解が難しい。
基礎課程と上級課程の両方からなる数学PLMの学習を改善するための新しいカリキュラム事前学習手法を設計する。
論文 参考訳(メタデータ) (2022-06-13T17:03:52Z) - Why are NLP Models Fumbling at Elementary Math? A Survey of Deep
Learning based Word Problem Solvers [7.299537282917047]
単語問題を解くために開発された様々なモデルについて批判的に検討する。
学術的な関心が豊富にあるにもかかわらず、主に使われている実験とデータセットの設計がいまだに停滞している理由を、一歩後退して分析する。
論文 参考訳(メタデータ) (2022-05-31T10:51:25Z) - Extracting the Unknown from Long Math Problems [8.19841678851784]
長い数学問題の仕様における未知の認識タスクを通じて問題理解を容易にする計算手法を提案する。
実験の結果,学習モデルがタスクに対して強い結果をもたらすことが示され,長い数学問題を理解するための人間の解釈可能でモジュール的なアプローチへの第一歩として期待できる。
論文 参考訳(メタデータ) (2021-03-22T17:51:10Z) - Machine Number Sense: A Dataset of Visual Arithmetic Problems for
Abstract and Relational Reasoning [95.18337034090648]
文法モデルを用いて自動生成される視覚的算術問題からなるデータセット、MNS(Machine Number Sense)を提案する。
これらの視覚的算術問題は幾何学的フィギュアの形をしている。
我々は、この視覚的推論タスクのベースラインとして、4つの主要なニューラルネットワークモデルを用いて、MNSデータセットをベンチマークする。
論文 参考訳(メタデータ) (2020-04-25T17:14:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。