論文の概要: A Weakly Supervised Model for Solving Math word Problems
- arxiv url: http://arxiv.org/abs/2104.06722v1
- Date: Wed, 14 Apr 2021 09:25:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-15 13:35:00.414436
- Title: A Weakly Supervised Model for Solving Math word Problems
- Title(参考訳): 数学用語問題を解くための弱教師付きモデル
- Authors: Oishik Chatterjee, Aashish Waikar, Vishwajeet Kumar, Ganesh
Ramakrishnan, Kavi Arya
- Abstract要約: 最終的な解答のみを監督として要求し, 数学的単語問題を解決するための弱監督モデルを提案する。
提案手法は標準のMath23Kデータセット上で56.0の精度を実現する。
- 参考スコア(独自算出の注目度): 13.50483322483309
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving math word problems (MWPs) is an important and challenging problem in
natural language processing. Existing approaches to solve MWPs require full
supervision in the form of intermediate equations. However, labeling every math
word problem with its corresponding equations is a time-consuming and expensive
task. In order to address this challenge of equation annotation, we propose a
weakly supervised model for solving math word problems by requiring only the
final answer as supervision. We approach this problem by first learning to
generate the equation using the problem description and the final answer, which
we then use to train a supervised MWP solver. We propose and compare various
weakly supervised techniques to learn to generate equations directly from the
problem description and answer. Through extensive experiment, we demonstrate
that even without using equations for supervision, our approach achieves an
accuracy of 56.0 on the standard Math23K dataset. We also curate and release a
new dataset for MWPs in English consisting of 10227 instances suitable for
training weakly supervised models.
- Abstract(参考訳): 数学語問題(MWP)の解法は自然言語処理において重要かつ困難な問題である。
mwp を解く既存のアプローチは、中間方程式の形で完全な監視を必要とする。
しかし、全ての数学用語問題を対応する方程式でラベル付けすることは、時間と費用のかかる作業である。
この方程式アノテーションの課題に対処するために,最終回答のみを監督として必要とすることで,数学用語問題を解くための弱教師付きモデルを提案する。
本稿では,まず問題記述と最終解法を用いて方程式を生成することでこの問題にアプローチし,教師付きMWPソルバを訓練する。
本稿では,問題記述と解答から直接方程式を生成することを学ぶために,様々な弱教師付き手法を提案し,比較する。
広範な実験を通じて,本手法が標準の math23k データセット上で 56.0 の精度を達成することを実証した。
また、弱教師付きモデルのトレーニングに適した10227インスタンスからなるMWPの新しいデータセットを英語でキュレートしてリリースする。
関連論文リスト
- From Large to Tiny: Distilling and Refining Mathematical Expertise for Math Word Problems with Weakly Supervision [12.023661884821554]
本稿では,大規模言語モデルから小型言語モデルへの数学的知識の伝達を徹底的に行う,革新的な2段階のフレームワークを提案する。
提案手法は,探索型'確率方程式'ペアにおける意味理解機能を完全に活用する。
Math23KとWeak12Kデータセットでは、既存の小さなモデルメソッドと比較して大幅にパフォーマンスが向上している。
論文 参考訳(メタデータ) (2024-03-21T13:29:54Z) - Solving Math Word Problems with Reexamination [27.80592576792461]
モデルに依存しない擬似双対学習手法を提案する。
擬似双対タスクは、表現中の数字を元の単語問題に記入し、数字をマスクするものとして特に定義される。
提案手法は,複数の代表MWPソルバを実証実験により適用した場合に有効であることが確認された。
論文 参考訳(メタデータ) (2023-10-14T14:23:44Z) - Learning by Analogy: Diverse Questions Generation in Math Word Problem [21.211970350827183]
AI技術を用いた数学語問題(MWP)の解法は、最近ディープニューラルネットワーク(DNN)の成功で大きな進歩を遂げた。
我々は、MWPソルバが様々な方法で定式化されるのと同じ問題をよりよく理解するために、類推による学習能力が不可欠であると主張する。
本稿では,MWPを多様だが一貫した問合せ/解法を生成することで,MWPの解法を初めて試みる。
論文 参考訳(メタデータ) (2023-06-15T11:47:07Z) - Leveraging Training Data in Few-Shot Prompting for Numerical Reasoning [10.889271604723312]
思考の連鎖(CoT)は、多くの自然言語処理タスクで有効であることが証明されている。
本研究では, 動的プログラム・プロンプトとプログラム蒸留という, 数発のプロンプトシナリオにおいて, トレーニングデータを活用するための2つの手法について検討する。
3つの標準数学語問題(MWP)データセットに関する実験により,これらの手法の有効性を実証した。
論文 参考訳(メタデータ) (2023-05-29T16:01:40Z) - Generalizing Math Word Problem Solvers via Solution Diversification [56.2690023011738]
我々は,解バッファと解判別器を導入することで,MWPソルバの新しいトレーニングフレームワークを設計する。
本フレームワークは,全Seq2Seq MWPソルバの完全・半弱・弱教師付きトレーニングに柔軟に適用可能である。
論文 参考訳(メタデータ) (2022-12-01T19:34:58Z) - Unbiased Math Word Problems Benchmark for Mitigating Solving Bias [72.8677805114825]
現在の問題解決者は、バイアス付きデータセットと不適切なトレーニング戦略によるデータバイアスと学習バイアスからなるバイアスを解決している。
実験により,MWP の解法は,すべての MWP の問題を多種多様な質問をカバーしないバイアス付きトレーニングデータセットにより容易にバイアスを受けられることを確認した。
MWPは複数の等価方程式によって自然に解けるが、現在のデータセットは1つの等価方程式のみを基底真理とする。
論文 参考訳(メタデータ) (2022-05-17T06:07:04Z) - Generate & Rank: A Multi-task Framework for Math Word Problems [48.99880318686938]
数学語問題(MWP)は自然言語処理において困難かつ重要な課題である。
生成事前学習型言語モデルに基づくフレームワークであるGenerate & Rankを提案する。
生成とランキングの併用トレーニングによって、モデルは自身のミスから学習し、正しい表現と間違った表現を区別することができる。
論文 参考訳(メタデータ) (2021-09-07T12:21:49Z) - MWP-BERT: A Strong Baseline for Math Word Problems [47.51572465676904]
数学語問題(英: Math word problem、MWP)とは、自然言語による問題記述の列を、実行可能な数学方程式に変換するタスクである。
近年, MWP の逐次モデル化は, 文脈理解の数学的側面から評価されているが, 事前学習言語モデル (PLM) はMWP の解法として研究されていない。
我々はMWP-BERTを導入し、テキスト記述と数理論理の整合性を捉える事前訓練されたトークン表現を得る。
論文 参考訳(メタデータ) (2021-07-28T15:28:41Z) - SMART: A Situation Model for Algebra Story Problems via Attributed
Grammar [74.1315776256292]
本稿では, 問題解決における人間の精神状態を表現する心理学研究から生まれた, emphsituation modelの概念を紹介する。
提案モデルでは,より優れた解釈性を保ちながら,従来のすべてのニューラルソルバを大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2020-12-27T21:03:40Z) - Learning by Fixing: Solving Math Word Problems with Weak Supervision [70.62896781438694]
数学用語問題(mwps)の従来のニューラルネットワークソルバは、完全な監視によって学習され、多様なソリューションを生み出すことができない。
MWPを学習するためのテキスト弱教師付きパラダイムを提案する。
この手法は最終回答のアノテーションのみを必要とし、単一の問題に対して様々な解決策を生成できる。
論文 参考訳(メタデータ) (2020-12-19T03:10:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。