論文の概要: Solving Arithmetic Word Problems by Scoring Equations with Recursive
Neural Networks
- arxiv url: http://arxiv.org/abs/2009.05639v2
- Date: Tue, 9 Mar 2021 12:49:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-19 21:24:42.186256
- Title: Solving Arithmetic Word Problems by Scoring Equations with Recursive
Neural Networks
- Title(参考訳): 再帰的ニューラルネットワークを用いた算術語問題の解法
- Authors: Klim Zaporojets, Giannis Bekoulis, Johannes Deleu, Thomas Demeester,
Chris Develder
- Abstract要約: 最近の研究は、算術語問題に対する答えを提供する候補解方程式の自動抽出とランキングを用いている。
そこで本研究では,Tree-RNN 構成を用いて,そのような候補解方程式を評価する新しい手法について検討する。
提案手法は,方程式の数学的表現を表現木に変換することで構成する。
- 参考スコア(独自算出の注目度): 25.08023032443234
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Solving arithmetic word problems is a cornerstone task in assessing language
understanding and reasoning capabilities in NLP systems. Recent works use
automatic extraction and ranking of candidate solution equations providing the
answer to arithmetic word problems. In this work, we explore novel approaches
to score such candidate solution equations using tree-structured recursive
neural network (Tree-RNN) configurations. The advantage of this Tree-RNN
approach over using more established sequential representations, is that it can
naturally capture the structure of the equations. Our proposed method consists
of transforming the mathematical expression of the equation into an expression
tree. Further, we encode this tree into a Tree-RNN by using different Tree-LSTM
architectures. Experimental results show that our proposed method (i) improves
overall performance with more than 3% accuracy points compared to previous
state-of-the-art, and with over 15% points on a subset of problems that require
more complex reasoning, and (ii) outperforms sequential LSTMs by 4% accuracy
points on such more complex problems.
- Abstract(参考訳): 算術語問題を解くことは、NLPシステムにおける言語理解と推論能力を評価するための基礎課題である。
最近の研究は、算術語問題に対する答えを提供する候補解方程式の自動抽出とランキングを用いている。
本研究では,木構造再帰的ニューラルネットワーク(Tree-RNN)の構成を用いて,そのような候補解方程式を評価する新しい手法を提案する。
このtree-rnnアプローチのより確立されたシーケンシャル表現を用いた利点は、自然に方程式の構造を捉えることができることである。
提案手法は,方程式の数学的表現を表現木に変換することで構成する。
さらに,この木をツリー-LSTMアーキテクチャを用いてツリー-RNNにエンコードする。
実験の結果,提案手法が有効であることがわかった。
(i)従来の最先端技術に比べて3%以上の精度で全体の性能を向上し、さらに複雑な推論を必要とする問題のサブセットでは15%以上向上している。
(ii) より複雑な問題に対して, 逐次LSTMの精度を4%向上させる。
関連論文リスト
- Guiding Word Equation Solving using Graph Neural Networks (Extended Technical Report) [0.0]
本稿では,単語方程式を解くためのグラフニューラルネットワーク誘導アルゴリズムを提案する。
このアルゴリズムは方程式の各辺の最初の項を反復的に書き直し、木のような探索空間を生み出す。
人工および実世界のベンチマークで実験を行う。
論文 参考訳(メタデータ) (2024-11-19T14:15:34Z) - LiteSearch: Efficacious Tree Search for LLM [70.29796112457662]
本研究では,動的ノード選択とノードレベルの探索予算を備えた新しいガイド付き木探索アルゴリズムを提案する。
GSM8KおよびTabMWPデータセットを用いて行った実験により,本手法はベースライン法に比べて計算コストが大幅に低いことを示した。
論文 参考訳(メタデータ) (2024-06-29T05:14:04Z) - TreeDQN: Learning to minimize Branch-and-Bound tree [78.52895577861327]
Branch-and-Boundは、Mixed Linear Programsという形で最適化タスクを解決するための便利なアプローチである。
解法の効率は、分割する変数を選択するのに使用される分岐に依存する。
分岐を効率的に学習できる強化学習法を提案する。
論文 参考訳(メタデータ) (2023-06-09T14:01:26Z) - Learning Branching Heuristics from Graph Neural Networks [1.4660170768702356]
まず,確率論的手法を用いて設計した新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のアプローチは、AIで使用される古典的なバックトラッキングアルゴリズムの強化にGNNを適用する新しい方法を導入する。
論文 参考訳(メタデータ) (2022-11-26T00:01:01Z) - A Recursively Recurrent Neural Network (R2N2) Architecture for Learning
Iterative Algorithms [64.3064050603721]
本研究では,リカレントニューラルネットワーク (R2N2) にランゲ・クッタニューラルネットワークを一般化し,リカレントニューラルネットワークを最適化した反復アルゴリズムの設計を行う。
本稿では, 線形方程式系に対するクリロフ解法, 非線形方程式系に対するニュートン・クリロフ解法, 常微分方程式に対するルンゲ・クッタ解法と類似の繰り返しを計算問題クラスの入力・出力データに対して提案した超構造内における重みパラメータの正規化について述べる。
論文 参考訳(メタデータ) (2022-11-22T16:30:33Z) - Learning to Prune Instances of Steiner Tree Problem in Graphs [0.47138177023764655]
ノードの集合が与えられるグラフ上のスタイナー木問題を考える。
目的は、追加ノードを含むすべてのノードを含むツリーのサブグラフを見つけることである。
論文 参考訳(メタデータ) (2022-08-25T10:31:00Z) - What's Wrong with Deep Learning in Tree Search for Combinatorial
Optimization [8.879790406465556]
本稿では、NP-hard Maximum Independent Set問題に対するオープンソースのベンチマークスイートについて、その重み付けと非重み付けの両変種について述べる。
また,Li らによる木探索アルゴリズム (NeurIPS 2018) の詳細な解析を行い,小型および大規模合成および実世界のグラフ上で様々な構成を検証した。
木探索で用いられるグラフ畳み込みネットワークは,解構造の有意な表現を学ばず,実際にランダムな値に置き換えることができることを示す。
論文 参考訳(メタデータ) (2022-01-25T17:37:34Z) - Deterministic Iteratively Built KD-Tree with KNN Search for Exact
Applications [2.7325238096808318]
K-Nearest Neighbors (KNN)サーチは、ロボット工学や自動運転車に応用された人工知能ソフトウェアの基本アルゴリズムである。
二分木と同様に、kd-treesはオンラインアプリケーションに新しいデータが付加され、木が再構築されない限り、検索性能が急速に低下する可能性があるため、不均衡になる。
クエリ結果の正確さを損なうことなく、ツリー再構築の回数を減らす「インターバルkd-treesのフォレスト」を提示する。
論文 参考訳(メタデータ) (2021-06-07T17:09:22Z) - Recognizing and Verifying Mathematical Equations using Multiplicative
Differential Neural Units [86.9207811656179]
メモリ拡張ニューラルネットワーク(NN)は、高次、メモリ拡張外挿、安定した性能、より高速な収束を実現することができることを示す。
本モデルでは,現在の手法と比較して1.53%の精度向上を達成し,2.22%のtop-1平均精度と2.96%のtop-5平均精度を達成している。
論文 参考訳(メタデータ) (2021-04-07T03:50:11Z) - Recursive Top-Down Production for Sentence Generation with Latent Trees [77.56794870399288]
自然および合成言語に対する文脈自由文法の生成特性をモデル化する。
潜伏二分木構造にN$の葉を持つ動的プログラミングアルゴリズムを提案する。
また,Multi30kデータセットを用いたドイツ語と英語の翻訳実験を行った。
論文 参考訳(メタデータ) (2020-10-09T17:47:16Z) - Strong Generalization and Efficiency in Neural Programs [69.18742158883869]
本稿では,ニューラルプログラム誘導の枠組みを強く一般化する効率的なアルゴリズムを学習する問題について検討する。
ニューラルネットワークの入力/出力インターフェースを慎重に設計し、模倣することで、任意の入力サイズに対して正しい結果を生成するモデルを学ぶことができる。
論文 参考訳(メタデータ) (2020-07-07T17:03:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。