論文の概要: Teaching Neural Module Networks to Do Arithmetic
- arxiv url: http://arxiv.org/abs/2210.02703v1
- Date: Thu, 6 Oct 2022 06:38:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-07 16:16:47.765170
- Title: Teaching Neural Module Networks to Do Arithmetic
- Title(参考訳): ニューラルネットワークによる算数学習の指導
- Authors: Jiayi Chen and Xiao-Yu Guo and Yuan-Fang Li and Gholamreza Haffari
- Abstract要約: インタプリタと複雑な問題の間のギャップを埋めることで、NMNをアップグレードする。
数値的推論を行う加法加法および減算加法を導入する。
DROPのサブセットでは,提案手法によりNMNの数値推論能力が17.7%向上した。
- 参考スコア(独自算出の注目度): 54.06832128723388
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Answering complex questions that require multi-step multi-type reasoning over
raw text is challenging, especially when conducting numerical reasoning. Neural
Module Networks(NMNs), follow the programmer-interpreter framework and design
trainable modules to learn different reasoning skills. However, NMNs only have
limited reasoning abilities, and lack numerical reasoning capability. We
up-grade NMNs by: (a) bridging the gap between its interpreter and the complex
questions; (b) introducing addition and subtraction modules that perform
numerical reasoning over numbers. On a subset of DROP, experimental results
show that our proposed methods enhance NMNs' numerical reasoning skills by
17.7% improvement of F1 score and significantly outperform previous
state-of-the-art models.
- Abstract(参考訳): 原文上の多段階多型推論を必要とする複雑な質問への回答は,特に数値推論を行う場合には困難である。
Neural Module Networks(NMNs)はプログラマ-解釈フレームワークに従い、異なる推論スキルを学ぶためにトレーニング可能なモジュールを設計する。
しかし、NMNは推論能力が限られており、数値推論能力がない。
NMN をアップグレードします。
(a) その通訳と複雑な質問とのギャップを埋めること。
(b)数に対する数値推論を行う加算及び減算モジュールの導入。
DROPのサブセットでは,提案手法によりNMNの数値推論能力は17.7%向上し,従来の最先端モデルよりも大幅に向上した。
関連論文リスト
- Multimodal Representations for Teacher-Guided Compositional Visual
Reasoning [0.0]
NMNは統合モデルと比較して説明性の向上を提供する。
本稿では,大規模なクロスモーダルエンコーダによって得られた特徴を活用することを提案する。
スケジュールされた教師指導を含むNMN学習戦略を導入する。
論文 参考訳(メタデータ) (2023-10-24T07:51:08Z) - Disentangling Reasoning Capabilities from Language Models with
Compositional Reasoning Transformers [72.04044221898059]
ReasonFormerは、人間のモジュール的および構成的推論プロセスを反映するための統一的な推論フレームワークである。
表現モジュール(自動思考)と推論モジュール(制御思考)は、異なるレベルの認知を捉えるために切り離される。
統一された推論フレームワークは、単一のモデルで複数のタスクを解決し、エンドツーエンドでトレーニングされ、推論される。
論文 参考訳(メタデータ) (2022-10-20T13:39:55Z) - Improving Numerical Reasoning Skills in the Modular Approach for Complex
Question Answering on Text [39.22253030039486]
複雑な質問応答(CQA)をテキストで実現するアプローチとして、Neural Module Networks(NMN)がある。
我々は,NMNの数値推論能力を向上させるための効果的な手法を提案する。
論文 参考訳(メタデータ) (2021-09-06T08:34:31Z) - Weakly Supervised Neuro-Symbolic Module Networks for Numerical Reasoning [44.5641465035393]
Weakly-Supervised Neuro-Symbolic Module Network (WNSMN)を提案する。
クエリの依存性解析から得られたノイズの多いMRCプログラムを、ニューラルおよびシンボリック推論モジュールの両方に対する離散的なアクションとして実行し、応答マッチングからの離散的な報酬で強化学習フレームワークでエンドツーエンドにトレーニングする。
これは、ノイズの多いプログラムに対する明示的な離散的推論をエンドツーエンドで処理できるモジュラーネットワークの有効性と一般化性を示す。
論文 参考訳(メタデータ) (2021-01-28T03:36:09Z) - A Primer for Neural Arithmetic Logic Modules [2.4278445972594525]
本論文は,本分野の進展状況について論じる最初のものである。
NALUの欠点に着目して、最近のモジュールの設計選択を深く分析する。
既存の不整合を緩和するために、既存の算術NALMを比較したベンチマークを作成する。
論文 参考訳(メタデータ) (2021-01-23T16:09:16Z) - Text Modular Networks: Learning to Decompose Tasks in the Language of
Existing Models [61.480085460269514]
本稿では,既存のモデルで解けるより単純なモデルに分解することで,複雑なタスクを解くための解釈可能なシステムを構築するためのフレームワークを提案する。
我々はこのフレームワークを用いて、ニューラルネットワークのファクトイド単一スパンQAモデルとシンボリック電卓で答えられるサブクエストに分解することで、マルチホップ推論問題に答えられるシステムであるModularQAを構築する。
論文 参考訳(メタデータ) (2020-09-01T23:45:42Z) - Obtaining Faithful Interpretations from Compositional Neural Networks [72.41100663462191]
NLVR2およびDROPデータセット上でNMNの中間出力を評価する。
中間出力は期待出力と異なり,ネットワーク構造がモデル動作の忠実な説明を提供していないことを示す。
論文 参考訳(メタデータ) (2020-05-02T06:50:35Z) - iNALU: Improved Neural Arithmetic Logic Unit [2.331160520377439]
最近提案されたNeural Arithmetic Logic Unit (NALU)は、ネットワークのユニットによって数学的関係を明確に表現し、和、減算、乗算などの操作を学ぶことができる新しいニューラルネットワークである。
本稿では,本モデルが安定性の問題を解き,算術精度と収束性により元のNALUモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-03-17T10:37:22Z) - Neural Arithmetic Units [84.65228064780744]
ニューラルネットワークは複雑な関数を近似することができるが、実数に対して正確な算術演算を行うのに苦労する。
ニューラルネットワークコンポーネントとして、正確な加算と減算を学習可能なニューラル加算ユニット(NAU)と、ベクトルのサブセットを乗算可能なニューラル乗算ユニット(NMU)がある。
提案したユニットNAUとNMUは、従来のニューラルネットワークユニットと比較して、より一貫して収束し、パラメータを少なくし、より速く学習し、より大きな隠れたサイズに収束し、スパースと意味のある重みを得、負の値と小さな値に外挿することができる。
論文 参考訳(メタデータ) (2020-01-14T19:35:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。