論文の概要: Graph-to-Tree Neural Networks for Learning Structured Input-Output
Translation with Applications to Semantic Parsing and Math Word Problem
- arxiv url: http://arxiv.org/abs/2004.13781v2
- Date: Tue, 6 Oct 2020 09:07:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-15 22:37:17.275887
- Title: Graph-to-Tree Neural Networks for Learning Structured Input-Output
Translation with Applications to Semantic Parsing and Math Word Problem
- Title(参考訳): 構造化入出力翻訳学習のためのグラフからツリーへのニューラルネットワーク : 意味解析と数語問題への応用
- Authors: Shucheng Li, Lingfei Wu, Shiwei Feng, Fangli Xu, Fengyuan Xu and Sheng
Zhong
- Abstract要約: 本稿では,グラフエンコーダと階層木デコーダからなる新しいグラフからトレーニューラルネットワークを提案し,グラフ構造入力を符号化し,木構造出力を復号する。
我々の実験は、Graph2Treeモデルがこれらのタスクにおける他の最先端モデルの性能より優れているか、あるいは一致していることを示した。
- 参考スコア(独自算出の注目度): 33.610361579567794
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The celebrated Seq2Seq technique and its numerous variants achieve excellent
performance on many tasks such as neural machine translation, semantic parsing,
and math word problem solving. However, these models either only consider input
objects as sequences while ignoring the important structural information for
encoding, or they simply treat output objects as sequence outputs instead of
structural objects for decoding. In this paper, we present a novel
Graph-to-Tree Neural Networks, namely Graph2Tree consisting of a graph encoder
and a hierarchical tree decoder, that encodes an augmented graph-structured
input and decodes a tree-structured output. In particular, we investigated our
model for solving two problems, neural semantic parsing and math word problem.
Our extensive experiments demonstrate that our Graph2Tree model outperforms or
matches the performance of other state-of-the-art models on these tasks.
- Abstract(参考訳): 有名なSeq2Seqテクニックとその多くの変種は、ニューラルマシン翻訳、セマンティックパーシング、数学語の問題解決など、多くのタスクにおいて優れたパフォーマンスを達成する。
しかし、これらのモデルは入力オブジェクトをシーケンスとしてのみ考慮し、符号化のための重要な構造情報を無視するか、単に出力オブジェクトをデコードのための構造オブジェクトではなくシーケンス出力として扱う。
本稿では,グラフエンコーダと階層木デコーダから構成され,グラフ構造入力を符号化し,木構造出力を復号するグラフ-ト-ト-ト-ト-ニューラルネットワークを提案する。
特に,ニューラルセマンティクス解析と数学用語問題という2つの問題を解決するためのモデルについて検討した。
我々の大規模な実験は、Graph2Treeモデルがこれらのタスクにおける他の最先端モデルのパフォーマンスより優れているか、あるいは一致していることを示している。
関連論文リスト
- NodeFormer: A Scalable Graph Structure Learning Transformer for Node
Classification [70.51126383984555]
本稿では,任意のノード間のノード信号を効率的に伝搬する全ペアメッセージパッシング方式を提案する。
効率的な計算は、カーナライズされたGumbel-Softmax演算子によって実現される。
グラフ上のノード分類を含む様々なタスクにおいて,本手法の有望な有効性を示す実験を行った。
論文 参考訳(メタデータ) (2023-06-14T09:21:15Z) - Conversational Semantic Parsing using Dynamic Context Graphs [68.72121830563906]
汎用知識グラフ(KG)を用いた会話意味解析の課題を,数百万のエンティティと数千のリレーショナルタイプで検討する。
ユーザ発話を実行可能な論理形式にインタラクティブにマッピングできるモデルに焦点を当てる。
論文 参考訳(メタデータ) (2023-05-04T16:04:41Z) - Graph-to-Text Generation with Dynamic Structure Pruning [19.37474618180399]
入力グラフ表現条件を新たに生成したコンテキストに再エンコードする構造認識型クロスアテンション(SACA)機構を提案する。
LDC 2020T02 と ENT-DESC の2つのグラフ・トゥ・テキスト・データセットに対して,計算コストをわずかに増加させるだけで,最先端の新たな結果が得られる。
論文 参考訳(メタデータ) (2022-09-15T12:48:10Z) - Neural Topological Ordering for Computation Graphs [23.225391263047364]
エンコーダ-デコーダフレームワークを用いたトポロジ的順序付けのためのエンドツーエンドの機械学習に基づくアプローチを提案する。
このモデルでは,最大2kノードの合成グラフにおいて,いくつかのトポロジ的順序付けベースラインで,より高速に動作可能であることを示す。
論文 参考訳(メタデータ) (2022-07-13T00:12:02Z) - Compositionality-Aware Graph2Seq Learning [2.127049691404299]
グラフにおける合成性は、多くの graph2seq タスクの出力シーケンスにおける合成性に関連付けられる。
マルチレベルアテンションプーリング(MLAP)アーキテクチャを採用し、複数のレベルの情報ロケータからグラフ表現を集約する。
MLAPアーキテクチャを持つモデルは、7倍以上のパラメータで従来の最先端モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-01-28T15:22:39Z) - Computing Steiner Trees using Graph Neural Networks [1.0159681653887238]
本稿では,スタイナーツリー問題に取り組む。
低コストのSteiner木を計算するために4つの学習フレームワークを使用します。
我々の発見は,従来の2-近似アルゴリズムよりもGNN手法のアウト・オブ・ボックス適用の方が悪いことを示唆している。
論文 参考訳(メタデータ) (2021-08-18T19:55:16Z) - Structural Information Preserving for Graph-to-Text Generation [59.00642847499138]
グラフ・トゥ・テキスト生成の課題は、入力グラフの意味を保存した文を生成することである。
入力情報を保存するためのモデルとして,より豊かなトレーニング信号を活用することで,この問題に取り組むことを提案する。
グラフからテキストへの生成のための2つのベンチマークに関する実験は、最先端のベースラインに対するアプローチの有効性を示しています。
論文 参考訳(メタデータ) (2021-02-12T20:09:01Z) - Promoting Graph Awareness in Linearized Graph-to-Text Generation [72.83863719868364]
局所グラフ構造を符号化する線形化モデルの能力を検討する。
本研究は,モデルの暗黙のグラフ符号化の品質を高めるための解法である。
これらの消音足場は、低リソース設定における下流生成の大幅な改善につながることが分かりました。
論文 参考訳(メタデータ) (2020-12-31T18:17:57Z) - Recursive Tree Grammar Autoencoders [3.791857415239352]
本稿では,木をボトムアップ文法で符号化し,木を木文法で復号する,新しいオートエンコーダ手法を提案する。
提案手法は, 4つのベンチマークデータセットにおいて, 自動符号化誤差, トレーニング時間, 最適化スコアを改善することを実験的に示す。
論文 参考訳(メタデータ) (2020-12-03T17:37:25Z) - My Body is a Cage: the Role of Morphology in Graph-Based Incompatible
Control [65.77164390203396]
本稿では,グラフにエンコードされた形態情報により,その性能が向上しないことを示す既存手法に関する一連のアブリケーションを示す。
グラフ構造からGNNが抽出した利益は、メッセージパッシングのために生じる困難によって上回っているという仮説により、Amorpheusも提案する。
論文 参考訳(メタデータ) (2020-10-05T08:37:11Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。