論文の概要: Question Decomposition with Dependency Graphs
- arxiv url: http://arxiv.org/abs/2104.08647v1
- Date: Sat, 17 Apr 2021 21:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:37:58.253134
- Title: Question Decomposition with Dependency Graphs
- Title(参考訳): 依存グラフを用いた質問分解
- Authors: Matan Hasson and Jonathan Berant
- Abstract要約: 依存性グラフ(DG)に基づくQDMRを提示する。
補助グラフの監督で訓練された seq2seq モデルは、seq2seq モデルと比較して新しいドメインよりも優れています。
- 参考スコア(独自算出の注目度): 30.845326360305677
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: QDMR is a meaning representation for complex questions, which decomposes
questions into a sequence of atomic steps. While state-of-the-art QDMR parsers
use the common sequence-to-sequence (seq2seq) approach, a QDMR structure
fundamentally describes labeled relations between spans in the input question,
and thus dependency-based approaches seem appropriate for this task. In this
work, we present a QDMR parser that is based on dependency graphs (DGs), where
nodes in the graph are words and edges describe logical relations that
correspond to the different computation steps. We propose (a) a
non-autoregressive graph parser, where all graph edges are computed
simultaneously, and (b) a seq2seq parser that uses gold graph as auxiliary
supervision. We find that a graph parser leads to a moderate reduction in
performance (0.47 to 0.44), but to a 16x speed-up in inference time due to the
non-autoregressive nature of the parser, and to improved sample complexity
compared to a seq2seq model. Second, a seq2seq model trained with auxiliary
graph supervision has better generalization to new domains compared to a
seq2seq model, and also performs better on questions with long sequences of
computation steps.
- Abstract(参考訳): QDMRは複雑な質問の意味表現であり、質問を一連の原子ステップに分解する。
最先端のQDMRパーサは共通のシーケンス・ツー・シーケンス(seq2seq)アプローチを用いるが、QDMR構造は入力問題におけるスパン間のラベル付き関係を根本的に記述し、従って依存性ベースのアプローチがこのタスクに適しているように見える。
本研究では,依存グラフ(DG)に基づくQDMRパーサを提案する。グラフ内のノードは単語であり,エッジは異なる計算ステップに対応する論理的関係を記述する。
a)すべてのグラフエッジが同時に計算される非回帰グラフパーサ,および(b)ゴールドグラフを補助監督として使用するseq2seqパーサを提案する。
グラフパーサは性能を緩やかに低下させる(0.47から0.44)が、パーサの非自己回帰性に起因する推論時間の16倍の高速化と、seq2seqモデルと比較してサンプルの複雑さが向上する。
第二に、補助グラフによって訓練されたseq2seqモデルは、seq2seqモデルよりも新しいドメインへのより良い一般化と、長い計算ステップのシーケンスを持つ問題に対するパフォーマンスの向上を実現している。
関連論文リスト
- Discrete Graph Auto-Encoder [52.50288418639075]
離散グラフオートエンコーダ(DGAE)という新しいフレームワークを導入する。
まず、置換同変オートエンコーダを用いてグラフを離散潜在ノード表現の集合に変換する。
2番目のステップでは、離散潜在表現の集合をソートし、特別に設計された自己回帰モデルを用いてそれらの分布を学習する。
論文 参考訳(メタデータ) (2023-06-13T12:40:39Z) - Exploiting Abstract Meaning Representation for Open-Domain Question
Answering [18.027908933572203]
抽象的意味表現(AMR)グラフを用いて、複雑な意味情報を理解するモデルを支援する。
また,Natural Questions (NQ) と TriviaQA (TQ) の結果から,GST法が性能を著しく向上することを示した。
論文 参考訳(メタデータ) (2023-05-26T16:00:16Z) - Sequential Query Encoding For Complex Query Answering on Knowledge
Graphs [31.40820604209387]
本稿では,知識グラフ(KG)推論のためのクエリを符号化する代替手段として,シーケンシャルクエリ符号化(SQE)を提案する。
SQEはまず、探索ベースのアルゴリズムを使用して、計算グラフを一連のトークンに線形化し、次にシーケンスエンコーダを使用してベクトル表現を計算する。
その単純さにもかかわらず、SQEはFB15k、FB15k-237、NELLで最先端のニューラルネットワーク符号化性能を示す。
論文 参考訳(メタデータ) (2023-02-25T16:33:53Z) - Graph Attention with Hierarchies for Multi-hop Question Answering [19.398300844233837]
本稿では,HotpotQAに対するSOTA Graph Neural Network(GNN)モデルの拡張について述べる。
HotpotQAの実験は、提案された修正の効率を実証している。
論文 参考訳(メタデータ) (2023-01-27T15:49:50Z) - Hierarchical Phrase-based Sequence-to-Sequence Learning [94.10257313923478]
本稿では、学習中の帰納バイアスの源として階層的フレーズを取り入れ、推論中の明示的な制約として、標準的なシーケンス・ツー・シーケンス(seq2seq)モデルの柔軟性を維持するニューラルトランスデューサについて述べる。
本手法では,木が原文と対象句を階層的に整列するブラケット文法に基づく識別的導出法と,整列した句を1対1で翻訳するニューラルネットワークセク2セックモデルという2つのモデルを訓練する。
論文 参考訳(メタデータ) (2022-11-15T05:22:40Z) - GraphQ IR: Unifying Semantic Parsing of Graph Query Language with
Intermediate Representation [91.27083732371453]
本稿では,グラフクエリ言語,すなわちGraphQ IRに対する統合中間表現(IR)を提案する。
セマンティックギャップをブリッジするIRの自然言語のような表現と、グラフ構造を維持するための正式に定義された構文によって、ニューラルネットワークによるセマンティックパーシングは、ユーザクエリをより効果的にGraphQ IRに変換することができる。
我々のアプローチは、KQA Pro、Overnight、MetaQAにおける最先端のパフォーマンスを一貫して達成できます。
論文 参考訳(メタデータ) (2022-05-24T13:59:53Z) - Question-Answer Sentence Graph for Joint Modeling Answer Selection [122.29142965960138]
我々は,質問文,質問文,回答文のペア間のスコアを計算するための最先端(SOTA)モデルを訓練し,統合する。
オンライン推論は、目に見えないクエリのAS2タスクを解決するために実行される。
論文 参考訳(メタデータ) (2022-02-16T05:59:53Z) - Compositionality-Aware Graph2Seq Learning [2.127049691404299]
グラフにおける合成性は、多くの graph2seq タスクの出力シーケンスにおける合成性に関連付けられる。
マルチレベルアテンションプーリング(MLAP)アーキテクチャを採用し、複数のレベルの情報ロケータからグラフ表現を集約する。
MLAPアーキテクチャを持つモデルは、7倍以上のパラメータで従来の最先端モデルより優れていることを示す。
論文 参考訳(メタデータ) (2022-01-28T15:22:39Z) - Knowledge Graph Question Answering using Graph-Pattern Isomorphism [0.0]
TeBaQAは、SPARQLクエリの基本グラフパターンからグラフ同型に基づいて、質問に答えることを学ぶ。
TeBaQAはQALD-8で最先端のパフォーマンスを達成し、QALD-9とLC-QuAD v1で同等の結果を提供する。
論文 参考訳(メタデータ) (2021-03-11T16:03:24Z) - AMR Parsing via Graph-Sequence Iterative Inference [62.85003739964878]
本稿では,AMR解析を入力シーケンスとインクリメンタルに構築されたグラフ上での2つの決定の連続として扱うエンド・ツー・エンドのモデルを提案する。
これら2つの質問に対する回答は相互因果関係であることを示す。
我々は、両方の視点でより良い回答を得るのに役立つ反復推論に基づくモデルを設計し、解析精度を大幅に改善する。
論文 参考訳(メタデータ) (2020-04-12T09:15:21Z) - Break It Down: A Question Understanding Benchmark [79.41678884521801]
本稿では,質問に対する質問分解表現(QDMR)について紹介する。
QDMRは、質問に答えるために必要な自然言語で表されるステップの順序付きリストを構成する。
83万組の質問と彼らのQDMRを含むBreakデータセットをリリースする。
論文 参考訳(メタデータ) (2020-01-31T11:04:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。