論文の概要: AMR Parsing via Graph-Sequence Iterative Inference
- arxiv url: http://arxiv.org/abs/2004.05572v2
- Date: Wed, 29 Apr 2020 04:01:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 05:05:10.716149
- Title: AMR Parsing via Graph-Sequence Iterative Inference
- Title(参考訳): グラフシーケンス反復推論によるAMR解析
- Authors: Deng Cai and Wai Lam
- Abstract要約: 本稿では,AMR解析を入力シーケンスとインクリメンタルに構築されたグラフ上での2つの決定の連続として扱うエンド・ツー・エンドのモデルを提案する。
これら2つの質問に対する回答は相互因果関係であることを示す。
我々は、両方の視点でより良い回答を得るのに役立つ反復推論に基づくモデルを設計し、解析精度を大幅に改善する。
- 参考スコア(独自算出の注目度): 62.85003739964878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a new end-to-end model that treats AMR parsing as a series of dual
decisions on the input sequence and the incrementally constructed graph. At
each time step, our model performs multiple rounds of attention, reasoning, and
composition that aim to answer two critical questions: (1) which part of the
input \textit{sequence} to abstract; and (2) where in the output \textit{graph}
to construct the new concept. We show that the answers to these two questions
are mutually causalities. We design a model based on iterative inference that
helps achieve better answers in both perspectives, leading to greatly improved
parsing accuracy. Our experimental results significantly outperform all
previously reported \textsc{Smatch} scores by large margins. Remarkably,
without the help of any large-scale pre-trained language model (e.g., BERT),
our model already surpasses previous state-of-the-art using BERT. With the help
of BERT, we can push the state-of-the-art results to 80.2\% on LDC2017T10 (AMR
2.0) and 75.4\% on LDC2014T12 (AMR 1.0).
- Abstract(参考訳): 本稿では,AMR解析を入力シーケンスとインクリメンタルに構築されたグラフ上での2つの決定の連続として扱うエンド・ツー・エンドのモデルを提案する。
各段階において、本モデルでは、(1)入力の「textit{sequence}」のどの部分を抽象化するか、(2)出力の「textit{graph}」で新しい概念を構築するかという2つの重要な疑問に答えるために、複数の注意、推論、合成を行う。
この2つの質問に対する回答が相互因果関係であることを示す。
我々は、両方の視点でより良い回答を得るのに役立つ反復推論に基づくモデルを設計し、解析精度を大幅に改善する。
実験結果は,前回報告したすべての \textsc{smatch} スコアを大きく上回った。
注目すべきは、大規模な事前訓練された言語モデル(例えばBERT)の助けなしに、我々のモデルは、既にBERTを使った以前の最先端の言語モデルを上回っていることだ。
BERT の助けを借りて、最先端の結果を LDC2017T10 (AMR 2.0) で 80.2 %、 LDC2014T12 (AMR 1.0) で 75.4 % まで押し上げることができる。
関連論文リスト
- Less is More: One-shot Subgraph Reasoning on Large-scale Knowledge Graphs [49.547988001231424]
効率的かつ適応的な予測を実現するために,ワンショットサブグラフリンク予測を提案する。
設計原理は、KG全体に直接作用する代わりに、予測手順を2つのステップに分離する。
5つの大規模ベンチマークにおいて,効率の向上と性能の向上を実現している。
論文 参考訳(メタデータ) (2024-03-15T12:00:12Z) - MinPrompt: Graph-based Minimal Prompt Data Augmentation for Few-shot Question Answering [64.6741991162092]
オープンドメイン質問応答のための最小限のデータ拡張フレームワークMinPromptを提案する。
我々は、生テキストをグラフ構造に変換し、異なる事実文間の接続を構築する。
次に、グラフアルゴリズムを適用して、原文のほとんどの情報をカバーするのに必要な最小限の文の集合を識別する。
同定された文サブセットに基づいてQAペアを生成し、選択した文に基づいてモデルをトレーニングし、最終モデルを得る。
論文 参考訳(メタデータ) (2023-10-08T04:44:36Z) - RGAT: A Deeper Look into Syntactic Dependency Information for
Coreference Resolution [8.017036537163008]
我々は、事前学習されたBERTと構文関係グラフ注意ネットワーク(RGAT)を組み合わせたエンドツーエンドの解決法を提案する。
特に、RGATモデルが最初に提案され、次に、構文依存グラフを理解し、より優れたタスク固有の構文埋め込みを学ぶために使用される。
BERT埋め込みと構文埋め込みを組み合わせた統合アーキテクチャを構築し、下流タスクのブレンディング表現を生成する。
論文 参考訳(メタデータ) (2023-09-10T09:46:38Z) - A Question-Answering Approach to Key Value Pair Extraction from
Form-like Document Images [8.73248722579337]
質問応答(QA)に基づくキー-値ペア抽出手法KVPFormerを提案する。
本稿では,より高精度な解答予測を実現するために,粗大な解答予測手法を提案する。
提案したOursは,FUNSDおよびXFUNDデータセットの最先端結果を実現し,F1スコアのそれぞれ7.2%,13.2%を達成している。
論文 参考訳(メタデータ) (2023-04-17T02:55:31Z) - Tokenization Consistency Matters for Generative Models on Extractive NLP
Tasks [54.306234256074255]
生成モデルの訓練において一般的に無視されるトークン化の不整合の問題を特定する。
この問題は、入力と出力が無矛盾にトークン化されると、これらのタスクの抽出特性を損なう。
一貫性のあるトークン化では、ドメイン内のデータセットとドメイン外のデータセットの両方で、モデルのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2022-12-19T23:33:21Z) - Enriching Relation Extraction with OpenIE [70.52564277675056]
関係抽出(RE)は情報抽出(IE)のサブ分野である
本稿では,オープン情報抽出(OpenIE)の最近の取り組みがREの課題の改善にどのように役立つかを検討する。
本稿では,2つの注釈付きコーパスであるKnowledgeNetとFewRelを用いた実験により,拡張モデルの精度向上を実証した。
論文 参考訳(メタデータ) (2022-12-19T11:26:23Z) - Ensembling Graph Predictions for AMR Parsing [28.625065956013778]
多くの機械学習タスクでは、モデルはグラフのような構造データを予測するために訓練される。
本研究では,この問題を,グラフ予測の収集によって最も支持される最大のグラフのマイニングとして定式化する。
提案手法は、最先端のAMRの強度を組み合わせることで、5つの標準ベンチマークデータセットのどのモデルよりも精度の高い新しい予測を作成できることを示す。
論文 参考訳(メタデータ) (2021-10-18T09:35:39Z) - DYLE: Dynamic Latent Extraction for Abstractive Long-Input Summarization [19.693324720440017]
トランスフォーマーベースのモデルは、短いテキスト要約において最先端のパフォーマンスを達成した。
本稿では, 抽象的要約のための動的潜時抽出法を提案する。
我々のモデルは、GovReportの6.21 ROUGE-2の改善、QMSumの2.13 ROUGE-1の改善など、現在の最先端技術よりも大幅に優れています。
論文 参考訳(メタデータ) (2021-10-15T15:53:32Z) - Improving AMR Parsing with Sequence-to-Sequence Pre-training [39.33133978535497]
本稿では,Sequence-to-Sequence (seq2seq) AMR解析に焦点を当てる。
単体および関節の両方で事前学習モデルを構築するために,Seq2seq事前学習手法を提案する。
実験の結果,シングルモデルとジョイントモデルの両方で性能が有意に向上した。
論文 参考訳(メタデータ) (2020-10-05T04:32:47Z) - Structured Multimodal Attentions for TextVQA [57.71060302874151]
上述の2つの問題を主に解決するために,終端から終端までの構造化マルチモーダルアテンション(SMA)ニューラルネットワークを提案する。
SMAはまず、画像に現れるオブジェクト・オブジェクト・オブジェクト・テキスト・テキストの関係を符号化するために構造グラフ表現を使用し、その後、それを推論するためにマルチモーダルグラフアテンションネットワークを設計する。
提案モデルでは,テキストVQAデータセットとST-VQAデータセットの2つのタスクを事前学習ベースTAP以外のモデルで比較した。
論文 参考訳(メタデータ) (2020-06-01T07:07:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。