論文の概要: Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2005.05806v2
- Date: Wed, 13 May 2020 08:44:37 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:10:18.706998
- Title: Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension
- Title(参考訳): 多粒度機械読解のためのグラフアテンションネットワークによる文書モデリング
- Authors: Bo Zheng, Haoyang Wen, Yaobo Liang, Nan Duan, Wanxiang Che, Daxin
Jiang, Ming Zhou and Ting Liu
- Abstract要約: Natural Questionsは、新しい挑戦的な機械読解ベンチマークである。
解答は2つあり、長解(典型的には1段落)と短解(長解の内にある1つ以上の実体)である。
既存の方法は、これらの2つのサブタスクをトレーニング中に個別に扱い、依存関係を無視します。
本稿では,文書を階層的にモデル化する多層機械読解フレームワークを提案する。
- 参考スコア(独自算出の注目度): 127.3341842928421
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Natural Questions is a new challenging machine reading comprehension
benchmark with two-grained answers, which are a long answer (typically a
paragraph) and a short answer (one or more entities inside the long answer).
Despite the effectiveness of existing methods on this benchmark, they treat
these two sub-tasks individually during training while ignoring their
dependencies. To address this issue, we present a novel multi-grained machine
reading comprehension framework that focuses on modeling documents at their
hierarchical nature, which are different levels of granularity: documents,
paragraphs, sentences, and tokens. We utilize graph attention networks to
obtain different levels of representations so that they can be learned
simultaneously. The long and short answers can be extracted from
paragraph-level representation and token-level representation, respectively. In
this way, we can model the dependencies between the two-grained answers to
provide evidence for each other. We jointly train the two sub-tasks, and our
experiments show that our approach significantly outperforms previous systems
at both long and short answer criteria.
- Abstract(参考訳): Natural Questionsは、2つのきめ細かな回答を持つ新しい挑戦的な機械読解ベンチマークで、長い回答(通常は1段落)と短い回答(長い回答の中の1つ以上のエンティティ)である。
このベンチマークにおける既存のメソッドの有効性にもかかわらず、トレーニング中にこれらの2つのサブタスクを個別に扱い、依存関係を無視している。
この問題に対処するために,我々は,文書,段落,文,トークンといった粒度が異なる階層的性質の文書をモデル化することに焦点を当てた,新しい多粒度機械読解フレームワークを提案する。
グラフ注意ネットワークを用いて、異なるレベルの表現を同時に学習できるようにします。
長文と短文の回答は、それぞれ段落レベルの表現とトークンレベルの表現から抽出できる。
このようにして、2つの粒度の答え間の依存関係をモデル化し、互いに証拠を与えることができます。
我々は,2つのサブタスクを共同で訓練し,実験により,我々のアプローチが,従来のシステムよりも長文と短文の両方の回答基準において有意に優れていることを示した。
関連論文リスト
- Recurrent Attention Networks for Long-text Modeling [14.710722261441822]
本稿では, 自己注意の繰り返し動作を可能にするために, RAN(Recurrent Attention Network) という長文符号化モデルを提案する。
RANはトークンレベルの表現とドキュメントレベルの表現の両方でグローバルなセマンティクスを抽出することができ、シーケンシャルタスクと分類タスクの両方と本質的に互換性がある。
論文 参考訳(メタデータ) (2023-06-12T03:28:33Z) - UniKGQA: Unified Retrieval and Reasoning for Solving Multi-hop Question
Answering Over Knowledge Graph [89.98762327725112]
KGQA(Multi-hop Question Answering over Knowledge Graph)は、自然言語の質問で言及されているトピックエンティティから、複数のホップを持つ回答エンティティを見つけることを目的としている。
我々は、モデルアーキテクチャとパラメータ学習の両方において、検索と推論を統合することで、マルチホップKGQAタスクの新しいアプローチであるUniKGQAを提案する。
論文 参考訳(メタデータ) (2022-12-02T04:08:09Z) - Summarization with Graphical Elements [55.5913491389047]
本稿では,グラフィカル要素による要約という新しい課題を提案する。
タスクの研究を支援するために,高品質なラベル付きデータセットを収集する。
論文 参考訳(メタデータ) (2022-04-15T17:16:41Z) - Deep Understanding based Multi-Document Machine Reading Comprehension [22.319892892352414]
本稿では,多文書機械読解のための深い理解に基づくモデルを提案する。
単語の意味を正確に理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価した。
論文 参考訳(メタデータ) (2022-02-25T12:56:02Z) - MGA-VQA: Multi-Granularity Alignment for Visual Question Answering [75.55108621064726]
視覚的な質問に答えることを学ぶことは、マルチモーダル入力が2つの特徴空間内にあるため、難しい作業である。
視覚質問応答タスク(MGA-VQA)のための多言語アライメントアーキテクチャを提案する。
我々のモデルはアライメントを異なるレベルに分割し、追加のデータやアノテーションを必要とせずにより良い相関関係を学習します。
論文 参考訳(メタデータ) (2022-01-25T22:30:54Z) - MoCA: Incorporating Multi-stage Domain Pretraining and Cross-guided
Multimodal Attention for Textbook Question Answering [7.367945534481411]
テキスト質問応答タスクに対して,多段階事前学習とマルチモーダルクロスアテンションを取り入れたMoCAという新しいモデルを提案する。
実験結果から,本モデルの精度が2.21%, 2.43%向上し, 検証精度が2.21%, テストスプリットが2.43%向上した。
論文 参考訳(メタデータ) (2021-12-06T07:58:53Z) - Cooperative Learning of Zero-Shot Machine Reading Comprehension [9.868221447090855]
質問生成と回答のための協調的自己学習モデルを提案する。
注釈なしで任意のテキストコーポラで質問生成と回答モデルをトレーニングできます。
私たちのモデルは、標準質問応答ベンチマークで最先端の事前学習された言語モデルよりも優れています。
論文 参考訳(メタデータ) (2021-03-12T18:22:28Z) - Tradeoffs in Sentence Selection Techniques for Open-Domain Question
Answering [54.541952928070344]
文選択のためのモデルの2つのグループについて述べる。QAベースのアプローチは、解答候補を特定するための完全なQAシステムを実行し、検索ベースのモデルは、各質問に特に関連する各節の一部を見つける。
非常に軽量なQAモデルは、このタスクではうまく機能するが、検索ベースモデルは高速である。
論文 参考訳(メタデータ) (2020-09-18T23:39:15Z) - Recurrent Chunking Mechanisms for Long-Text Machine Reading
Comprehension [59.80926970481975]
機械読解(MRC)を長文で研究する。
モデルは長い文書と質問を入力として取り、回答として文書からテキストを抽出する。
我々は、モデルに強化学習を通じてより柔軟な方法でチャンクを学習させることを提案する。
論文 参考訳(メタデータ) (2020-05-16T18:08:58Z) - Document-Level Event Role Filler Extraction using Multi-Granularity
Contextualized Encoding [40.13163091122463]
イベントロールフィラーに対応するテキストの幅を決定するために、より大きなコンテキストのビューを必要とするため、イベント抽出は難しいタスクである。
まず、文書レベルのロールフィラー抽出において、エンドツーエンドのニューラルシーケンスモデルがどのように機能するかを検討する。
私たちの最高のシステムは、以前の作業よりもかなり優れたパフォーマンスを示します。
論文 参考訳(メタデータ) (2020-05-13T20:42:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。