論文の概要: Deep Understanding based Multi-Document Machine Reading Comprehension
- arxiv url: http://arxiv.org/abs/2204.03494v1
- Date: Fri, 25 Feb 2022 12:56:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-23 23:18:51.053198
- Title: Deep Understanding based Multi-Document Machine Reading Comprehension
- Title(参考訳): 深層理解に基づくマルチドキュメント機械読解
- Authors: Feiliang Ren, Yongkang Liu, Bochao Li, Zhibo Wang, Yu Guo, Shilei Liu,
Huimin Wu, Jiaqi Wang, Chunchao Liu, Bingchao Wang
- Abstract要約: 本稿では,多文書機械読解のための深い理解に基づくモデルを提案する。
単語の意味を正確に理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価した。
- 参考スコア(独自算出の注目度): 22.319892892352414
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Most existing multi-document machine reading comprehension models mainly
focus on understanding the interactions between the input question and
documents, but ignore following two kinds of understandings. First, to
understand the semantic meaning of words in the input question and documents
from the perspective of each other. Second, to understand the supporting cues
for a correct answer from the perspective of intra-document and
inter-documents. Ignoring these two kinds of important understandings would
make the models oversee some important information that may be helpful for
inding correct answers. To overcome this deiciency, we propose a deep
understanding based model for multi-document machine reading comprehension. It
has three cascaded deep understanding modules which are designed to understand
the accurate semantic meaning of words, the interactions between the input
question and documents, and the supporting cues for the correct answer. We
evaluate our model on two large scale benchmark datasets, namely TriviaQA Web
and DuReader. Extensive experiments show that our model achieves
state-of-the-art results on both datasets.
- Abstract(参考訳): 既存の多文書機械読解モデルのほとんどは、主に入力された質問と文書間の相互作用を理解することに焦点を当てているが、2種類の理解を無視する。
第1に、入力質問と文書における単語の意味的意味を相互の視点から理解すること。
第二に、文書内および文書間の観点から正しい回答に対する支援の手がかりを理解すること。
これらの2つの重要な理解を無視して、モデルが正しい答えを導き出すのに役立つ重要な情報を監督する。
この難易度を克服するために,マルチドキュメント機械読解のための深い理解に基づくモデルを提案する。
単語の意味の正確な意味、入力された質問と文書間の相互作用、そして正しい回答のための支援手段を理解するために設計された3つの深い理解モジュールがある。
我々は,TriviaQA WebとDuReaderという2つの大規模ベンチマークデータセットを用いて,我々のモデルを評価する。
広範な実験により,両データセットの最新の結果が得られた。
関連論文リスト
- Read and Think: An Efficient Step-wise Multimodal Language Model for Document Understanding and Reasoning [0.0]
既存の文書理解モデルは、1つの単語やフレーズで直接答えを生成する傾向がある。
文書画像の段階的問合せ対を生成するためにMLLM(Multi-modal Large Language Models)を用いる。
次に、生成された高品質なデータを使用して、DocAssistantと呼ばれる、人間化された文書理解と推論モデルをトレーニングします。
論文 参考訳(メタデータ) (2024-02-26T01:17:50Z) - Uncertainty Guided Global Memory Improves Multi-Hop Question Answering [3.7013865226473848]
本稿では,まず文書全体からメモリに関連情報を収集し,それをローカルコンテキストと組み合わせてタスクを解く2段階の手法を提案する。
実験結果から, メモリ拡張入力を用いた事前学習モデルの微調整により, モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2023-11-29T23:45:57Z) - mPLUG-DocOwl: Modularized Multimodal Large Language Model for Document
Understanding [55.4806974284156]
文書理解とは、ウェブページのようなデジタル文書から自動的に情報を抽出し、分析し、理解することである。
既存のMLLM(Multi-model Large Language Models)は、浅いOCRフリーテキスト認識において、望ましくないゼロショット機能を実証している。
論文 参考訳(メタデータ) (2023-07-04T11:28:07Z) - A Topic-aware Summarization Framework with Different Modal Side
Information [40.11141446039445]
本稿では,様々な側面情報を柔軟に組み込んだ一般的な要約フレームワークを提案する。
まず,文書と各種の側情報から潜在トピックを共同で発見する,統合されたトピックエンコーダを提案する。
その結果,我々のモデルは,3つの公開単一モーダルまたはマルチモーダルベンチマークの要約データセットに対して,強いベースラインをはるかに超えていることがわかった。
論文 参考訳(メタデータ) (2023-05-19T08:09:45Z) - Understanding ME? Multimodal Evaluation for Fine-grained Visual
Commonsense [98.70218717851665]
モデルが、限られた評価データ資源のために、視覚的シーンと基礎となるコモンセンス知識を本当に理解しているかどうかは不明だ。
本稿では,視覚シーン,テキスト,関連知識に対するモデルの理解をテストするために,質問応答ペアを自動的に生成するマルチモーダル評価(ME)パイプラインを提案する。
次に、MEデータによるトレーニングが標準VCR評価におけるモデルの性能を高めることを示すために、さらに一歩踏み出します。
論文 参考訳(メタデータ) (2022-11-10T21:44:33Z) - Learning Diverse Document Representations with Deep Query Interactions
for Dense Retrieval [79.37614949970013]
そこで本研究では,問合せの深い文書表現を学習する高密度検索モデルを提案する。
本モデルでは,各文書に生成した擬似クエリをエンコードして,クエリインフォームド・マルチビュー文書表現を得る。
論文 参考訳(メタデータ) (2022-08-08T16:00:55Z) - An Understanding-Oriented Robust Machine Reading Comprehension Model [12.870425062204035]
本稿では,3種類のロバスト性問題に対処する理解指向機械読解モデルを提案する。
具体的には、入力された質問の正確な意味を理解するために、まず自然言語推論モジュールを使用します。
第3に,一般化の問題に対処する多言語学習機構を提案する。
論文 参考訳(メタデータ) (2022-07-01T03:32:02Z) - Unified Pretraining Framework for Document Understanding [52.224359498792836]
文書理解のための統合事前学習フレームワークであるUDocを紹介する。
UDocは、ほとんどのドキュメント理解タスクをサポートするように設計されており、Transformerを拡張してマルチモーダル埋め込みを入力とする。
UDocの重要な特徴は、3つの自己管理的損失を利用して汎用的な表現を学ぶことである。
論文 参考訳(メタデータ) (2022-04-22T21:47:04Z) - MGA-VQA: Multi-Granularity Alignment for Visual Question Answering [75.55108621064726]
視覚的な質問に答えることを学ぶことは、マルチモーダル入力が2つの特徴空間内にあるため、難しい作業である。
視覚質問応答タスク(MGA-VQA)のための多言語アライメントアーキテクチャを提案する。
我々のモデルはアライメントを異なるレベルに分割し、追加のデータやアノテーションを必要とせずにより良い相関関係を学習します。
論文 参考訳(メタデータ) (2022-01-25T22:30:54Z) - Document Modeling with Graph Attention Networks for Multi-grained
Machine Reading Comprehension [127.3341842928421]
Natural Questionsは、新しい挑戦的な機械読解ベンチマークである。
解答は2つあり、長解(典型的には1段落)と短解(長解の内にある1つ以上の実体)である。
既存の方法は、これらの2つのサブタスクをトレーニング中に個別に扱い、依存関係を無視します。
本稿では,文書を階層的にモデル化する多層機械読解フレームワークを提案する。
論文 参考訳(メタデータ) (2020-05-12T14:20:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。