論文の概要: Answer Generation through Unified Memories over Multiple Passages
- arxiv url: http://arxiv.org/abs/2004.13829v1
- Date: Wed, 22 Apr 2020 11:46:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:04:21.432606
- Title: Answer Generation through Unified Memories over Multiple Passages
- Title(参考訳): 複数経路上の統一記憶による回答生成
- Authors: Makoto Nakatsuji, Sohei Okui
- Abstract要約: GUM-MP(Unified Memories over Multiple Passages)によるニューラル・ソリューション・ジェネレーション(Neural answer Generation)と呼ばれる手法
まず、文中のどのトークンが問題にマッチしているかを決定する。
特に、質問に割り当てられる正の通路のトークンと、質問に関係のない負の通路のトークンの一致を調査する。
最後に、上記2つのマッチング結果と共にトークンシーケンスをトランスファーエンコーダの統一メモリに符号化し、マルチポイントジェネレータ機構を備えたエンコーダデコーダを用いて応答シーケンスを学習する。
- 参考スコア(独自算出の注目度): 10.965065178451104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Machine reading comprehension methods that generate answers by referring to
multiple passages for a question have gained much attention in AI and NLP
communities. The current methods, however, do not investigate the relationships
among multiple passages in the answer generation process, even though topics
correlated among the passages may be answer candidates. Our method, called
neural answer Generation through Unified Memories over Multiple Passages
(GUM-MP), solves this problem as follows. First, it determines which tokens in
the passages are matched to the question. In particular, it investigates
matches between tokens in positive passages, which are assigned to the
question, and those in negative passages, which are not related to the
question. Next, it determines which tokens in the passage are matched to other
passages assigned to the same question and at the same time it investigates the
topics in which they are matched. Finally, it encodes the token sequences with
the above two matching results into unified memories in the passage encoders
and learns the answer sequence by using an encoder-decoder with a
multiple-pointer-generator mechanism. As a result, GUM-MP can generate answers
by pointing to important tokens present across passages. Evaluations indicate
that GUM-MP generates much more accurate results than the current models do.
- Abstract(参考訳): 複数の節を参照して回答を生成する機械読解法は,AIやNLPコミュニティで注目されている。
しかし,現在の手法では回答生成過程における複数の文間の関係は検討されていないが,回答文間の話題が回答候補となる可能性がある。
GUM-MP (Unified Memories over Multiple Passages) によるニューラル解生成法は, この問題を次のように解決する。
まず、文中のどのトークンが問題にマッチしているかを決定する。
特に、質問に割り当てられた肯定的文中のトークンと、質問と無関係な否定的文のトークンとのマッチングについて調査する。
次に、同じ質問に割り当てられた他の文と、どの文中のトークンが一致しているかを判定し、同時に、一致した話題について調査する。
最後に、上記2つのマッチング結果と共にトークンシーケンスをトランスファーエンコーダの統一メモリに符号化し、マルチポイントジェネレータ機構を備えたエンコーダデコーダを用いて応答シーケンスを学習する。
その結果、GUM-MPは、通路にまたがる重要なトークンを指して回答を生成することができる。
GUM-MPは現在のモデルよりもはるかに正確な結果が得られることを示す。
関連論文リスト
- GenSco: Can Question Decomposition based Passage Alignment improve Question Answering? [1.5776201492893507]
ジェンスコ(GenSco)は,マルチホップ質問の予測分解に基づく経路選択手法である。
広範に確立された3つのマルチホップ質問応答データセットについて評価した。
論文 参考訳(メタデータ) (2024-07-14T15:25:08Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Automatic Generation of Multiple-Choice Questions [7.310488568715925]
本稿では,QAP世代における課題に取り組むための2つの方法を提案する。
事前処理と後処理パイプラインを備えたT5 Transformerに基づくディープラーニングに基づくエンドツーエンド質問生成システム。
文のメタシーケンス表現を用いて適切なQAPを生成するシーケンス学習に基づくスキーム。
論文 参考訳(メタデータ) (2023-03-25T22:45:54Z) - Diverse Multi-Answer Retrieval with Determinantal Point Processes [11.925050407713597]
本稿では,BERTをカーネルとして利用する決定点プロセスを用いた再ランク付け手法を提案する。
その結果,本手法はAmbigQAデータセットの最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-11-29T08:54:05Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Multi-hop Question Generation with Graph Convolutional Network [58.31752179830959]
マルチホップ質問生成(Multi-hop Question Generation, QG)は,異なる段落から散在する複数の証拠を集約・推論することで,回答に関連する質問を生成することを目的とする。
複数のホップでコンテキストエンコーディングを行うMulQG(Multi-Hop volution Fusion Network for Question Generation)を提案する。
提案モデルでは,高い完全性を有する流動的な質問を生成することができ,マルチホップ評価において,最強のベースラインを20.8%向上させることができる。
論文 参考訳(メタデータ) (2020-10-19T06:15:36Z) - Tag and Correct: Question aware Open Information Extraction with
Two-stage Decoding [73.24783466100686]
質問 オープンIEは質問と通過を入力として受け取り、主題、述語、および1つ以上の議論を含む回答を出力する。
半構造化された答えには2つの利点がある。
一つは、Open IEモデルによるパスから候補回答を抽出し、質問にマッチしてランク付けする抽出方法である。
もう1つは、シーケンスモデルを用いて回答を直接生成する生成方法である。
論文 参考訳(メタデータ) (2020-09-16T00:58:13Z) - Composing Answer from Multi-spans for Reading Comprehension [77.32873012668783]
本稿では,非抽出機械読解(MRC)タスクに対する応答を生成する新しい手法を提案する。
提案手法は,長い解答を正確に生成する性能が向上し,競合する2つの典型的な1スパンとSeq2Seqのベースラインデコーダよりも大幅に向上する。
論文 参考訳(メタデータ) (2020-09-14T01:44:42Z) - Crossing Variational Autoencoders for Answer Retrieval [50.17311961755684]
質問・回答アライメントと質問・回答セマンティクスは、表現を学ぶための重要な信号である。
そこで本研究では,回答を一致させた質問を生成し,回答を一致した質問で生成することで,変分自動エンコーダを横断する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T01:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。