論文の概要: Tag and Correct: Question aware Open Information Extraction with
Two-stage Decoding
- arxiv url: http://arxiv.org/abs/2009.07406v1
- Date: Wed, 16 Sep 2020 00:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 22:51:29.912225
- Title: Tag and Correct: Question aware Open Information Extraction with
Two-stage Decoding
- Title(参考訳): Tag and correct: 2段階復号によるオープン情報抽出に関する質問
- Authors: Martin Kuo, Yaobo Liang, Lei Ji, Nan Duan, Linjun Shou, Ming Gong,
Peng Chen
- Abstract要約: 質問 オープンIEは質問と通過を入力として受け取り、主題、述語、および1つ以上の議論を含む回答を出力する。
半構造化された答えには2つの利点がある。
一つは、Open IEモデルによるパスから候補回答を抽出し、質問にマッチしてランク付けする抽出方法である。
もう1つは、シーケンスモデルを用いて回答を直接生成する生成方法である。
- 参考スコア(独自算出の注目度): 73.24783466100686
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Question Aware Open Information Extraction (Question aware Open IE) takes
question and passage as inputs, outputting an answer tuple which contains a
subject, a predicate, and one or more arguments. Each field of answer is a
natural language word sequence and is extracted from the passage. The
semi-structured answer has two advantages which are more readable and
falsifiable compared to span answer. There are two approaches to solve this
problem. One is an extractive method which extracts candidate answers from the
passage with the Open IE model, and ranks them by matching with questions. It
fully uses the passage information at the extraction step, but the extraction
is independent to the question. The other one is the generative method which
uses a sequence to sequence model to generate answers directly. It combines the
question and passage as input at the same time, but it generates the answer
from scratch, which does not use the facts that most of the answer words come
from in the passage. To guide the generation by passage, we present a two-stage
decoding model which contains a tagging decoder and a correction decoder. At
the first stage, the tagging decoder will tag keywords from the passage. At the
second stage, the correction decoder will generate answers based on tagged
keywords. Our model could be trained end-to-end although it has two stages.
Compared to previous generative models, we generate better answers by
generating coarse to fine. We evaluate our model on WebAssertions (Yan et al.,
2018) which is a Question aware Open IE dataset. Our model achieves a BLEU
score of 59.32, which is better than previous generative methods.
- Abstract(参考訳): 質問認識オープン情報抽出(質問認識オープンie)は、質問と回答を入力として、主語と述語と1つ以上の引数を含む回答タプルを出力する。
各答えのフィールドは自然言語の単語シーケンスであり、そのパスから抽出される。
半構造化された答えには2つの利点がある。
この問題を解決する方法は2つある。
一つは、Open IEモデルによるパスから候補回答を抽出し、質問にマッチしてランク付けする抽出方法である。
抽出ステップで通路情報を完全に使用するが、抽出は質問とは独立している。
もうひとつは、シーケンスからシーケンスモデルを使用して直接回答を生成するジェネレーティブメソッドである。
問合せと問合せを同時に入力として組み合わせるが、解答をゼロから生成するので、解答の大部分が文中に出てくるという事実は使用しない。
そこで,提案手法では,タグ付きデコーダと補正型デコーダを含む2段階のデコーダモデルを提案する。
最初の段階では、タグ付けデコーダがパスからキーワードをタグ付けする。
第2段階では、補正デコーダがタグ付きキーワードに基づいて回答を生成する。
我々のモデルは2段階あるが、エンドツーエンドで訓練することができる。
従来の生成モデルと比較して,粗さを微妙に生成することで,より良い解が得られる。
私たちは、オープンieデータセットを意識した質問であるwebassertions(yan et al., 2018)のモデルを評価します。
本モデルは,従来の生成法よりも優れたBLEUスコア59.32を達成する。
関連論文リスト
- FastFiD: Improve Inference Efficiency of Open Domain Question Answering via Sentence Selection [61.9638234358049]
FastFiDは、エンコードされたパスで文の選択を実行する新しいアプローチである。
これにより、価値ある文を保持するのに役立ち、回答を生成するのに必要な文脈長を減らすことができる。
論文 参考訳(メタデータ) (2024-08-12T17:50:02Z) - Phrase Retrieval for Open-Domain Conversational Question Answering with
Conversational Dependency Modeling via Contrastive Learning [54.55643652781891]
Open-Domain Conversational Question Answering (ODConvQA)は、マルチターン会話を通じて質問に答えることを目的としている。
そこで本研究では,単語列に対する句検索方式を用いて,回答を直接予測する手法を提案する。
論文 参考訳(メタデータ) (2023-06-07T09:46:38Z) - Modeling What-to-ask and How-to-ask for Answer-unaware Conversational
Question Generation [30.086071993793823]
What-to-askとHow-to-askは、回答を意識しない2つの主要な課題である。
本稿では,2段階CQGフレームワークであるSG-CQGを紹介する。
論文 参考訳(メタデータ) (2023-05-04T18:06:48Z) - LIQUID: A Framework for List Question Answering Dataset Generation [17.86721740779611]
ラベルなしコーパスからリストQAデータセットを生成するためのフレームワークであるLIQUIDを提案する。
まず、ウィキペディアまたはPubMedからの節を要約に変換し、要約されたテキストから名前付きエンティティを候補回答として抽出する。
次に、抽出されたエンティティと元のパスを含む既成の質問生成器を用いて質問を生成する。
合成データを用いて,MultiSpanQAでは5.0点,Quorefでは1.9点,BioASQベンチマークでは2.8点の精度で,過去のベストリストQAモデルの性能を大幅に向上させた。
論文 参考訳(メタデータ) (2023-02-03T12:42:45Z) - ListReader: Extracting List-form Answers for Opinion Questions [18.50111430378249]
ListReaderは、リスト形式の回答のためのニューラルネットワーク抽出QAモデルである。
質問と内容のアライメントの学習に加えて,異種グラフニューラルネットワークを導入する。
提案モデルでは,スパンレベルと文レベルのいずれの回答も抽出可能な抽出設定を採用する。
論文 参考訳(メタデータ) (2021-10-22T10:33:08Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Composing Answer from Multi-spans for Reading Comprehension [77.32873012668783]
本稿では,非抽出機械読解(MRC)タスクに対する応答を生成する新しい手法を提案する。
提案手法は,長い解答を正確に生成する性能が向上し,競合する2つの典型的な1スパンとSeq2Seqのベースラインデコーダよりも大幅に向上する。
論文 参考訳(メタデータ) (2020-09-14T01:44:42Z) - Crossing Variational Autoencoders for Answer Retrieval [50.17311961755684]
質問・回答アライメントと質問・回答セマンティクスは、表現を学ぶための重要な信号である。
そこで本研究では,回答を一致させた質問を生成し,回答を一致した質問で生成することで,変分自動エンコーダを横断する手法を提案する。
論文 参考訳(メタデータ) (2020-05-06T01:59:13Z) - Fine-tuning Multi-hop Question Answering with Hierarchical Graph Network [0.0]
マルチホップ質問応答のための2段階モデルを提案する。
第一段階は階層グラフネットワークであり、マルチホップ問題を推論するために使用される。
第2段階は、言語モデルの微調整タスクである。
論文 参考訳(メタデータ) (2020-04-20T09:34:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。