論文の概要: Building a Question and Answer System for News Domain
- arxiv url: http://arxiv.org/abs/2105.05744v1
- Date: Wed, 12 May 2021 15:56:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 15:22:10.017755
- Title: Building a Question and Answer System for News Domain
- Title(参考訳): ニュースドメインのための質問・回答システムの構築
- Authors: Sandipan Basu, Aravind Gaddala, Pooja Chetan, Garima Tiwari, Narayana
Darapaneni, Sadwik Parvathaneni, Anwesh Reddy Paduri
- Abstract要約: このプロジェクトは、ニュースドメインに質問応答システムを構築しようとします。そこでは、パッセージがニュース記事になり、誰でも質問をすることができます。
我々はアテンション機構を用いてスパンベースモデルを構築し、このモデルでは、段落の開始と終了のトークンの位置に関する質問に対する回答を予測する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: This project attempts to build a Question- Answering system in the News
Domain, where Passages will be News articles, and anyone can ask a Question
against it. We have built a span-based model using an Attention mechanism,
where the model predicts the answer to a question as to the position of the
start and end tokens in a paragraph. For training our model, we have used the
Stanford Question and Answer (SQuAD 2.0) dataset[1]. To do well on SQuAD 2.0,
systems must not only answer questions when possible but also determine when no
answer is supported by the paragraph and abstain from answering. Our model
architecture comprises three layers- Embedding Layer, RNN Layer, and the
Attention Layer. For the Embedding layer, we used GloVe and the Universal
Sentence Encoder. For the RNN Layer, we built variations of the RNN Layer
including bi-LSTM and Stacked LSTM and we built an Attention Layer using a
Context to Question Attention and also improvised on the innovative
Bidirectional Attention Layer. Our best performing model which uses GloVe
Embedding combined with Bi-LSTM and Context to Question Attention achieved an
F1 Score and EM of 33.095 and 33.094 respectively. We also leveraged transfer
learning and built a Transformer based model using BERT. The BERT-based model
achieved an F1 Score and EM of 57.513 and 49.769 respectively. We concluded
that the BERT model is superior in all aspects of answering various types of
questions.
- Abstract(参考訳): このプロジェクトは、ニュースドメインに質問応答システムを構築しようとしている。
我々はアテンション機構を用いてスパンベースモデルを構築し、このモデルでは、段落の開始と終了のトークンの位置に関する質問に対する回答を予測する。
モデルのトレーニングにはSQuAD 2.0(Stanford Question and Answer)データセット[1]を使用しました。
SQuAD 2.0をうまく活用するには、システムは可能な限り質問に答えるだけでなく、段落によって回答が支持されず、回答を控えるかどうかを判断する必要がある。
私たちのモデルアーキテクチャは、埋め込み層、rnn層、アテンション層という3つの層で構成されています。
埋め込み層ではGloVeとUniversal Sentence Encoderを使用しました。
RNNレイヤのために、bi-LSTMと Stacked LSTMを含むRNNレイヤのバリエーションを構築し、Context to Question Attentionを使用して注意層を構築し、革新的な双方向アテンション層を即興で実装しました。
GloVe EmbeddingとBi-LSTMとContext to Question Attentionを組み合わせることで,F1スコア,EMが33.095,EMが33.094となった。
また,トランスファー学習を活用し,bertを用いたトランスフォーマーモデルを構築した。
BERTベースのモデルはそれぞれ57.513と49.769のF1スコアとEMを達成した。
BERTモデルは,様々な質問に答える上で,あらゆる面で優れていると結論付けた。
関連論文リスト
- ReasoningLM: Enabling Structural Subgraph Reasoning in Pre-trained
Language Models for Question Answering over Knowledge Graph [142.42275983201978]
本稿では,構造化推論を行うためのGNNを模倣するサブグラフ認識型自己認識機構を提案する。
また、モデルパラメータを2万のサブグラフで合成した質問に適応するための適応チューニング戦略も採用する。
実験により、ReasoningLMは、更新されたパラメータが少なく、トレーニングデータが少ない場合でも、最先端のモデルを大きなマージンで上回っていることが示された。
論文 参考訳(メタデータ) (2023-12-30T07:18:54Z) - Generate then Select: Open-ended Visual Question Answering Guided by
World Knowledge [155.81786738036578]
Open-ended Visual Question Answering (VQA)タスクでは、視覚と自然言語の入力をAIモデルが共同で推論する必要がある。
GPT-3のような事前訓練された言語モデル(PLM)がこのタスクに適用され、強力な世界知識源であることが示されている。
我々は,世界的知識によって導かれるジェネレータ選択戦略をデプロイする新しいVQAパイプラインであるRASOを提案する。
論文 参考訳(メタデータ) (2023-05-30T08:34:13Z) - QUADRo: Dataset and Models for QUestion-Answer Database Retrieval [97.84448420852854]
質問/回答(q/a)ペアのデータベース(DB)が与えられた場合、同じ質問に対してDBをスキャンすることで、対象の質問に答えることができる。
我々は6.3Mのq/aペアからなる大規模DBを構築し、公開質問を用いて、ニューラルIRとq/aペアリランカに基づく新しいシステムを設計する。
我々は、Bing検索エンジン上に構築されたQAシステムという、Webベースの手法とDBベースのアプローチが競合することを示す。
論文 参考訳(メタデータ) (2023-03-30T00:42:07Z) - BERMo: What can BERT learn from ELMo? [6.417011237981518]
言語モデル(ELMo)の埋め込みにおいて提案する線形結合スキームを用いて,異なるネットワーク深さのスケールした内部表現を組み合わせる。
提案手法の利点は,(1)下流タスクの勾配流の改善,(2)代表力の向上である。
論文 参考訳(メタデータ) (2021-10-18T17:35:41Z) - Joint Models for Answer Verification in Question Answering Systems [85.93456768689404]
我々は3方向のマルチクラス化器を構築し、解答が他の解答をサポートするか、反証するか、あるいは中立かを決定する。
私たちは、WikiQA、TREC-QA、実世界のデータセットでモデルをテストしました。
論文 参考訳(メタデータ) (2021-07-09T05:34:36Z) - Train your classifier first: Cascade Neural Networks Training from upper
layers to lower layers [54.47911829539919]
我々は,高品質な分類器を探索するアルゴリズムとして見ることのできる,新しいトップダウン学習手法を開発した。
本研究では,自動音声認識(ASR)タスクと言語モデリングタスクについて検討した。
提案手法は,Wall Street Journal 上でのリカレントニューラルネットワーク ASR モデル,Switchboard 上での自己注意型 ASR モデル,WikiText-2 上での AWD-LSTM 言語モデルなど,一貫して改善されている。
論文 参考訳(メタデータ) (2021-02-09T08:19:49Z) - SRQA: Synthetic Reader for Factoid Question Answering [21.28441702154528]
我々はSRQAと呼ばれる新しいモデルを導入し、これはFactoid Question AnsweringのためのSynthetic Readerを意味する。
このモデルは,多文書シナリオにおける質問応答システムを3つの側面から強化する。
WebQAデータセット上でSRQAを行い、実験により、我々のモデルが最先端のモデルより優れていることを示す。
論文 参考訳(メタデータ) (2020-09-02T13:16:24Z) - Robust Question Answering Through Sub-part Alignment [53.94003466761305]
我々はアライメント問題として質問応答をモデル化する。
私たちは、SQuAD v1.1でモデルをトレーニングし、いくつかの逆および外ドメインデータセットでそれをテストします。
論文 参考訳(メタデータ) (2020-04-30T09:10:57Z) - Multi-Layer Content Interaction Through Quaternion Product For Visual
Question Answering [25.835302943000485]
そこで本研究では,すべての中間層間の相互作用を同時に学習するための,効率的な第4次ブロックネットワーク(QBN)を提案する。
提案したQBNでは、視覚的特徴の更新を導くために、全体的テキスト機能を使用します。
ハミルトン四元数生成物は、高層から低層への情報フローを視覚とテキストの両モードで効率的に行うことができる。
論文 参考訳(メタデータ) (2020-01-03T02:25:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。