論文の概要: When Retriever-Reader Meets Scenario-Based Multiple-Choice Questions
- arxiv url: http://arxiv.org/abs/2108.13875v1
- Date: Tue, 31 Aug 2021 14:32:04 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-01 19:14:10.083662
- Title: When Retriever-Reader Meets Scenario-Based Multiple-Choice Questions
- Title(参考訳): retriever-readerがシナリオベースのマルチチョイス質問に出会う
- Authors: Zixian Huang, Ao Wu, Yulin Shen, Gong Cheng, Yuzhong Qu
- Abstract要約: そこで本研究では,単語重み付け機構を用いて関連ラベルのみを暗黙的に管理する,QAVESと呼ばれる共同レトリバー・リーダーモデルを提案する。
QAVESは3つのSQAデータセットにおいて、複数の質問に対する強いベースラインを著しく上回る。
- 参考スコア(独自算出の注目度): 15.528174963480614
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Scenario-based question answering (SQA) requires retrieving and reading
paragraphs from a large corpus to answer a question which is contextualized by
a long scenario description. Since a scenario contains both keyphrases for
retrieval and much noise, retrieval for SQA is extremely difficult. Moreover,
it can hardly be supervised due to the lack of relevance labels of paragraphs
for SQA. To meet the challenge, in this paper we propose a joint
retriever-reader model called JEEVES where the retriever is implicitly
supervised only using QA labels via a novel word weighting mechanism. JEEVES
significantly outperforms a variety of strong baselines on multiple-choice
questions in three SQA datasets.
- Abstract(参考訳): シナリオベースの質問応答(SQA)は、長いシナリオ記述によって文脈化される質問に答えるために、大きなコーパスから段落を検索して読む必要がある。
シナリオは、検索のためのキーフレーズと多くのノイズの両方を含むため、SQAの検索は非常に困難である。
また、SQAの項の関連ラベルがないため、ほとんど監視できない。
そこで本稿では,新たな単語重み付け機構を通じて,検索者がQAラベルのみを用いて暗黙的に管理されるJEEVESという共同検索モデルを提案する。
JEEVESは3つのSQAデータセットにおいて、複数の質問に対する強力なベースラインを著しく上回る。
関連論文リスト
- RAG-QA Arena: Evaluating Domain Robustness for Long-form Retrieval Augmented Question Answering [61.19126689470398]
Long-form RobustQA (LFRQA)は、7つの異なるドメインにわたる26Kクエリと大きなコーパスをカバーする新しいデータセットである。
RAG-QAアリーナと人間の回答品質判断は高い相関関係にあることを示す。
最も競争力のあるLLMの回答の41.3%のみがLFRQAの回答に好まれており、RAG-QAアリーナは将来の研究の挑戦的な評価プラットフォームであることを示している。
論文 参考訳(メタデータ) (2024-07-19T03:02:51Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - SpeechDPR: End-to-End Spoken Passage Retrieval for Open-Domain Spoken Question Answering [76.4510005602893]
SQA(Spken Question Answering)は、機械がユーザの質問に応答するために必要である。
本稿では、最初のエンドツーエンドフレームワークであるSpeechDPR(SpeechDPR)を提案する。
教師なしASR (UASR) と高密度テキスト検索器 (TDR) のカスケードモデルから知識を抽出して文レベルの意味表現を学習する
論文 参考訳(メタデータ) (2024-01-24T14:08:38Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - SQUARE: Automatic Question Answering Evaluation using Multiple Positive
and Negative References [73.67707138779245]
SQuArE (Sentence-level QUestion AnsweRing Evaluation) という新しい評価指標を提案する。
文レベルの抽出(回答選択)と生成(GenQA)の両方のQAシステムでSQuArEを評価する。
論文 参考訳(メタデータ) (2023-09-21T16:51:30Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - TSQA: Tabular Scenario Based Question Answering [14.92495213480887]
シナリオベースの質問応答(SQA)が研究の関心を集めている。
本研究を支援するため,GeoTSQAを構築した。
テーブル・トゥ・テキストの新しいジェネレータであるTTGenにより、最新のMRCメソッドを拡張します。
論文 参考訳(メタデータ) (2021-01-14T02:00:33Z) - Effective FAQ Retrieval and Question Matching With Unsupervised
Knowledge Injection [10.82418428209551]
質問に対して適切な回答を得るための文脈言語モデルを提案する。
また、ドメイン固有の単語間のトポロジ関連関係を教師なしの方法で活用することについても検討する。
提案手法のバリエーションを,公開可能な中国語FAQデータセット上で評価し,さらに大規模質問マッチングタスクに適用し,コンテキスト化する。
論文 参考訳(メタデータ) (2020-10-27T05:03:34Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Relevance-guided Supervision for OpenQA with ColBERT [27.599190047511033]
ColBERT-QAはスケーラブルなニューラルネットワークモデルColBERTをOpenQAに適合させる。
ColBERTは、質問と通過の間のきめ細かい相互作用を生成する。
これにより、Natural Questions、SQuAD、TriviaQAのOpenQA検索が大幅に改善される。
論文 参考訳(メタデータ) (2020-07-01T23:50:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。