論文の概要: Multifaceted Improvements for Conversational Open-Domain Question
Answering
- arxiv url: http://arxiv.org/abs/2204.00266v1
- Date: Fri, 1 Apr 2022 07:54:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-04 22:02:08.599565
- Title: Multifaceted Improvements for Conversational Open-Domain Question
Answering
- Title(参考訳): 対話型オープンドメイン質問応答の多面的改善
- Authors: Tingting Liang, Yixuan Jiang, Congying Xia, Ziqiang Zhao, Yuyu Yin,
Philip S. Yu
- Abstract要約: 対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
- 参考スコア(独自算出の注目度): 54.913313912927045
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Open-domain question answering (OpenQA) is an important branch of textual QA
which discovers answers for the given questions based on a large number of
unstructured documents. Effectively mining correct answers from the open-domain
sources still has a fair way to go. Existing OpenQA systems might suffer from
the issues of question complexity and ambiguity, as well as insufficient
background knowledge. Recently, conversational OpenQA is proposed to address
these issues with the abundant contextual information in the conversation.
Promising as it might be, there exist several fundamental limitations including
the inaccurate question understanding, the coarse ranking for passage
selection, and the inconsistent usage of golden passage in the training and
inference phases. To alleviate these limitations, in this paper, we propose a
framework with Multifaceted Improvements for Conversational open-domain
Question Answering (MICQA). Specifically, MICQA has three significant
advantages. First, the proposed KL-divergence based regularization is able to
lead to a better question understanding for retrieval and answer reading.
Second, the added post-ranker module can push more relevant passages to the top
placements and be selected for reader with a two-aspect constrains. Third, the
well designed curriculum learning strategy effectively narrows the gap between
the golden passage settings of training and inference, and encourages the
reader to find true answer without the golden passage assistance. Extensive
experiments conducted on the publicly available dataset OR-QuAC demonstrate the
superiority of MICQA over the state-of-the-art model in conversational OpenQA
task.
- Abstract(参考訳): オープンドメイン質問応答 (OpenQA) は、大量の非構造化文書に基づいて与えられた質問に対する回答を発見するテキストQAの重要な分野である。
オープンドメインのソースから正しい回答を効果的にマイニングする方法はまだ十分ある。
既存のOpenQAシステムは、質問の複雑さや曖昧さ、背景知識の不足といった問題に悩まされる。
近年、会話中の豊富な文脈情報でこれらの問題に対処するために、会話型openqaが提案されている。
不正確な質問理解、通過選択のための粗いランク付け、訓練と推論フェーズにおける黄金の通過の不整合使用など、いくつかの基本的な制限がある。
本稿では,これらの制約を軽減するために,対話型オープンドメイン質問応答(MICQA)のための多面的改善フレームワークを提案する。
特に、MICQAには3つの大きな利点がある。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解につながる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、よく設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、読者に黄金の通路の支援なしに真の答えを見つけるように促す。
公開データセットOR-QuACで実施された大規模な実験は、対話型OpenQAタスクにおける最先端モデルよりもMICQAの方が優れていることを示す。
関連論文リスト
- QPaug: Question and Passage Augmentation for Open-Domain Question Answering of LLMs [5.09189220106765]
オープンドメイン問合せタスクのための大規模言語モデル(LLM)を介してQPaug(Q and passage augmentation)と呼ばれるシンプルで効率的な手法を提案する。
実験の結果,QPaugは従来の最先端技術よりも優れており,既存のRAG法よりも大きな性能向上を実現していることがわかった。
論文 参考訳(メタデータ) (2024-06-20T12:59:27Z) - MFORT-QA: Multi-hop Few-shot Open Rich Table Question Answering [3.1651118728570635]
今日の急成長する業界では、専門家は大量の文書を要約し、毎日重要な情報を抽出するという課題に直面している。
この課題に対処するために、テーブル質問回答(QA)のアプローチを開発し、関連する情報を抽出した。
近年のLarge Language Models (LLMs) の進歩により,プロンプトを用いて表データから情報を取り出す新たな可能性が高まっている。
論文 参考訳(メタデータ) (2024-03-28T03:14:18Z) - Merging Generated and Retrieved Knowledge for Open-Domain QA [72.42262579925911]
COMBOは、より良いオープンドメインQAフレームワークのための互換性指向の知識の融合である。
COMBOは4つのテスト済みオープンドメインQAベンチマークのうち3つで競合ベースラインを上回っていることを示す。
論文 参考訳(メタデータ) (2023-10-22T19:37:06Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - Open Question Answering over Tables and Text [55.8412170633547]
オープンな質問応答(QA)では、質問に対する回答は、質問に対する回答を含む可能性のある文書を検索して分析することによって生成される。
ほとんどのオープンQAシステムは、構造化されていないテキストからのみ情報を取得することを検討している。
我々は,このタスクの性能を評価するために,新しい大規模データセット Open Table-and-Text Question Answering (OTT-QA) を提案する。
論文 参考訳(メタデータ) (2020-10-20T16:48:14Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z) - DoQA -- Accessing Domain-Specific FAQs via Conversational QA [25.37327993590628]
2,437の対話と10,917のQAペアを持つデータセットであるDoQAを提示する。
対話は、クラウドソーシングを備えたWizard of Ozメソッドを使用して、3つのStack Exchangeサイトから収集される。
論文 参考訳(メタデータ) (2020-05-04T08:58:54Z) - Conversational Question Answering over Passages by Leveraging Word
Proximity Networks [33.59664244897881]
CROWNは、経路応答を持つ会話型QAのための教師なしかつ効果的なシステムである。
複数のターンにまたがる複数のコンテキストの伝搬をサポートする。
CROWNはTREC CAsTデータで評価され、ニューラルネットワークのプールにおいて上述の性能を達成した。
論文 参考訳(メタデータ) (2020-04-27T19:30:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。