論文の概要: MuGER$^2$: Multi-Granularity Evidence Retrieval and Reasoning for Hybrid
Question Answering
- arxiv url: http://arxiv.org/abs/2210.10350v1
- Date: Wed, 19 Oct 2022 07:36:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-20 14:11:02.563053
- Title: MuGER$^2$: Multi-Granularity Evidence Retrieval and Reasoning for Hybrid
Question Answering
- Title(参考訳): muger$^2$: ハイブリッド質問応答のためのマルチグラニュラ性証拠検索と推論
- Authors: Yingyao Wang, Junwei Bao, Chaoqun Duan, Youzheng Wu, Xiaodong He and
Tiejun Zhao
- Abstract要約: ハイブリッド質問応答(HQA)は、テーブルセルにリンクされたテーブルやパスを含む異種データに対する質問に答えることを目的としている。
マルチグラニュラリティ証拠検索および推論手法である MuGER$2$ を提案する。
HybridQAデータセットの実験結果は、MuGER$2$がHQAのパフォーマンスを大幅に向上させることを示している。
- 参考スコア(独自算出の注目度): 32.850210766905505
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Hybrid question answering (HQA) aims to answer questions over heterogeneous
data, including tables and passages linked to table cells. The heterogeneous
data can provide different granularity evidence to HQA models, e.t., column,
row, cell, and link. Conventional HQA models usually retrieve coarse- or
fine-grained evidence to reason the answer. Through comparison, we find that
coarse-grained evidence is easier to retrieve but contributes less to the
reasoner, while fine-grained evidence is the opposite. To preserve the
advantage and eliminate the disadvantage of different granularity evidence, we
propose MuGER$^2$, a Multi-Granularity Evidence Retrieval and Reasoning
approach. In evidence retrieval, a unified retriever is designed to learn the
multi-granularity evidence from the heterogeneous data. In answer reasoning, an
evidence selector is proposed to navigate the fine-grained evidence for the
answer reader based on the learned multi-granularity evidence. Experiment
results on the HybridQA dataset show that MuGER$^2$ significantly boosts the
HQA performance. Further ablation analysis verifies the effectiveness of both
the retrieval and reasoning designs.
- Abstract(参考訳): ハイブリッド質問応答(HQA)は、テーブルセルにリンクされたテーブルやパスを含む異種データに対する質問に答えることを目的としている。
不均一なデータはHQAモデル、例えば列、行、セル、リンクに異なる粒度の証拠を与えることができる。
従来のHQAモデルは、通常、答えを推論するために粗いまたはきめ細かい証拠を回収する。
比較により,粗粒度証拠の検索は容易であるが,推論者への寄与は少ないが,粗粒度証拠は逆であることがわかった。
この利点を保ち、異なる粒度証拠の不備を取り除くために、MugER$^2$, a Multi-Granularity Evidence Retrieval and Reasoning approachを提案する。
証拠検索において、統一検索器は異種データから多粒性証拠を学習するように設計されている。
回答推論では,学習した多粒性証拠に基づいて,回答読者の詳細な証拠をナビゲートするエビデンスセレクタを提案する。
HybridQAデータセットの実験結果は、MuGER$^2$がHQAのパフォーマンスを大幅に向上させることを示している。
さらにアブレーション解析は、検索および推論設計の有効性を検証する。
関連論文リスト
- Evidence-Enhanced Triplet Generation Framework for Hallucination Alleviation in Generative Question Answering [41.990482015732574]
本稿では,三重項(クエスト,エビデンス,アンスワー)の組合せを予測するための新しいエビデンス強化三重項生成フレームワークであるEATQAを提案する。
推測段階における証拠から知識を抽出するために,分布ギャップを橋渡しする。
我々のフレームワークは,クエリとエビデンスと応答の間の論理的関係を学習し,同時にエビデンス生成とクエリ応答を改善する。
論文 参考訳(メタデータ) (2024-08-27T13:07:07Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-of-Discussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - Multi-grained Evidence Inference for Multi-choice Reading Comprehension [62.0773160298008]
MRC(Multi-choice Machine Reading)は、マシンが提供されたオプションに従って質問に答える上で、重要かつ困難なタスクである。
多粒性エビデンスを包括的に統合した多粒性エビデンス推論システム(Mugen)を提案する。
Mugen は3つの異なるエビデンスを抽出し、エビデンスを元のパスと統合し、4つのマルチチョイス MRC ベンチマークで顕著で一貫したパフォーマンス改善を達成する。
論文 参考訳(メタデータ) (2023-10-27T11:36:18Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - TACR: A Table-alignment-based Cell-selection and Reasoning Model for
Hybrid Question-Answering [31.79113994947629]
テキストとテーブルQAのハイブリッド化を目的としたテーブルアライメントに基づくセル選択・推論モデル(TACR)を提案する。
証拠検索において,我々は詳細な証拠を検索するテーブルクエストアライメント強化セル選択法を設計する。
回答推論では、選択されたセルを含む行をコンテキストとして扱うQAモジュールを組み込む。
論文 参考訳(メタデータ) (2023-05-24T03:42:44Z) - ReasonChainQA: Text-based Complex Question Answering with Explainable
Evidence Chains [15.837457557803507]
説明的および明示的なエビデンス連鎖を有するベンチマーク textbfReasonChainQA を提案する。
ReasonChainQAは、回答生成とエビデンス連鎖抽出という2つのサブタスクから構成される。
教師付きおよび教師なし検索に関する追加実験は、ReasonChainQAの重要性を十分に示している。
論文 参考訳(メタデータ) (2022-10-17T06:07:39Z) - Grow-and-Clip: Informative-yet-Concise Evidence Distillation for Answer
Explanation [22.20733260041759]
我々は、QAモデルの解釈可能性を高めるために、解答の証拠が重要であると論じる。
我々は、証拠の概念を、情報的で簡潔で読みやすい文脈における支援事実として明確に定義する最初の人物である。
本稿では, トレードオフ情報性, 簡潔性, 可読性からエビデンスを抽出するGCEDアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-01-13T17:18:17Z) - Distantly-Supervised Evidence Retrieval Enables Question Answering
without Evidence Annotation [19.551623461082617]
オープンドメインの質問応答は、大きなコーパスから取得した証拠に基づいて質問に答える。
本稿では,大規模コーパスからモデルが証拠の発見を学べるかどうかを,モデル学習のための回答ラベルからのみ遠ざかって検討する。
我々は,最新のモデルから証拠を交互に発見し,最も可能性の高い証拠を学習するよう促すことにより,弱いレトリバーよりも反復的に改善する新しいアプローチ(DistDR)を提案する。
論文 参考訳(メタデータ) (2021-10-10T20:01:27Z) - REM-Net: Recursive Erasure Memory Network for Commonsense Evidence
Refinement [130.8875535449478]
REM-Netは、答えを説明できない低品質な証拠を消去することで証拠を洗練するためのモジュールを備えている。
既存の知識ベースから証拠を取得する代わりに、REM-Netは事前訓練された生成モデルを利用して、質問用にカスタマイズされた候補証拠を生成する。
結果はREM-Netの性能を示し、洗練された証拠が説明可能であることを示します。
論文 参考訳(メタデータ) (2020-12-24T10:07:32Z) - Leveraging Passage Retrieval with Generative Models for Open Domain
Question Answering [61.394478670089065]
オープンドメインの質問に答えるための生成モデルは、外部の知識に頼らずに競争力があることが証明されている。
我々は、これらのモデルがテキストの文節を検索することでどれだけの恩恵を受けられるかを調査し、潜在的に証拠を含む可能性がある。
検索したパス数を増やすと,本手法の性能が著しく向上することがわかった。
論文 参考訳(メタデータ) (2020-07-02T17:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。