論文の概要: Decomposing Complex Questions Makes Multi-Hop QA Easier and More
Interpretable
- arxiv url: http://arxiv.org/abs/2110.13472v1
- Date: Tue, 26 Oct 2021 08:10:35 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 15:04:14.825703
- Title: Decomposing Complex Questions Makes Multi-Hop QA Easier and More
Interpretable
- Title(参考訳): 複雑な質問を分解することで、マルチホップqaがより簡単に解釈できるようになる
- Authors: Ruiliu Fu, Han Wang, Xuejun Zhang, Jun Zhou and Yonghong Yan
- Abstract要約: マルチホップQAでは、機械が複数の手がかりと推論を見つけることで複雑な質問に答える必要がある。
本稿では,複雑な質問分解に基づく3段階のフレームワークであるRelation Extractor-Reader and Comparator(RERC)を提案する。
2WikiMultiHopQAデータセットでは、我々のRERCモデルは最も高度なパフォーマンスを達成し、勝利した合同F1スコアはリーダーボード上で53.58である。
- 参考スコア(独自算出の注目度): 25.676852169835833
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Multi-hop QA requires the machine to answer complex questions through finding
multiple clues and reasoning, and provide explanatory evidence to demonstrate
the machine reasoning process. We propose Relation Extractor-Reader and
Comparator (RERC), a three-stage framework based on complex question
decomposition, which is the first work that the RERC model has been proposed
and applied in solving the multi-hop QA challenges. The Relation Extractor
decomposes the complex question, and then the Reader answers the sub-questions
in turn, and finally the Comparator performs numerical comparison and
summarizes all to get the final answer, where the entire process itself
constitutes a complete reasoning evidence path. In the 2WikiMultiHopQA dataset,
our RERC model has achieved the most advanced performance, with a winning joint
F1 score of 53.58 on the leaderboard. All indicators of our RERC are close to
human performance, with only 1.95 behind the human level in F1 score of support
fact. At the same time, the evidence path provided by our RERC framework has
excellent readability and faithfulness.
- Abstract(参考訳): マルチホップQAでは、複数の手がかりと推論を見つけ、マシンの推論過程を実証するための説明的証拠を提供することによって、複雑な質問に答える必要がある。
本稿では,複雑な質問分解に基づく3段階のフレームワークであるRelation Extractor-Reader and Comparator(RERC)を提案する。
リレーション・エクストラクタは複雑な質問を分解し、次に読者は順番にサブクエストに答え、最後にコンパレータは数値比較を行い、最終回答を得るために全てを要約する。
2WikiMultiHopQAデータセットでは、我々のRERCモデルは最も高度なパフォーマンスを達成し、勝利した合同F1スコアはリーダーボード上で53.58である。
我々のRERCの指標はすべて人的パフォーマンスに近く、F1の支持率において人間レベルの差はわずか1.95である。
同時に、RERCフレームワークが提供するエビデンスパスは、可読性と忠実性に優れています。
関連論文リスト
- Measuring Retrieval Complexity in Question Answering Systems [64.74106622822424]
検索複雑性(Retrieval complexity, RC)は、検索された文書の完全性に基づく新しい計量である。
任意の検索システムを用いてRCを計測するための教師なしパイプラインを提案する。
本システムは検索システムに大きな影響を与える可能性がある。
論文 参考訳(メタデータ) (2024-06-05T19:30:52Z) - End-to-End Beam Retrieval for Multi-Hop Question Answering [37.13580394608824]
マルチホップ質問応答は、複数の関連するパスを見つけ出し、複雑な質問に答えるためにステップバイステップの推論を行う。
以前のレトリバーは2ホップの質問のためにカスタマイズされ、そのほとんどは異なるホップで個別に訓練された。
マルチホップQAのためのエンドツーエンドのビーム検索フレームワークであるビーム検索について紹介する。
論文 参考訳(メタデータ) (2023-08-17T13:24:14Z) - Logical Message Passing Networks with One-hop Inference on Atomic
Formulas [57.47174363091452]
本稿では,ニューラルネットワーク演算子から知識グラフの埋め込みを分解する,複雑な問合せ応答のためのフレームワークを提案する。
クエリグラフの上に、局所的な原子式上のワンホップ推論とグローバル論理的推論を結びつける論理メッセージパッシングニューラルネットワーク(LMPNN)を提案する。
我々のアプローチは、最先端のニューラルCQAモデルをもたらす。
論文 参考訳(メタデータ) (2023-01-21T02:34:06Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - Interpretable AMR-Based Question Decomposition for Multi-hop Question
Answering [12.35571328854374]
マルチホップQAのための抽象的意味表現(QDAMR)に基づく質問分解手法を提案する。
マルチホップ質問をより単純なサブクエストに分解し、順番に答える。
HotpotQAの実験結果から,本手法は解釈可能な推論と競合することが示された。
論文 参考訳(メタデータ) (2022-06-16T23:46:33Z) - From Easy to Hard: Two-stage Selector and Reader for Multi-hop Question
Answering [12.072618400000763]
マルチホップ質問応答(Multi-hop question answering, QA)は、複数の文書に対して複雑な推論を行うQAシステムを必要とする課題である。
本稿では,難読化情報を取り除き,文脈表現を改善するための新しいフレームワーク,From Easy to Hard (FE2H)を提案する。
FE2Hは文書セレクタとリーダーの両方を2段階に分割する。
論文 参考訳(メタデータ) (2022-05-24T02:33:58Z) - Modeling Multi-hop Question Answering as Single Sequence Prediction [88.72621430714985]
本稿では,単純な生成手法(PathFid)を提案する。
PathFidは、マルチホップ質問に対する回答を解決するための推論プロセスを明示的にモデル化する。
実験の結果,PathFidは2つのマルチホップQAデータセットに対して高い性能向上をもたらすことが示された。
論文 参考訳(メタデータ) (2022-05-18T21:57:59Z) - Answering Any-hop Open-domain Questions with Iterative Document
Reranking [62.76025579681472]
オープンドメインの問に答える統合QAフレームワークを提案する。
提案手法は,シングルホップおよびマルチホップのオープンドメインQAデータセットにおいて,最先端技術に匹敵する性能を継続的に達成する。
論文 参考訳(メタデータ) (2020-09-16T04:31:38Z) - Retrospective Reader for Machine Reading Comprehension [90.6069071495214]
機械読み取り理解(英: Machine reading comprehension、MRC)とは、機械が与えられた文節に基づいて質問に対する正しい答えを決定することを要求するAIチャレンジである。
不可解な質問が MRC タスクに関与している場合、検証モジュールと呼ばれる本質的な検証モジュールがエンコーダに加えて特に必要となる。
本稿では, MRC タスクに対して, 解答不能な質問に対して, より優れた検証器設計を提案する。
論文 参考訳(メタデータ) (2020-01-27T11:14:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。