論文の概要: Generative Context Pair Selection for Multi-hop Question Answering
- arxiv url: http://arxiv.org/abs/2104.08744v1
- Date: Sun, 18 Apr 2021 07:00:48 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-20 14:07:46.039196
- Title: Generative Context Pair Selection for Multi-hop Question Answering
- Title(参考訳): マルチホップ質問応答のための生成文脈ペア選択
- Authors: Dheeru Dua, Cicero Nogueira dos Santos, Patrick Ng, Ben Athiwaratkun,
Bing Xiang, Matt Gardner, Sameer Singh
- Abstract要約: マルチホップ質問応答のための生成コンテキスト選択モデルを提案する。
提案した生成経路選択モデルは,対向保留集合上でのより良い性能(ベースラインより4.9%高い)を有する。
- 参考スコア(独自算出の注目度): 60.74354009152721
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Compositional reasoning tasks like multi-hop question answering, require
making latent decisions to get the final answer, given a question. However,
crowdsourced datasets often capture only a slice of the underlying task
distribution, which can induce unanticipated biases in models performing
compositional reasoning. Furthermore, discriminatively trained models exploit
such biases to get a better held-out performance, without learning the right
way to reason, as they do not necessitate paying attention to the question
representation (conditioning variable) in its entirety, to estimate the answer
likelihood. In this work, we propose a generative context selection model for
multi-hop question answering that reasons about how the given question could
have been generated given a context pair. While being comparable to the
state-of-the-art answering performance, our proposed generative passage
selection model has a better performance (4.9% higher than baseline) on
adversarial held-out set which tests robustness of model's multi-hop reasoning
capabilities.
- Abstract(参考訳): マルチホップ質問応答のような構成的推論タスクは、質問に対して最終回答を得るために潜在的な決定をする必要がある。
しかし、クラウドソーシングされたデータセットは、しばしば基礎となるタスク分散のスライスのみをキャプチャし、構成推論を実行するモデルに予期せぬバイアスを誘発する。
さらに、差別的に訓練されたモデルは、問題表現(条件変数)に注意を払って答えの確率を見積もる必要がないため、正しい推論方法を学ぶことなく、そのようなバイアスを利用してより良い保留性能を得る。
本研究では,与えられた質問がコンテキストペアによってどのように生成されたかという理由について,マルチホップ質問に対する生成コンテキスト選択モデルを提案する。
提案手法は最先端の解答性能に匹敵するが,提案手法では,モデルのマルチホップ推論能力のロバスト性を検証した対向ホールトアウトセットに対して,より優れた性能(ベースラインよりも4.9%高い)を示す。
関連論文リスト
- Differentiating Choices via Commonality for Multiple-Choice Question Answering [54.04315943420376]
複数選択の質問応答は、正しい答えを選択するための貴重な手がかりを提供することができる。
既存のモデルでは、それぞれの選択を別々にランク付けし、他の選択によって提供されるコンテキストを見渡すことが多い。
本稿では,DCQAと呼ばれる共通性を識別・排除することで,選択を識別する新しいモデルを提案する。
論文 参考訳(メタデータ) (2024-08-21T12:05:21Z) - STOC-TOT: Stochastic Tree-of-Thought with Constrained Decoding for Complex Reasoning in Multi-Hop Question Answering [8.525847131940031]
マルチホップ質問応答(MHQA)は、複雑な質問に答えるために複数の通路から情報を検索し統合するモデルを必要とする。
近年のシステムでは、大規模言語モデルのパワーを活用し、証拠検索と推論のプロンプトを統合している。
MHQAの制約付き復号法であるSTOC-TOTを提案する。
論文 参考訳(メタデータ) (2024-07-04T07:17:53Z) - Getting MoRE out of Mixture of Language Model Reasoning Experts [71.61176122960464]
多様な特殊言語モデルを組み込んだMixture-of-Reasoning-Experts (MoRE) フレームワークを提案する。
実例,マルチホップ,数学的,コモンセンス推論など,さまざまな推論カテゴリに最適化されたプロンプトを備えたバックボーン言語モデルを特化する。
人間の研究では、専門家による予測と回答の選択プロセスが、アノテータがシステムの出力を信頼するタイミングをより正確に調整するのに役立ちます。
論文 参考訳(メタデータ) (2023-05-24T02:00:51Z) - Understanding and Improving Zero-shot Multi-hop Reasoning in Generative
Question Answering [85.79940770146557]
マルチホップ質問を複数の単一ホップ質問に分解する。
これらの対の見かけ上同一の問合せ連鎖について、QAモデルの答えに顕著な矛盾が認められる。
シングルホップの質問だけを訓練すると、モデルはマルチホップの質問に対してあまり一般化しない。
論文 参考訳(メタデータ) (2022-10-09T11:48:07Z) - Measuring and Narrowing the Compositionality Gap in Language Models [116.5228850227024]
モデルがすべてのサブプロブレムに正しく答えられる頻度を計測するが、全体の解は生成しない。
我々は,思考の連鎖をさらに改善する新たな手法である自己認識法を提案する。
論文 参考訳(メタデータ) (2022-10-07T06:50:23Z) - Prompting Contrastive Explanations for Commonsense Reasoning Tasks [74.7346558082693]
大規模事前学習言語モデル(PLM)は、常識推論タスクにおいて、ほぼ人間に近い性能を達成することができる。
人間の解釈可能な証拠を生成するために、同じモデルを使う方法を示す。
論文 参考訳(メタデータ) (2021-06-12T17:06:13Z) - A Semantic-based Method for Unsupervised Commonsense Question Answering [40.18557352036813]
ラベル付きタスクデータに依存しないため、教師なしのコモンセンス質問応答は魅力的である。
教師なしコモンセンス質問応答のためのSemantic-based Question Answering法(SEQA)を提案する。
論文 参考訳(メタデータ) (2021-05-31T08:21:52Z) - Reinforced Multi-task Approach for Multi-hop Question Generation [47.15108724294234]
我々は,その文脈における支援事実に基づいて,関連する質問を生成することを目的としたマルチホップ質問生成を取り上げている。
我々は,質問生成を導くために,回答認識支援事実予測の補助タスクを備えたマルチタスク学習を採用する。
マルチホップ質問応答データセットHotPotQAの実験を通して,提案手法の有効性を実証する。
論文 参考訳(メタデータ) (2020-04-05T10:16:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。