論文の概要: Reasoning over Logically Interacted Conditions for Question Answering
- arxiv url: http://arxiv.org/abs/2205.12898v1
- Date: Wed, 25 May 2022 16:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:50:09.780121
- Title: Reasoning over Logically Interacted Conditions for Question Answering
- Title(参考訳): 質問応答のための論理的相互作用条件の推論
- Authors: Haitian Sun, William W. Cohen, Ruslan Salakhutdinov
- Abstract要約: 我々は、論理的に相互作用する条件のリストによって答えが制約される、より困難なタスクについて研究する。
本稿では,この難解な推論タスクのための新しいモデルTReasonerを提案する。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 113.9231035680578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Some questions have multiple answers that are not equally correct, i.e.
answers are different under different conditions. Conditions are used to
distinguish answers as well as to provide additional information to support
them. In this paper, we study a more challenging task where answers are
constrained by a list of conditions that logically interact, which requires
performing logical reasoning over the conditions to determine the correctness
of the answers. Even more challenging, we only provide evidences for a subset
of the conditions, so some questions may not have deterministic answers. In
such cases, models are asked to find probable answers and identify conditions
that need to be satisfied to make the answers correct. We propose a new model,
TReasoner, for this challenging reasoning task. TReasoner consists of an
entailment module, a reasoning module, and a generation module (if the answers
are free-form text spans). TReasoner achieves state-of-the-art performance on
two benchmark conditional QA datasets, outperforming the previous
state-of-the-art by 3-10 points.
- Abstract(参考訳): いくつかの質問には、等しく正しくない複数の回答があり、異なる条件下では答えが異なる。
条件は、回答を区別したり、それらをサポートするための追加情報を提供するために使用される。
本稿では, 論理的に相互作用する条件のリストによって, 解答の正当性を決定するためには, 論理的推論を行う必要があるという, より困難な課題について検討する。
さらに難しいのは、条件のサブセットについてのみ証拠を提供するため、いくつかの質問は決定論的回答を持っていないかもしれないということです。
そのような場合、モデルは確率的な答えを見つけ、答えを正すために満たすべき条件を特定するように求められます。
我々はこの挑戦的な推論タスクのために新しいモデルTReasonerを提案する。
TReasonerはエンテーメントモジュール、推論モジュール、生成モジュール(回答が自由形式のテキストスパンであれば)から構成される。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成し、以前の最先端を3-10ポイント上回る。
関連論文リスト
- Controllable Decontextualization of Yes/No Question and Answers into
Factual Statements [28.02936811004903]
本稿では,極性質問に対する回答の制御可能な書き直しの問題に対処する。
本稿では,ソフト制約を利用して制御可能な書き換えを実現するトランスフォーマーシーケンス to シーケンスモデルを提案する。
論文 参考訳(メタデータ) (2024-01-18T07:52:12Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - WikiWhy: Answering and Explaining Cause-and-Effect Questions [62.60993594814305]
自然言語で答えが正しい理由を説明するために構築されたQAデータセットであるWikiWhyを紹介する。
WikiWhyには、ウィキペディアのさまざまなトピックの事実に基づいて、9000以上の「なぜ」質問回答の3つ組が含まれている。
GPT-3ベースラインは、エンドツーエンドの回答と説明条件において、人間の評価された正しさを38.7%しか達成していない。
論文 参考訳(メタデータ) (2022-10-21T17:59:03Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - ASQA: Factoid Questions Meet Long-Form Answers [35.11889930792675]
この研究は、解釈によって異なる正しい答えを持つ、あいまいな事実型問題に焦点を当てている。
曖昧な質問に対する回答は、複数の情報源からの事実情報を長文の要約にまとめるべきである。
我々は、この正確性の概念を用いて、ASQAのパフォーマンスの自動測定基準を定義します。
論文 参考訳(メタデータ) (2022-04-12T21:58:44Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。