論文の概要: Reasoning over Logically Interacted Conditions for Question Answering
- arxiv url: http://arxiv.org/abs/2205.12898v1
- Date: Wed, 25 May 2022 16:41:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-26 13:50:09.780121
- Title: Reasoning over Logically Interacted Conditions for Question Answering
- Title(参考訳): 質問応答のための論理的相互作用条件の推論
- Authors: Haitian Sun, William W. Cohen, Ruslan Salakhutdinov
- Abstract要約: 我々は、論理的に相互作用する条件のリストによって答えが制約される、より困難なタスクについて研究する。
本稿では,この難解な推論タスクのための新しいモデルTReasonerを提案する。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 113.9231035680578
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Some questions have multiple answers that are not equally correct, i.e.
answers are different under different conditions. Conditions are used to
distinguish answers as well as to provide additional information to support
them. In this paper, we study a more challenging task where answers are
constrained by a list of conditions that logically interact, which requires
performing logical reasoning over the conditions to determine the correctness
of the answers. Even more challenging, we only provide evidences for a subset
of the conditions, so some questions may not have deterministic answers. In
such cases, models are asked to find probable answers and identify conditions
that need to be satisfied to make the answers correct. We propose a new model,
TReasoner, for this challenging reasoning task. TReasoner consists of an
entailment module, a reasoning module, and a generation module (if the answers
are free-form text spans). TReasoner achieves state-of-the-art performance on
two benchmark conditional QA datasets, outperforming the previous
state-of-the-art by 3-10 points.
- Abstract(参考訳): いくつかの質問には、等しく正しくない複数の回答があり、異なる条件下では答えが異なる。
条件は、回答を区別したり、それらをサポートするための追加情報を提供するために使用される。
本稿では, 論理的に相互作用する条件のリストによって, 解答の正当性を決定するためには, 論理的推論を行う必要があるという, より困難な課題について検討する。
さらに難しいのは、条件のサブセットについてのみ証拠を提供するため、いくつかの質問は決定論的回答を持っていないかもしれないということです。
そのような場合、モデルは確率的な答えを見つけ、答えを正すために満たすべき条件を特定するように求められます。
我々はこの挑戦的な推論タスクのために新しいモデルTReasonerを提案する。
TReasonerはエンテーメントモジュール、推論モジュール、生成モジュール(回答が自由形式のテキストスパンであれば)から構成される。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成し、以前の最先端を3-10ポイント上回る。
関連論文リスト
- Chain of Condition: Construct, Verify and Solve Conditions for Conditional Question Answering [34.599299893060895]
条件付き質問応答(CQA)は、可能な回答を見つけ、不足した条件を特定することを目的とした重要なタスクである。
既存のアプローチは,(1)必要な条件と論理的関係を正確に同定し,(2)不足しているものを検出するための条件を検証するという2つの課題により,CQAと競合する。
本論文では,まずすべての条件を同定し,それらの論理的関係を文書に従って明示的に構築することで,新しい条件の連鎖を創出する手法を提案する。
論文 参考訳(メタデータ) (2024-08-10T05:09:11Z) - MDCR: A Dataset for Multi-Document Conditional Reasoning [20.42067697305166]
条件付きQAは、未解決条件を考慮し、文書を読み、適性質問に回答するモデルの能力を評価するために提案された。
我々は,実世界の課題を反映した新しいデータセットMDCRを提案し,最適化を必要とする複雑な条件推論のための新しいテストベッドとして機能する。
論文 参考訳(メタデータ) (2024-06-17T17:38:43Z) - Controllable Decontextualization of Yes/No Question and Answers into
Factual Statements [28.02936811004903]
本稿では,極性質問に対する回答の制御可能な書き直しの問題に対処する。
本稿では,ソフト制約を利用して制御可能な書き換えを実現するトランスフォーマーシーケンス to シーケンスモデルを提案する。
論文 参考訳(メタデータ) (2024-01-18T07:52:12Z) - CREPE: Open-Domain Question Answering with False Presuppositions [92.20501870319765]
オンライン情報検索フォーラムからの予測失敗の自然な分布を含むQAデータセットであるCREPEを紹介する。
25%の質問が偽の前提命題を含み、これらの前提命題とその修正のための注釈を提供する。
既存のオープンドメインQAモデルの適応は適度に予測できるが、仮定が実際に正しいかどうかを予測するのに苦労する。
論文 参考訳(メタデータ) (2022-11-30T18:54:49Z) - WikiWhy: Answering and Explaining Cause-and-Effect Questions [62.60993594814305]
自然言語で答えが正しい理由を説明するために構築されたQAデータセットであるWikiWhyを紹介する。
WikiWhyには、ウィキペディアのさまざまなトピックの事実に基づいて、9000以上の「なぜ」質問回答の3つ組が含まれている。
GPT-3ベースラインは、エンドツーエンドの回答と説明条件において、人間の評価された正しさを38.7%しか達成していない。
論文 参考訳(メタデータ) (2022-10-21T17:59:03Z) - Learn to Explain: Multimodal Reasoning via Thought Chains for Science
Question Answering [124.16250115608604]
本稿では,SQA(Science Question Answering)について紹介する。SQA(Science Question Answering)は,21万のマルチモーダルな複数選択質問と多様な科学トピックと,それに対応する講義や説明による回答の注釈からなる新しいベンチマークである。
また,SQAでは,数ショットのGPT-3では1.20%,微調整のUnifiedQAでは3.99%の改善が見られた。
我々の分析は、人間に似た言語モデルは、より少ないデータから学習し、わずか40%のデータで同じパフォーマンスを達成するのに、説明の恩恵を受けることを示している。
論文 参考訳(メタデータ) (2022-09-20T07:04:24Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - SQuINTing at VQA Models: Introspecting VQA Models with Sub-Questions [66.86887670416193]
現状のVQAモデルでは、知覚や推論の問題に答える上で同等の性能を持つが、一貫性の問題に悩まされていることを示す。
この欠点に対処するため、サブクエスト対応ネットワークチューニング(SQuINT)というアプローチを提案する。
我々は,SQuINTがモデル一貫性を5%向上し,VQAにおける推論問題の性能も改善し,注意マップも改善したことを示す。
論文 参考訳(メタデータ) (2020-01-20T01:02:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。