論文の概要: Chain of Condition: Construct, Verify and Solve Conditions for Conditional Question Answering
- arxiv url: http://arxiv.org/abs/2408.05442v2
- Date: Fri, 4 Oct 2024 03:13:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-08 12:00:35.990484
- Title: Chain of Condition: Construct, Verify and Solve Conditions for Conditional Question Answering
- Title(参考訳): 条件の連鎖:条件質問応答のための構成、検証、解決条件
- Authors: Jiuheng Lin, Yuxuan Lai, Yansong Feng,
- Abstract要約: 条件付き質問応答(CQA)は、可能な回答を見つけ、不足した条件を特定することを目的とした重要なタスクである。
既存のアプローチは,(1)必要な条件と論理的関係を正確に同定し,(2)不足しているものを検出するための条件を検証するという2つの課題により,CQAと競合する。
本論文では,まずすべての条件を同定し,それらの論理的関係を文書に従って明示的に構築することで,新しい条件の連鎖を創出する手法を提案する。
- 参考スコア(独自算出の注目度): 34.599299893060895
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conditional question answering (CQA) is an important task that aims to find probable answers and identify missing conditions. Existing approaches struggle with CQA due to two challenges: (1) precisely identifying necessary conditions and the logical relationship, and (2) verifying conditions to detect any that are missing. In this paper, we propose a novel prompting approach, Chain of condition, by first identifying all conditions and constructing their logical relationships explicitly according to the document, then verifying whether these conditions are satisfied, finally solving the logical expression to indicate any missing conditions and generating the answer accordingly. Experiments on two CQA benchmark datasets show our chain of condition outperforms existing prompting baselines, establishing a new state of the art. Furthermore, with only a few examples, our method can facilitate GPT-3.5-Turbo or GPT-4 to outperform all existing supervised models.
- Abstract(参考訳): 条件付き質問応答(CQA)は、可能な回答を見つけ、不足した条件を特定することを目的とした重要なタスクである。
既存のアプローチは,(1)必要な条件と論理的関係を正確に同定し,(2)不足しているものを検出するための条件を検証するという2つの課題により,CQAと競合する。
本稿では,まずすべての条件を特定し,その条件が満たされているかどうかを検証し,最後に論理的表現を解き,不足した条件を示し,それに応じて回答を生成することによって,条件の連鎖という新しいプロンプト手法を提案する。
2つのCQAベンチマークデータセットの実験では、私たちの状態の連鎖は、既存のプロンプトベースラインよりも優れており、新しい最先端技術を確立しています。
さらに, GPT-3.5-Turbo や GPT-4 が既存の教師付きモデルよりも優れていることを示す。
関連論文リスト
- FREST: Feature RESToration for Semantic Segmentation under Multiple Adverse Conditions [35.243694861973715]
FRESTは、セマンティックセグメンテーションのソースフリードメイン適応(SFDA)を悪条件に適応するための、新しい機能回復フレームワークである。
FRESTは、FDAの有害な状態に対する2つの公開ベンチマークで、最先端の技術を達成している。
目に見えないデータセットに対して優れた一般化能力を示す。
論文 参考訳(メタデータ) (2024-07-18T12:07:02Z) - MDCR: A Dataset for Multi-Document Conditional Reasoning [20.42067697305166]
条件付きQAは、未解決条件を考慮し、文書を読み、適性質問に回答するモデルの能力を評価するために提案された。
我々は,実世界の課題を反映した新しいデータセットMDCRを提案し,最適化を必要とする複雑な条件推論のための新しいテストベッドとして機能する。
論文 参考訳(メタデータ) (2024-06-17T17:38:43Z) - SQ Lower Bounds for Non-Gaussian Component Analysis with Weaker
Assumptions [50.20087216230159]
統計的クエリモデルにおける非ガウス成分分析(NGCA)の複雑さについて検討する。
本研究は, NGCAの場合, モーメントマッチング条件のみにおいて, ほぼ最適SQ下限を証明した。
論文 参考訳(メタデータ) (2024-03-07T18:49:32Z) - Reasoning over Logically Interacted Conditions for Question Answering [113.9231035680578]
我々は、論理的に相互作用する条件のリストによって答えが制約される、より困難なタスクについて研究する。
本稿では,この難解な推論タスクのための新しいモデルTReasonerを提案する。
TReasonerは、2つのベンチマーク条件付きQAデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-05-25T16:41:39Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - Learning Causal Relationships from Conditional Moment Conditions by
Importance Weighting [11.326695040991192]
条件付きモーメント条件下での因果関係の学習を検討する。
条件付きモーメント条件は、高次元設定における因果推論に深刻な課題をもたらす。
条件付きモーメント条件を条件付きモーメント条件に変換する手法を提案する。
論文 参考訳(メタデータ) (2021-08-03T06:07:07Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z) - Conditional Self-Attention for Query-based Summarization [49.616774159367516]
条件依存モデリング用に設計されたニューラルネットワークモジュールであるテキスト条件自己アテンション(CSA)を提案する。
DebatepediaとHotpotQAベンチマークデータセットの実験は、CSAがバニラトランスフォーマーを一貫して上回っていることを示している。
論文 参考訳(メタデータ) (2020-02-18T02:22:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。