論文の概要: Consistency Training by Synthetic Question Generation for Conversational Question Answering
- arxiv url: http://arxiv.org/abs/2404.11109v1
- Date: Wed, 17 Apr 2024 06:49:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-18 15:04:52.095605
- Title: Consistency Training by Synthetic Question Generation for Conversational Question Answering
- Title(参考訳): 対話型質問応答のための合成質問生成による一貫性学習
- Authors: Hamed Hematian Hemati, Hamid Beigy,
- Abstract要約: 我々は、歴史的情報を合成的な質問で強化し、その推論を無関係な歴史に対して堅牢にする。
これは、会話型QA設定をモデル化するためのデータ拡張の一形態として、質問生成を用いた最初の研究例である。
- 参考スコア(独自算出の注目度): 14.211024633768986
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Efficiently modeling historical information is a critical component in addressing user queries within a conversational question-answering (QA) context, as historical context plays a vital role in clarifying the user's questions. However, irrelevant history induces noise in the reasoning process, especially for those questions with a considerable historical context. In our novel model-agnostic approach, referred to as CoTaH (Consistency-Trained augmented History), we augment the historical information with synthetic questions and subsequently employ consistency training to train a model that utilizes both real and augmented historical data to implicitly make the reasoning robust to irrelevant history. To the best of our knowledge, this is the first instance of research using question generation as a form of data augmentation to model conversational QA settings. By citing a common modeling error prevalent in previous research, we introduce a new baseline model and compare our model's performance against it, demonstrating an improvement in results, particularly when dealing with questions that include a substantial amount of historical context. The source code can be found on our GitHub page.
- Abstract(参考訳): 履歴情報を効果的にモデル化することは、ユーザの質問を明確にする上で、歴史的コンテキストが重要な役割を果たすため、会話型質問回答(QA)コンテキスト内のユーザクエリに対処する上で重要な要素である。
しかし、無関係な歴史は、特にかなりの歴史的文脈の疑問に対して、推論過程においてノイズを引き起こす。
筆者らは,CoTaH(Consistency-Trained augmented History)と呼ばれる新しいモデル非依存アプローチにおいて,過去の情報を合成質問で強化し,その後,実データと拡張履歴データの両方を利用したモデルトレーニングを行い,無関係な歴史に対する推論を暗黙的に堅牢にする。
我々の知る限りでは、これは会話型QA設定をモデル化するためのデータ拡張の一形態として質問生成を用いた最初の研究事例である。
過去の研究でよく見られるモデリングエラーを引用することによって、新しいベースラインモデルを導入し、モデルの性能をそれと比較し、特に大量の歴史的文脈を含む質問に対処する際に、結果の改善を示す。
ソースコードはGitHubのページにある。
関連論文リスト
- Long-Span Question-Answering: Automatic Question Generation and QA-System Ranking via Side-by-Side Evaluation [65.16137964758612]
大規模言語モデルにおける長文文の活用について検討し,本書全体の読解データを作成する。
我々の目的は、長いテキストの詳細な理解を必要とする問題を分析し、理解し、推論するLLMの能力をテストすることである。
論文 参考訳(メタデータ) (2024-05-31T20:15:10Z) - Learning to Select the Relevant History Turns in Conversational Question
Answering [27.049444003555234]
関連する履歴の選択と正しい回答予測の依存関係は興味深いが、探索されていない領域である。
本稿では,まず,すべての履歴ターンのコンテキストと質問エンティティを生成するフレームワークであるDHS-ConvQAを提案する。
関連ターンの選択は、元の質問を書き換えるよりも有効であることを示す。
論文 参考訳(メタデータ) (2023-08-04T12:59:39Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - History Semantic Graph Enhanced Conversational KBQA with Temporal
Information Modeling [28.27368343751272]
会話履歴における長距離意味的依存関係を効果的にモデル化できる履歴意味グラフ拡張KBQAモデル(HSGE)を提案する。
複雑な逐次質問応答のためのベンチマークデータセットを用いてHSGEを評価した。
論文 参考訳(メタデータ) (2023-06-12T05:10:58Z) - RECKONING: Reasoning through Dynamic Knowledge Encoding [51.076603338764706]
言語モデルは、文脈の一部として提供される知識について推論することで、質問に答えることができることを示す。
これらの状況では、モデルは質問に答えるために必要な知識を区別することができない。
我々は、与えられた文脈知識をモデルのパラメータに折り畳み、より堅牢に推論するようにモデルに教えることを提案する。
論文 参考訳(メタデータ) (2023-05-10T17:54:51Z) - Realistic Conversational Question Answering with Answer Selection based
on Calibrated Confidence and Uncertainty Measurement [54.55643652781891]
対話型質問回答モデル(ConvQA)は,会話中に複数回発生した質問文と過去の質問文のペアを用いて質問に回答することを目的としている。
本稿では,会話履歴における不正確な回答を,ConvQAモデルから推定された信頼度と不確実性に基づいてフィルタリングすることを提案する。
我々は2つの標準ConvQAデータセット上で、回答選択に基づくリアルな会話質問回答モデルの有効性を検証する。
論文 参考訳(メタデータ) (2023-02-10T09:42:07Z) - History-Aware Hierarchical Transformer for Multi-session Open-domain
Dialogue System [59.78425104243993]
マルチセッションオープンドメイン対話のための履歴認識階層変換器(HAHT)を提案する。
HAHTは歴史会話の長期記憶を維持し、歴史情報を利用して現在の会話状況を理解する。
大規模マルチセッション会話データセットの実験結果は,提案したHAHTモデルがベースラインモデルより一貫して優れていることを示唆している。
論文 参考訳(メタデータ) (2023-02-02T06:54:33Z) - CoHS-CQG: Context and History Selection for Conversational Question
Generation [31.87967788600221]
入力のコンテキストと履歴を短縮するCoHSモジュールを採用した2段階CQGフレームワークを提案する。
本モデルは,応答認識と応答認識の両方の設定において,CoQAの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-14T13:58:52Z) - BERT-CoQAC: BERT-based Conversational Question Answering in Context [10.811729691130349]
履歴変換をシステム内に組み込むためのBERTという,パブリックに利用可能なプリトレーニング言語モデルに基づくフレームワークを紹介する。
実験の結果,我々のフレームワークはQuACリーダボードの最先端モデルと同等の性能を示した。
論文 参考訳(メタデータ) (2021-04-23T03:05:17Z) - A Graph-guided Multi-round Retrieval Method for Conversational
Open-domain Question Answering [52.041815783025186]
本稿では,会話のターン間の回答間の関係をモデル化するグラフ誘導検索手法を提案する。
また,検索コンテキストが現在の質問理解に与える影響を検討するために,マルチラウンド関連フィードバック手法を導入することを提案する。
論文 参考訳(メタデータ) (2021-04-17T04:39:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。