論文の概要: CoQAR: Question Rewriting on CoQA
- arxiv url: http://arxiv.org/abs/2207.03240v1
- Date: Thu, 7 Jul 2022 11:47:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-08 13:27:28.476684
- Title: CoQAR: Question Rewriting on CoQA
- Title(参考訳): CoQAR: CoQAに関する質問の書き直し
- Authors: Quentin Brabant, Gwenole Lecorve, Lina M. Rojas-Barahona
- Abstract要約: CoQARは、Conversational Question-AnsweringデータセットのCoQAから4.5ドルの会話を含むコーパスである。
CoQARは、質問パラフレーズ、質問書き換え、会話型質問応答の3つのタスクの教師あり学習に利用できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Questions asked by humans during a conversation often contain contextual
dependencies, i.e., explicit or implicit references to previous dialogue turns.
These dependencies take the form of coreferences (e.g., via pronoun use) or
ellipses, and can make the understanding difficult for automated systems. One
way to facilitate the understanding and subsequent treatments of a question is
to rewrite it into an out-of-context form, i.e., a form that can be understood
without the conversational context. We propose CoQAR, a corpus containing
$4.5$K conversations from the Conversational Question-Answering dataset CoQA,
for a total of $53$K follow-up question-answer pairs. Each original question
was manually annotated with at least 2 at most 3 out-of-context rewritings.
CoQAR can be used in the supervised learning of three tasks: question
paraphrasing, question rewriting and conversational question answering. In
order to assess the quality of CoQAR's rewritings, we conduct several
experiments consisting in training and evaluating models for these three tasks.
Our results support the idea that question rewriting can be used as a
preprocessing step for question answering models, thereby increasing their
performances.
- Abstract(参考訳): 会話中に人間が質問する質問は、しばしば文脈依存、すなわち前回対話への明示的または暗黙的な参照を含む。
これらの依存関係は、コア参照(例えば、代名詞使用による)や楕円の形をとり、自動システムでは理解が困難になる。
質問の理解とその後の扱いを容易にする1つの方法は、それを文脈外形式、すなわち会話的文脈なしで理解できる形式に書き換えることである。
coqarは会話型質問応答データセットcoqaから、合計535ドルのフォローアップ質問応答ペアで450万ドルの会話を含むコーパスである。
それぞれの質問は、少なくとも3つ以上のコンテキスト外書き直しで、手動で注釈付けされた。
CoQARは、質問パラフレーズ、質問書き換え、会話型質問応答の3つのタスクの教師あり学習に利用できる。
coqarの書き直しの質を評価するために,これら3つのタスクのモデルを訓練し,評価する実験を行った。
本研究は,質問書き直しを質問応答モデルの事前処理ステップとして利用し,その性能を向上させることを支援する。
関連論文リスト
- QUDEVAL: The Evaluation of Questions Under Discussion Discourse Parsing [87.20804165014387]
Questions Under discussions (QUD) は、言論を継続的に質問し、答えるように進行する多目的言語フレームワークである。
本研究はQUD解析の自動評価のための最初のフレームワークを紹介する。
細調整されたシステムとLLMの両方から生成された2,190のQUD質問のきめ細かい評価データセットであるQUDevalを提案する。
論文 参考訳(メタデータ) (2023-10-23T03:03:58Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Conversational QA Dataset Generation with Answer Revision [2.5838973036257458]
本稿では,一節から質問に値するフレーズを抽出し,過去の会話を考慮し,それに対応する質問を生成する新しい枠組みを提案する。
本フレームワークでは,抽出した回答を質問生成後に修正し,その回答が一致した質問に正確に一致するようにした。
論文 参考訳(メタデータ) (2022-09-23T04:05:38Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - Discourse Comprehension: A Question Answering Framework to Represent
Sentence Connections [35.005593397252746]
談話理解のためのモデルの構築と評価における重要な課題は、注釈付きデータの欠如である。
本稿では,ニュース文書の理解を目的としたスケーラブルなデータ収集を実現する新しいパラダイムを提案する。
得られたコーパスDCQAは、607の英語文書からなる22,430の質問応答ペアで構成されている。
論文 参考訳(メタデータ) (2021-11-01T04:50:26Z) - ConditionalQA: A Complex Reading Comprehension Dataset with Conditional
Answers [93.55268936974971]
条件付き回答を含む複雑な質問を含む質問回答データセットについて述べる。
このデータセットを ConditionalQA と呼びます。
本稿では,既存のQAモデルの多く,特に回答条件の選択において,ConditionalQAは困難であることを示す。
論文 参考訳(メタデータ) (2021-10-13T17:16:46Z) - Learn to Resolve Conversational Dependency: A Consistency Training
Framework for Conversational Question Answering [14.382513103948897]
本稿では,会話の文脈を理解する上で,QAモデルの能力を高めるためにExCorD(会話依存の解決方法の明示的ガイダンス)を提案する。
実験では,QuACでは1.2F1,CANARDでは5.2F1,QAモデルでは1.2F1に改善した。
論文 参考訳(メタデータ) (2021-06-22T07:16:45Z) - QAConv: Question Answering on Informative Conversations [85.2923607672282]
ビジネスメールやパネルディスカッション,作業チャネルなど,情報的な会話に重点を置いています。
合計で、スパンベース、フリーフォーム、および回答不能な質問を含む34,204のQAペアを収集します。
論文 参考訳(メタデータ) (2021-05-14T15:53:05Z) - Question Rewriting for Conversational Question Answering [15.355557454305776]
本稿では,TREC CAsT 2019パス検索データセット上で,新たな技術状況を設定する対話型QAアーキテクチャを提案する。
また,同じQRモデルにより,QACデータセットのQA性能が向上することを示す。
評価の結果,QRモデルは両データセットにおいてほぼ人間レベルの性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2020-04-30T09:27:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。