論文の概要: Modeling What-to-ask and How-to-ask for Answer-unaware Conversational
Question Generation
- arxiv url: http://arxiv.org/abs/2305.03088v1
- Date: Thu, 4 May 2023 18:06:48 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-08 16:24:00.712783
- Title: Modeling What-to-ask and How-to-ask for Answer-unaware Conversational
Question Generation
- Title(参考訳): 問合せ生成のための問合せと問合せのモデル化
- Authors: Xuan Long Do, Bowei Zou, Shafiq Joty, Anh Tai Tran, Liangming Pan,
Nancy F. Chen, Ai Ti Aw
- Abstract要約: What-to-askとHow-to-askは、回答を意識しない2つの主要な課題である。
本稿では,2段階CQGフレームワークであるSG-CQGを紹介する。
- 参考スコア(独自算出の注目度): 30.086071993793823
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational Question Generation (CQG) is a critical task for machines to
assist humans in fulfilling their information needs through conversations. The
task is generally cast into two different settings: answer-aware and
answer-unaware. While the former facilitates the models by exposing the
expected answer, the latter is more realistic and receiving growing attentions
recently. What-to-ask and how-to-ask are the two main challenges in the
answer-unaware setting. To address the first challenge, existing methods mainly
select sequential sentences in context as the rationales. We argue that the
conversation generated using such naive heuristics may not be natural enough as
in reality, the interlocutors often talk about the relevant contents that are
not necessarily sequential in context. Additionally, previous methods decide
the type of question to be generated (boolean/span-based) implicitly. Modeling
the question type explicitly is crucial as the answer, which hints the models
to generate a boolean or span-based question, is unavailable. To this end, we
present SG-CQG, a two-stage CQG framework. For the what-to-ask stage, a
sentence is selected as the rationale from a semantic graph that we construct,
and extract the answer span from it. For the how-to-ask stage, a classifier
determines the target answer type of the question via two explicit control
signals before generating and filtering. In addition, we propose Conv-Distinct,
a novel evaluation metric for CQG, to evaluate the diversity of the generated
conversation from a context. Compared with the existing answer-unaware CQG
models, the proposed SG-CQG achieves state-of-the-art performance.
- Abstract(参考訳): 会話型質問生成(cqg)は、人間が会話を通じて情報ニーズを満たすのを支援する機械にとって重要なタスクである。
このタスクは一般的に2つの異なる設定に分類される。
前者は期待する回答を公開することによってモデルを促進するが、後者はより現実的で、最近注目を集めている。
What-to-askとHow-to-askは、回答を意識しない2つの主要な課題である。
最初の課題に対処するため、既存の手法は主に文脈内の逐次文を有理数として選択する。
このようなナイーブなヒューリスティックスを用いて生成された会話は、現実ほど自然ではないかもしれない、と我々は論じる。
さらに、以前のメソッドは生成すべき質問の種類(ブール/スパンベース)を暗黙的に決定する。
質問タイプを明示的にモデル化することは、モデルがブールあるいはスパンベースの質問を生成することを示唆する答えとして不可欠である。
この目的のために,2段階CQGフレームワークであるSG-CQGを提案する。
what-to-askステージでは、構築する意味グラフから文を論理として選択し、その文から回答スパンを抽出する。
How-to-askの段階では、分類器は、2つの明示的な制御信号を介して質問のターゲット回答タイプを決定する。
さらに,CQGの新たな評価指標であるConv-Distinctを提案し,文脈から生成された会話の多様性を評価する。
既存のCQGモデルと比較して、提案したSG-CQGは最先端の性能を実現する。
関連論文リスト
- Davidsonian Scene Graph: Improving Reliability in Fine-grained Evaluation for Text-to-Image Generation [64.64849950642619]
テキスト・ツー・イメージ・モデルを評価するための形式的意味論にインスパイアされた評価フレームワークを開発する。
Davidsonian Scene Graph (DSG) が依存性グラフにまとめられた原子的およびユニークな質問を生成することを示す。
また,1060個のプロンプトを含むオープンソースの評価ベンチマークDSG-1kを提案する。
論文 参考訳(メタデータ) (2023-10-27T16:20:10Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Open-Set Knowledge-Based Visual Question Answering with Inference Paths [79.55742631375063]
知識に基づく視覚的質問回答(KB-VQA)の目的は、外部知識ベースの助けを借りて質問に対する正しい回答を提供することである。
KB-VQA, Graph pATH ranker (GATHER for brevity) の新しいレトリバーランカパラダイムを提案する。
具体的には、グラフの構築、プルーニング、パスレベルのランク付けが含まれており、正確な回答を検索するだけでなく、推論パスを提供して推論プロセスを説明する。
論文 参考訳(メタデータ) (2023-10-12T09:12:50Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - HPE:Answering Complex Questions over Text by Hybrid Question Parsing and
Execution [92.69684305578957]
テキストQAにおける質問解析と実行の枠組みを提案する。
提案したフレームワークは、トップダウンの質問パースとして、ボトムアップの回答バックトラックとみなすことができる。
MuSiQue,2WikiQA,HotpotQA,およびNQに関する実験により,提案した解析およびハイブリッド実行フレームワークが,教師付き,少数ショット,ゼロショット設定における既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2023-05-12T22:37:06Z) - Keeping the Questions Conversational: Using Structured Representations
to Resolve Dependency in Conversational Question Answering [26.997542897342164]
本稿では,中間表現を会話の手がかりとして捉え,生成するための新しいフレームワークCONVSR(CONVQA using Structured Representations)を提案する。
我々はQuACとCANARDのデータセット上でモデルをテストし、提案するフレームワークが標準的な質問書き直しモデルよりも優れたF1スコアを達成できることを実験結果により示す。
論文 参考訳(メタデータ) (2023-04-14T13:42:32Z) - CoHS-CQG: Context and History Selection for Conversational Question
Generation [31.87967788600221]
入力のコンテキストと履歴を短縮するCoHSモジュールを採用した2段階CQGフレームワークを提案する。
本モデルは,応答認識と応答認識の両方の設定において,CoQAの最先端性能を実現する。
論文 参考訳(メタデータ) (2022-09-14T13:58:52Z) - Co-VQA : Answering by Interactive Sub Question Sequence [18.476819557695087]
本稿では,質問者,Oracle,Answererの3つのコンポーネントからなる対話型VQAフレームワークを提案する。
モデル毎に教師あり学習を行うために,VQA 2.0 と VQA-CP v2 データセット上で,各質問に対する SQS を構築する方法を提案する。
論文 参考訳(メタデータ) (2022-04-02T15:09:16Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Fluent Response Generation for Conversational Question Answering [15.826109118064716]
本稿では,SEQ2SEQ NLGアプローチで応答をシチュレートする手法を提案する。
我々は、エンドツーエンドシステムのトレーニングデータを生成するためにデータ拡張を使用します。
論文 参考訳(メタデータ) (2020-05-21T04:57:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。