論文の概要: What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys
- arxiv url: http://arxiv.org/abs/2205.10977v2
- Date: Fri, 13 Oct 2023 15:38:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-16 18:36:48.448665
- Title: What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys
- Title(参考訳): 質問すべきこと:会話調査におけるフォローアップ質問生成のための知識駆動的アプローチ
- Authors: Yubin Ge, Ziang Xiao, Jana Diesner, Heng Ji, Karrie Karahalios, Hari
Sundaram
- Abstract要約: 対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
- 参考スコア(独自算出の注目度): 63.51903260461746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generating follow-up questions on the fly could significantly improve
conversational survey quality and user experiences by enabling a more dynamic
and personalized survey structure. In this paper, we proposed a novel task for
knowledge-driven follow-up question generation in conversational surveys. We
constructed a new human-annotated dataset of human-written follow-up questions
with dialogue history and labeled knowledge in the context of conversational
surveys. Along with the dataset, we designed and validated a set of
reference-free Gricean-inspired evaluation metrics to systematically evaluate
the quality of generated follow-up questions. We then propose a two-staged
knowledge-driven model for the task, which generates informative and coherent
follow-up questions by using knowledge to steer the generation process. The
experiments demonstrate that compared to GPT-based baseline models, our
two-staged model generates more informative, coherent, and clear follow-up
questions.
- Abstract(参考訳): フォローアップ質問をオンザフライで生成することで、よりダイナミックでパーソナライズされた調査構造を可能にすることで、会話型の調査品質とユーザエクスペリエンスが大幅に向上する。
本稿では,会話調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
対話履歴とラベル付き知識を対話型サーベイの文脈で記述した,人間による追記質問の新しいデータセットを構築した。
データセットとともに、参照フリーのgriceanにインスパイアされた評価メトリクスを設計、検証し、生成したフォローアップ質問の品質を体系的に評価した。
次に,知識を用いて生成過程を制御し,情報的かつコヒーレントなフォローアップ質問を生成する2段階の知識駆動モデルを提案する。
実験の結果、GPTベースのベースラインモデルと比較して、我々の2段階モデルはより情報的で一貫性があり、明確なフォローアップ質問を生成することがわかった。
関連論文リスト
- Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - FOLLOWUPQG: Towards Information-Seeking Follow-up Question Generation [38.78216651059955]
実世界の情報検索フォローアップ質問生成(FQG)の課題について紹介する。
オープンエンド質問に対するRedditフレンドリーな説明を提供するフォーラムレイマンから収集した,3K以上の実世界のデータセット(初期質問,回答,フォローアップ質問)であるFOLLOWUPQGを構築した。
既存のデータセットとは対照的に、FOLLOWUPQGの質問は情報を求めるためにより多様な実用的戦略を使用し、高次認知能力も示している。
論文 参考訳(メタデータ) (2023-09-10T11:58:29Z) - Benchmarking Foundation Models with Language-Model-as-an-Examiner [47.345760054595246]
本稿では,新しいベンチマークフレームワークLanguage-Model-as-an-Examinerを提案する。
LMは、その知識に基づいて質問を定式化し、基準のない方法で応答を評価する、知識に富んだ検査者として機能する。
論文 参考訳(メタデータ) (2023-06-07T06:29:58Z) - Evaluating Mixed-initiative Conversational Search Systems via User
Simulation [9.066817876491053]
このような検索システムの自動評価のための対話型ユーザシミュレータUSiを提案する。
Ui が生成した応答は,その基盤となる情報要求と同等であり,人間による回答に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-04-17T16:27:33Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。