論文の概要: What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys
- arxiv url: http://arxiv.org/abs/2205.10977v1
- Date: Mon, 23 May 2022 00:57:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-29 14:36:29.805831
- Title: What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys
- Title(参考訳): 質問すべきこと:会話調査におけるフォローアップ質問生成のための知識駆動的アプローチ
- Authors: Yubin Ge, Ziang Xiao, Jana Diesner, Heng Ji, Karrie Karahalios, Hari
Sundaram
- Abstract要約: 会話型調査のよいフォローアップ質問は、高品質な情報を促し、魅力的な体験を提供する。
本研究では,知識駆動型フォローアップ質問生成フレームワークを提案する。
実験により,本フレームワークは客観的評価と人間-専門家評価の両方において,GPTベースラインを上回っていることが示された。
- 参考スコア(独自算出の注目度): 60.831374779191044
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Conversational surveys, where an agent asks open-ended questions through
natural language interfaces, offer a new way to collect information from
people. A good follow-up question in a conversational survey prompts
high-quality information and delivers engaging experiences. However, generating
high-quality follow-up questions on the fly is a non-trivial task. The agent
needs to understand the diverse and complex participant responses, adhere to
the survey goal, and generate clear and coherent questions. In this study, we
propose a knowledge-driven follow-up question generation framework. The
framework combines a knowledge selection module to identify salient topics in
participants' responses and a generative model guided by selected knowledge
entity-relation pairs. To investigate the effectiveness of the proposed
framework, we build a new dataset for open-domain follow-up question generation
and present a new set of reference-free evaluation metrics based on Gricean
Maxim. Our experiments demonstrate that our framework outperforms a GPT-based
baseline in both objective evaluation and human-expert evaluation.
- Abstract(参考訳): エージェントが自然言語インターフェイスを通じてオープンエンドの質問をする会話調査は、人々から情報を集める新しい方法を提供する。
会話型調査のよいフォローアップ質問は、高品質な情報を促し、魅力的な体験を提供する。
しかし、高品質なフォローアップ質問をその場で生成するのは簡単ではない。
エージェントは、多様で複雑な参加者の反応を理解し、調査目標に固執し、明確で一貫性のある質問を生成する必要がある。
本研究では,知識駆動のフォローアップ質問生成フレームワークを提案する。
このフレームワークは、参加者の反応における有能なトピックを特定するための知識選択モジュールと、選択された知識エンティティ関連ペアによってガイドされる生成モデルを組み合わせる。
提案フレームワークの有効性を検討するために,オープンドメインのフォローアップ質問生成のための新しいデータセットを構築し,gricean maximに基づく参照フリー評価指標を提案する。
実験により,本フレームワークは客観的評価と人間-専門家評価の両方において,GPTベースラインを上回っていることが示された。
関連論文リスト
- Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - FOLLOWUPQG: Towards Information-Seeking Follow-up Question Generation [38.78216651059955]
実世界の情報検索フォローアップ質問生成(FQG)の課題について紹介する。
オープンエンド質問に対するRedditフレンドリーな説明を提供するフォーラムレイマンから収集した,3K以上の実世界のデータセット(初期質問,回答,フォローアップ質問)であるFOLLOWUPQGを構築した。
既存のデータセットとは対照的に、FOLLOWUPQGの質問は情報を求めるためにより多様な実用的戦略を使用し、高次認知能力も示している。
論文 参考訳(メタデータ) (2023-09-10T11:58:29Z) - Benchmarking Foundation Models with Language-Model-as-an-Examiner [47.345760054595246]
本稿では,新しいベンチマークフレームワークLanguage-Model-as-an-Examinerを提案する。
LMは、その知識に基づいて質問を定式化し、基準のない方法で応答を評価する、知識に富んだ検査者として機能する。
論文 参考訳(メタデータ) (2023-06-07T06:29:58Z) - Evaluating Mixed-initiative Conversational Search Systems via User
Simulation [9.066817876491053]
このような検索システムの自動評価のための対話型ユーザシミュレータUSiを提案する。
Ui が生成した応答は,その基盤となる情報要求と同等であり,人間による回答に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-04-17T16:27:33Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - Probing Task-Oriented Dialogue Representation from Language Models [106.02947285212132]
本稿では,タスク指向対話タスクにおいて,どのモデルが本質的に最も有意義な表現を担っているかを明らかにするために,事前学習された言語モデルについて検討する。
我々は、アノテートラベルを教師付き方法で固定された事前学習言語モデルの上に、分類器プローブとしてフィードフォワード層を微調整する。
論文 参考訳(メタデータ) (2020-10-26T21:34:39Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - A Survey on Complex Question Answering over Knowledge Base: Recent
Advances and Challenges [71.4531144086568]
知識ベース(KB)に対する質問回答(QA)は、自然言語の質問に自動的に答えることを目的としている。
研究者は、よりKBのトリプルと制約推論を必要とする単純な質問から複雑な質問へと注意を移した。
論文 参考訳(メタデータ) (2020-07-26T07:13:32Z) - Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations [41.74162467619795]
情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
論文 参考訳(メタデータ) (2020-04-30T00:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。