論文の概要: Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations
- arxiv url: http://arxiv.org/abs/2004.14530v2
- Date: Tue, 20 Oct 2020 16:53:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-08 03:58:07.984783
- Title: Stay Hungry, Stay Focused: Generating Informative and Specific Questions
in Information-Seeking Conversations
- Title(参考訳): 空腹で集中する - 情報参照会話における情報的かつ具体的な質問の生成
- Authors: Peng Qi, Yuhao Zhang, Christopher D. Manning
- Abstract要約: 情報非対称な会話における情報的質問生成の問題について検討する。
実践的な質問を生成するために,情報量測定を最適化するために強化学習を用いる。
そこで本研究では,提案した実用的質問は,ベースラインモデル上で生成した質問の有意性と特異性を大幅に向上させることを示す。
- 参考スコア(独自算出の注目度): 41.74162467619795
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We investigate the problem of generating informative questions in
information-asymmetric conversations. Unlike previous work on question
generation which largely assumes knowledge of what the answer might be, we are
interested in the scenario where the questioner is not given the context from
which answers are drawn, but must reason pragmatically about how to acquire new
information, given the shared conversation history. We identify two core
challenges: (1) formally defining the informativeness of potential questions,
and (2) exploring the prohibitively large space of potential questions to find
the good candidates. To generate pragmatic questions, we use reinforcement
learning to optimize an informativeness metric we propose, combined with a
reward function designed to promote more specific questions. We demonstrate
that the resulting pragmatic questioner substantially improves the
informativeness and specificity of questions generated over a baseline model,
as evaluated by our metrics as well as humans.
- Abstract(参考訳): 情報非対称対話における情報的質問生成の問題について検討する。
質問生成に関する従来の研究とは違い、我々は質問者がどの回答を引き出すかという文脈を与えられていないが、共有された会話履歴から新しい情報を取得する方法について実践的に推論しなければならないシナリオに関心を持っている。
我々は,(1)潜在的な質問の有益さを形式的に定義すること,(2)潜在的質問の潜在的に大きな空間を探索すること,の2つの主な課題を明らかにする。
実践的な質問を生成するために,提案する情報度指標を最適化するために強化学習を用い,より具体的な質問を促進するために設計された報酬関数と組み合わせた。
結果として得られた実用的質問者は,人間だけでなく指標によって評価されるベースラインモデル上で発生する質問の情報性と特異性を大幅に改善できることを実証する。
関連論文リスト
- How to Engage Your Readers? Generating Guiding Questions to Promote Active Reading [60.19226384241482]
教科書や科学論文から10Kのインテキスト質問のデータセットであるGuidingQを紹介した。
言語モデルを用いてこのような質問を生成するための様々なアプローチを探索する。
我々は、そのような質問が読解に与える影響を理解するために、人間の研究を行う。
論文 参考訳(メタデータ) (2024-07-19T13:42:56Z) - Which questions should I answer? Salience Prediction of Inquisitive Questions [118.097974193544]
非常に健全な質問は、同じ記事で経験的に答えられる可能性が高いことを示す。
質問に対する回答が,ニュースの要約品質の指標であることを示すことで,我々の知見をさらに検証する。
論文 参考訳(メタデータ) (2024-04-16T21:33:05Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - FOLLOWUPQG: Towards Information-Seeking Follow-up Question Generation [38.78216651059955]
実世界の情報検索フォローアップ質問生成(FQG)の課題について紹介する。
オープンエンド質問に対するRedditフレンドリーな説明を提供するフォーラムレイマンから収集した,3K以上の実世界のデータセット(初期質問,回答,フォローアップ質問)であるFOLLOWUPQGを構築した。
既存のデータセットとは対照的に、FOLLOWUPQGの質問は情報を求めるためにより多様な実用的戦略を使用し、高次認知能力も示している。
論文 参考訳(メタデータ) (2023-09-10T11:58:29Z) - What should I Ask: A Knowledge-driven Approach for Follow-up Questions
Generation in Conversational Surveys [63.51903260461746]
対話型調査における知識駆動型フォローアップ質問生成のための新しい課題を提案する。
そこで我々は,対話履歴とラベル付き知識を用いた人手によるフォローアップ質問の新しいデータセットを構築した。
次に,その課題に対する2段階の知識駆動モデルを提案する。
論文 参考訳(メタデータ) (2022-05-23T00:57:33Z) - Evaluating Mixed-initiative Conversational Search Systems via User
Simulation [9.066817876491053]
このような検索システムの自動評価のための対話型ユーザシミュレータUSiを提案する。
Ui が生成した応答は,その基盤となる情報要求と同等であり,人間による回答に匹敵するものであることを示す。
論文 参考訳(メタデータ) (2022-04-17T16:27:33Z) - Reinforcement Learning for Abstractive Question Summarization with
Question-aware Semantic Rewards [20.342580435464072]
本稿では,抽象的な質問要約のための強化学習に基づくフレームワークを提案する。
i)質問型識別と(ii)質問焦点認識の下流タスクから得られる2つの新しい報酬を提案する。
これらの報酬は意味論的に有効な質問の生成を確実にし、質問要約に重要な医療機関/焦点を取り入れることを奨励する。
論文 参考訳(メタデータ) (2021-07-01T02:06:46Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。