論文の概要: Diverse and Specific Clarification Question Generation with Keywords
- arxiv url: http://arxiv.org/abs/2104.10317v1
- Date: Wed, 21 Apr 2021 02:29:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-22 23:51:19.355761
- Title: Diverse and Specific Clarification Question Generation with Keywords
- Title(参考訳): キーワードを用いた多種多様な具体化質問生成
- Authors: Zhiling Zhang, Kenny Q. Zhu
- Abstract要約: CQGen(Clarification Question Generation)は、問題を緩和するための有望なアプローチである。
文脈における回答の存在を仮定する従来のQGenとは異なり、CQGenは未発表情報を求めるユーザの振る舞いを模倣している。
生成されたCQは、電子商取引業者が潜在的な欠落情報を識別するのに役立つサニティチェックまたは校正として役立ちます。
- 参考スコア(独自算出の注目度): 11.06115453930724
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Product descriptions on e-commerce websites often suffer from missing
important aspects. Clarification question generation (CQGen) can be a promising
approach to help alleviate the problem. Unlike traditional QGen assuming the
existence of answers in the context and generating questions accordingly, CQGen
mimics user behaviors of asking for unstated information. The generated CQs can
serve as a sanity check or proofreading to help e-commerce merchant to identify
potential missing information before advertising their product, and improve
consumer experience consequently. Due to the variety of possible user
backgrounds and use cases, the information need can be quite diverse but also
specific to a detailed topic, while previous works assume generating one CQ per
context and the results tend to be generic. We thus propose the task of Diverse
CQGen and also tackle the challenge of specificity. We propose a new model
named KPCNet, which generates CQs with Keyword Prediction and Conditioning, to
deal with the tasks. Automatic and human evaluation on 2 datasets (Home &
Kitchen, Office) showed that KPCNet can generate more specific questions and
promote better group-level diversity than several competing baselines.
- Abstract(参考訳): eコマースウェブサイトの製品説明は、しばしば重要な側面を欠いている。
CQGen(Clarification Question Generation)は、問題を緩和するための有望なアプローチである。
文脈における回答の存在を仮定し、それに応じて質問を生成する従来のQGenとは異なり、CQGenは未発表情報を求めるユーザの振る舞いを模倣する。
生成されたcqsは、電子商取引業者が商品を宣伝する前に欠落している情報を識別し、消費者体験を改善するために、健全性チェックまたは証明読み取りとして機能する。
ユーザ背景やユースケースが多種多様であるため、情報は極めて多様であるが、詳細なトピックにも特化できるが、以前の作業ではコンテキスト毎に1つのcqを生成し、その結果は汎用的になる傾向がある。
そこで我々は,Diverse CQGenの課題を提案し,特異性の課題に取り組む。
そこで本研究では,キーワード予測と条件付きCQを生成するKPCNetという新しいモデルを提案する。
2つのデータセット(Home & Kitchen, Office)の自動的および人的評価は、KPCNetがより具体的な質問を生成し、いくつかの競合するベースラインよりもグループレベルの多様性を促進することを示した。
関連論文リスト
- Expanding Chatbot Knowledge in Customer Service: Context-Aware Similar Question Generation Using Large Language Models [16.429207101534924]
我々は,Large Language Models(LLM)に基づく類似質問生成(SQG)アプローチを提案する。
本手法は, セマンティックな多様性の点で, ベースライン手法をはるかに上回っている。
人間の評価は、顧客の意図を反映した回答を統合することが、生成された質問の数を増やすために重要であることを確認します。
論文 参考訳(メタデータ) (2024-10-16T10:48:14Z) - Qsnail: A Questionnaire Dataset for Sequential Question Generation [76.616068047362]
質問紙作成作業に特化して構築された最初のデータセットについて述べる。
我々はQsnailの実験を行い、その結果、検索モデルと従来の生成モデルが与えられた研究トピックや意図と完全に一致していないことが明らかとなった。
チェーン・オブ・シークレット・プロンプトと微調整による改善にもかかわらず、言語モデルによるアンケートは、人間の手書きのアンケートには及ばない。
論文 参考訳(メタデータ) (2024-02-22T04:14:10Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Event Extraction as Question Generation and Answering [72.04433206754489]
イベント抽出に関する最近の研究は、質問回答(QA)としてタスクを再編成した。
そこで我々は,QGA-EEを提案する。QGモデルにより,定型テンプレートを使わずに,リッチな文脈情報を含む質問を生成することができる。
実験の結果、QGA-EEはACE05の英語データセットで以前のシングルタスクベースのモデルよりも優れていた。
論文 参考訳(メタデータ) (2023-07-10T01:46:15Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - Enhancing Question Generation with Commonsense Knowledge [33.289599417096206]
質問生成プロセスにコモンセンス知識を導入するためのマルチタスク学習フレームワークを提案する。
SQuAD実験の結果,提案手法は自動評価と人的評価の両方でQG性能を著しく向上させることができることがわかった。
論文 参考訳(メタデータ) (2021-06-19T08:58:13Z) - GTM: A Generative Triple-Wise Model for Conversational Question
Generation [36.33685095934868]
オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
論文 参考訳(メタデータ) (2021-06-07T14:07:07Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z) - Generating Diverse and Consistent QA pairs from Contexts with
Information-Maximizing Hierarchical Conditional VAEs [62.71505254770827]
非構造化テキストを文脈として与えられたQAペアを生成するための条件付き変分オートエンコーダ(HCVAE)を提案する。
我々のモデルは、トレーニングにわずかなデータしか使わず、両方のタスクの全てのベースラインに対して印象的なパフォーマンス向上が得られる。
論文 参考訳(メタデータ) (2020-05-28T08:26:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。