論文の概要: GTM: A Generative Triple-Wise Model for Conversational Question
Generation
- arxiv url: http://arxiv.org/abs/2106.03635v1
- Date: Mon, 7 Jun 2021 14:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-08 18:51:19.001498
- Title: GTM: A Generative Triple-Wise Model for Conversational Question
Generation
- Title(参考訳): GTM:対話型質問生成のためのジェネレーティブトリプルワイズモデル
- Authors: Lei Shen, Fandong Meng, Jinchao Zhang, Yang Feng, Jie Zhou
- Abstract要約: オープンドメイン対話型質問生成(CQG)のための階層的変動を考慮した3次元生成モデルを提案する。
提案手法は, 競争ベースラインよりも流線型, コヒーレンス, 多様性の観点から, 質問の質を著しく向上させる。
- 参考スコア(独自算出の注目度): 36.33685095934868
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generating some appealing questions in open-domain conversations is an
effective way to improve human-machine interactions and lead the topic to a
broader or deeper direction. To avoid dull or deviated questions, some
researchers tried to utilize answer, the "future" information, to guide
question generation. However, they separate a post-question-answer (PQA) triple
into two parts: post-question (PQ) and question-answer (QA) pairs, which may
hurt the overall coherence. Besides, the QA relationship is modeled as a
one-to-one mapping that is not reasonable in open-domain conversations. To
tackle these problems, we propose a generative triple-wise model with
hierarchical variations for open-domain conversational question generation
(CQG). Latent variables in three hierarchies are used to represent the shared
background of a triple and one-to-many semantic mappings in both PQ and QA
pairs. Experimental results on a large-scale CQG dataset show that our method
significantly improves the quality of questions in terms of fluency, coherence
and diversity over competitive baselines.
- Abstract(参考訳): オープンドメインの会話で魅力的な質問を生成することは、人間と機械の対話を改善し、トピックをより広く、より深い方向に導く効果的な方法である。
退屈で逸脱した質問を避けるために、ある研究者は「将来の」情報を利用して質問生成を導こうとした。
しかし、PQA(Post-question-answer)は、PQ(Post-question)とQA(QA)の2つの部分に分けられる。
さらに、QAの関係は、オープンドメインの会話では合理的ではない1対1のマッピングとしてモデル化されている。
これらの問題に対処するために,open-domain conversational question generation (cqg) のための階層的変動を伴う生成的三方向モデルを提案する。
3つの階層の潜在変数は、PQとQAのペアの3重および1対のセマンティックマッピングの共有背景を表すために使用される。
大規模CQGデータセットによる実験結果から,提案手法は,競争ベースラインよりも流線型,コヒーレンス,多様性の観点から,質問の質を著しく向上することが示された。
関連論文リスト
- Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - How to Build Robust FAQ Chatbot with Controllable Question Generator? [5.680871239968297]
本稿では, セマンティックグラフを用いて, 高い品質, 多様性, 制御可能なサンプルを生成する手法を提案する。
流動的でセマンティックに生成されたQAペアは、我々の通過検索モデルをうまく騙すことができる。
生成されたデータセットは、新しいターゲット領域へのQAモデルの一般化性を向上させる。
論文 参考訳(メタデータ) (2021-11-18T12:54:07Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - OneStop QAMaker: Extract Question-Answer Pairs from Text in a One-Stop
Approach [11.057028572260064]
本論文では,文書からQAペアを生成するOneStopというモデルを提案する。
具体的には、質問と対応する回答を同時に抽出する。
OneStopは、複雑なQA生成タスクを解決するために1つのモデルしか必要としないため、産業シナリオでトレーニングやデプロイを行うのがずっと効率的です。
論文 参考訳(メタデータ) (2021-02-24T08:45:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。