論文の概要: Ask To The Point: Open-Domain Entity-Centric Question Generation
- arxiv url: http://arxiv.org/abs/2310.14126v1
- Date: Sat, 21 Oct 2023 22:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 01:43:40.695940
- Title: Ask To The Point: Open-Domain Entity-Centric Question Generation
- Title(参考訳): ポイントを問う - オープンドメインのエンティティ中心の質問生成
- Authors: Yuxiang Liu, Jie Huang, Kevin Chen-Chuan Chang
- Abstract要約: 我々は*entity-centric question generation* (ECQG)と呼ばれる新しいタスクを導入する。
このタスクは、エンティティの観点から質問を生成することを目的としています。
ECQGを解決するために,コンテンツフォーカスと質問検証という2つの新しいモジュールを備えたPLMベースのコヒーレントなフレームワークGenCONEを提案する。
- 参考スコア(独自算出の注目度): 27.5948850672624
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new task called *entity-centric question generation* (ECQG),
motivated by real-world applications such as topic-specific learning, assisted
reading, and fact-checking. The task aims to generate questions from an entity
perspective. To solve ECQG, we propose a coherent PLM-based framework GenCONE
with two novel modules: content focusing and question verification. The content
focusing module first identifies a focus as "what to ask" to form draft
questions, and the question verification module refines the questions
afterwards by verifying the answerability. We also construct a large-scale
open-domain dataset from SQuAD to support this task. Our extensive experiments
demonstrate that GenCONE significantly and consistently outperforms various
baselines, and two modules are effective and complementary in generating
high-quality questions.
- Abstract(参考訳): 本稿では,トピック特化学習,支援読解,ファクトチェックといった実世界の応用を動機とした,*entity-centric question generation* (ECQG) という新しいタスクを紹介する。
タスクはエンティティの観点から質問を生成することを目的としています。
本稿では,コンテントフォーカスと質問検証という2つの新しいモジュールを備えたPLMベースのフレームワークGenCONEを提案する。
コンテンツフォーカスモジュールはまず、焦点を「何を尋ねるか」としてドラフト質問を作成し、質問検証モジュールは、回答可能性を検証することによって、質問を洗練する。
また、このタスクをサポートするために、SQuADから大規模なオープンドメインデータセットを構築します。
我々はGenCONEが様々なベースラインを大幅に上回っており、2つのモジュールが高品質な質問を生成するのに有効で相補的であることを示した。
関連論文リスト
- Benchmarking Multimodal Retrieval Augmented Generation with Dynamic VQA Dataset and Self-adaptive Planning Agent [102.31558123570437]
マルチモーダル大規模言語モデル(MLLM)に固有の「ハロシン化」問題を緩和する上で,mRAG(Multimodal Retrieval Augmented Generation)が重要な役割を果たしている。
マルチモーダル検索のための自己適応型計画エージェントOmniSearchを提案する。
論文 参考訳(メタデータ) (2024-11-05T09:27:21Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - Consecutive Question Generation via Dynamic Multitask Learning [17.264399861776187]
本稿では,論理的に関連する質問応答対の集合を生成する連続質問生成タスク(CQG)を提案する。
まず、CQGの4つのキー要素について検討し、1つのメインタスクが質問応答ペアを生成し、4つの補助タスクが他の要素を生成する新しい動的マルチタスクフレームワークを提案する。
我々は,我々の戦略が質問生成を大幅に改善し,複数の関連するNLPタスクに利益をもたらすことを証明した。
論文 参考訳(メタデータ) (2022-11-16T11:50:36Z) - Modern Question Answering Datasets and Benchmarks: A Survey [5.026863544662493]
質問回答(QA)は、自然言語処理(NLP)の最も重要なタスクの一つである。
NLP技術を用いて、大量の非構造化コーパスに基づいて、与えられた質問に対する対応する回答を生成することを目的としている。
本稿では,ディープラーニングの時代にリリースされた,影響力あるQAデータセットについて検討する。
論文 参考訳(メタデータ) (2022-06-30T05:53:56Z) - Multifaceted Improvements for Conversational Open-Domain Question
Answering [54.913313912927045]
対話型オープンドメイン質問回答(MICQA)のための多面的改善フレームワークを提案する。
第一に、提案したKL分割に基づく正規化は、検索と解答のためのより良い質問理解をもたらすことができる。
第二に、追加されたポストランカモジュールは、より関連性の高いパスをトップにプッシュし、2アスペクトの制約で読者に選択できる。
第3に、十分に設計されたカリキュラム学習戦略は、訓練と推論の黄金の通路設定のギャップを効果的に狭め、黄金の通路支援なしで真の答えを見つけることを奨励する。
論文 参考訳(メタデータ) (2022-04-01T07:54:27Z) - An Improved Attention for Visual Question Answering [46.89101543660587]
VQA(Visual Question Answering)の問題点について考察する。
自然言語で表現された画像と自由形式の自由な質問が与えられた場合、VQAシステムの目的は、画像に関してこの質問に対する正確な回答を提供することである。
モダクティブ内およびモダクティブ間の依存関係をキャプチャするアテンションは、これらの課題に対処するための最も広く使用されるメカニズムとして現れている。
論文 参考訳(メタデータ) (2020-11-04T07:34:54Z) - Inquisitive Question Generation for High Level Text Comprehension [60.21497846332531]
InQUISITIVEは、文書を読みながら19K質問を抽出するデータセットである。
我々は,読者が情報を求めるための実践的な戦略に携わることを示す。
我々は, GPT-2に基づく質問生成モデルを評価し, 妥当な質問を生成することができることを示す。
論文 参考訳(メタデータ) (2020-10-04T19:03:39Z) - Tell Me How to Ask Again: Question Data Augmentation with Controllable
Rewriting in Continuous Space [94.8320535537798]
機械読解(MRC)、質問生成、質問答え自然言語推論タスクのための制御可能な書き換えベースの質問データ拡張(CRQDA)。
質問データ拡張タスクを制約付き質問書き換え問題として扱い、コンテキスト関連、高品質、多様な質問データサンプルを生成する。
論文 参考訳(メタデータ) (2020-10-04T03:13:46Z) - ClarQ: A large-scale and diverse dataset for Clarification Question
Generation [67.1162903046619]
そこで我々は,スタックエクスチェンジから抽出したポストコメンデーションに基づいて,多様な,大規模な明確化質問データセットの作成を支援する,新しいブートストラップフレームワークを考案した。
質問応答の下流タスクに適用することで,新たに作成したデータセットの有用性を定量的に示す。
我々はこのデータセットを公開し、ダイアログと質問応答システムの拡張という大きな目標を掲げて、質問生成の分野の研究を促進する。
論文 参考訳(メタデータ) (2020-06-10T17:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。