論文の概要: PIE-QG: Paraphrased Information Extraction for Unsupervised Question
Generation from Small Corpora
- arxiv url: http://arxiv.org/abs/2301.01064v1
- Date: Tue, 3 Jan 2023 12:20:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-04 13:53:10.799633
- Title: PIE-QG: Paraphrased Information Extraction for Unsupervised Question
Generation from Small Corpora
- Title(参考訳): PIE-QG:小型コーパスからの教師なし質問生成のためのパラフレーズ情報抽出
- Authors: Dinesh Nagumothu, Bahadorreza Ofoghi, Guangyan Huang, Peter W. Eklund
- Abstract要約: PIE-QGは、オープン情報抽出(OpenIE)を使用して、パラフレーズ付き通路から合成トレーニング質問を生成する。
主語,述語,対象>の3つを各節から抽出し,主語(または対象)と述語で質問し,対象(または対象)を回答とする。
- 参考スコア(独自算出の注目度): 4.721845865189576
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Supervised Question Answering systems (QA systems) rely on domain-specific
human-labeled data for training. Unsupervised QA systems generate their own
question-answer training pairs, typically using secondary knowledge sources to
achieve this outcome. Our approach (called PIE-QG) uses Open Information
Extraction (OpenIE) to generate synthetic training questions from paraphrased
passages and uses the question-answer pairs as training data for a language
model for a state-of-the-art QA system based on BERT. Triples in the form of
<subject, predicate, object> are extracted from each passage, and questions are
formed with subjects (or objects) and predicates while objects (or subjects)
are considered as answers. Experimenting on five extractive QA datasets
demonstrates that our technique achieves on-par performance with existing
state-of-the-art QA systems with the benefit of being trained on an order of
magnitude fewer documents and without any recourse to external reference data
sources.
- Abstract(参考訳): 監視された質問回答システム(QAシステム)は、訓練にドメイン固有の人間ラベルデータに依存している。
教師なしQAシステムは、通常、この結果を得るために二次知識ソースを使用して、独自の質問応答トレーニングペアを生成する。
提案手法 (PIE-QG) は,Open Information extract (OpenIE) を用いて,パラフレーズ付き通路から合成学習質問を生成し,質問応答ペアを,BERTに基づく最先端QAシステムのための言語モデルのトレーニングデータとして利用する。
文から<subject, predicate, object>という3つの項目を抽出し,主語(または対象)と主語(または対象)で疑問を形成し,対象(または対象)を解答とする。
抽出された5つのQAデータセットを用いて実験した結果,既存の最先端QAシステムを用いて,文書の桁数を大幅に減らし,外部参照データソースに無関係にトレーニングを行うことで,オンパー性能を実現することができた。
関連論文リスト
- Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - Open-domain Question Answering via Chain of Reasoning over Heterogeneous
Knowledge [82.5582220249183]
異種知識ソース間のシングル/マルチホップ質問に応答する新しいオープンドメイン質問応答(ODQA)フレームワークを提案する。
分離された証拠を収集するためにレトリバーにのみ依存する従来の方法とは異なり、我々の仲介者は検索された集合に対する推論の連鎖を実行する。
本システムは,2つのODQAデータセットであるOTT-QAとNQに対して,Wikipediaの表や節に対する競合性能を実現する。
論文 参考訳(メタデータ) (2022-10-22T03:21:32Z) - Discourse Analysis via Questions and Answers: Parsing Dependency
Structures of Questions Under Discussion [57.43781399856913]
この研究は、談話分析にQUD(Language framework of Questions Under discussion)を採用する。
我々は、文間の関係を、徹底的なきめ細かい質問とは対照的に、自由形式の質問として特徴づける。
完全文書上の質問の依存関係構造を導出する第一種QUDを開発する。
論文 参考訳(メタデータ) (2022-10-12T03:53:12Z) - Questions Are All You Need to Train a Dense Passage Retriever [123.13872383489172]
ARTは、ラベル付きトレーニングデータを必要としない高密度検索モデルをトレーニングするための、新しいコーパスレベルのオートエンコーディングアプローチである。
そこで,(1) 入力質問を用いて証拠文書の集合を検索し,(2) 文書を用いて元の質問を再構築する確率を計算する。
論文 参考訳(メタデータ) (2022-06-21T18:16:31Z) - QASem Parsing: Text-to-text Modeling of QA-based Semantics [19.42681342441062]
本稿では,QA-SRL,QANom,QADiscourseの3つの意味的タスクについて考察する。
最初に統合されたQASem解析ツールをリリースし、下流アプリケーションに実用的です。
論文 参考訳(メタデータ) (2022-05-23T15:56:07Z) - Improving Unsupervised Question Answering via Summarization-Informed
Question Generation [47.96911338198302]
質問生成 (QG) とは, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文, 質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、質問文、
我々は、自由なニュース要約データを使用し、宣言文を依存性解析、名前付きエンティティ認識、セマンティックロールラベリングを用いて適切な質問に変換する。
得られた質問は、元のニュース記事と組み合わせて、エンドツーエンドのニューラルQGモデルをトレーニングする。
論文 参考訳(メタデータ) (2021-09-16T13:08:43Z) - EQG-RACE: Examination-Type Question Generation [21.17100754955864]
本論文では, RACEから抽出したデータセットをもとに, 試験型質問生成手法 (EQG-RACE) を提案する。
EQG-RACEでは、離散的な回答情報を扱うための2つの主要な戦略と、長い文脈における推論が採用されています。
実験結果は、ベースラインよりも優れたEQG-RACEの最先端の性能を示しています。
論文 参考訳(メタデータ) (2020-12-11T03:52:17Z) - Summary-Oriented Question Generation for Informational Queries [23.72999724312676]
主文書のトピックに焦点をあてた自己説明的質問を,適切な長さのパスで答えられるようにすることを目的としている。
本モデルでは,NQデータセット(20.1BLEU-4)上でのSQ生成のSOTA性能を示す。
我々はさらに,本モデルをドメイン外のニュース記事に適用し,ゴールド質問の欠如によるQAシステムによる評価を行い,私たちのモデルがニュース記事に対してより良いSQを生成することを実証し,人間による評価によるさらなる確認を行う。
論文 参考訳(メタデータ) (2020-10-19T17:30:08Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。