論文の概要: Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach
- arxiv url: http://arxiv.org/abs/2311.09383v1
- Date: Wed, 15 Nov 2023 21:22:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 17:26:26.975747
- Title: Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach
- Title(参考訳): 長文質問応答:反復的計画-再帰的生成アプローチ
- Authors: Pritom Saha Akash, Kashob Kumar Roy, Lucian Popa, Kevin Chen-Chuan
Chang
- Abstract要約: 長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
- 参考スコア(独自算出の注目度): 28.849548176802262
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Long-form question answering (LFQA) poses a challenge as it involves
generating detailed answers in the form of paragraphs, which go beyond simple
yes/no responses or short factual answers. While existing QA models excel in
questions with concise answers, LFQA requires handling multiple topics and
their intricate relationships, demanding comprehensive explanations. Previous
attempts at LFQA focused on generating long-form answers by utilizing relevant
contexts from a corpus, relying solely on the question itself. However, they
overlooked the possibility that the question alone might not provide sufficient
information to identify the relevant contexts. Additionally, generating
detailed long-form answers often entails aggregating knowledge from diverse
sources. To address these limitations, we propose an LFQA model with iterative
Planning, Retrieval, and Generation. This iterative process continues until a
complete answer is generated for the given question. From an extensive
experiment on both an open domain and a technical domain QA dataset, we find
that our model outperforms the state-of-the-art models on various textual and
factual metrics for the LFQA task.
- Abstract(参考訳): LFQA(Long-form Question answering)は、単純なイエス/ノー応答や短い事実回答を超越した、段落形式で詳細な回答を生成するという課題を提起する。
既存のQAモデルは簡潔な回答を伴う質問に優れているが、LFQAは複数のトピックとその複雑な関係を扱う必要があり、包括的な説明を必要とする。
lfqaの以前の試みでは、コーパスから関連するコンテキストを利用して、質問自体のみに依存する長文の回答の生成に重点を置いていた。
しかし、質問だけでは関連するコンテキストを特定するのに十分な情報を提供していない可能性を見落としていた。
さらに、詳細なロングフォームの回答を生成するには、様々な情報源からの知識が集約されることが多い。
これらの制約に対処するために、反復計画、検索、生成を伴うLFQAモデルを提案する。
この反復プロセスは、与えられた質問に対して完全な回答が生成されるまで続く。
オープンドメインとテクニカルドメインの両方のQAデータセットに関する広範な実験から、私たちのモデルはLFQAタスクのさまざまなテキストおよび実測値の最先端モデルよりも優れています。
関連論文リスト
- Retrieving Contextual Information for Long-Form Question Answering using Weak Supervision [23.394961301584026]
LFQA(Long-form Question answering)は、エンドユーザの質問に対する詳細な回答を生成することを目的としている。
本研究では,文脈情報の検索を最適化するために,様々な弱い監視手法を提案し,比較する。
長文の回答は、しばしばフォローアップの質問を予想することを示している。
論文 参考訳(メタデータ) (2024-10-11T08:42:02Z) - Automatic Question-Answer Generation for Long-Tail Knowledge [65.11554185687258]
テールエンティティのための特別なQAデータセットを生成するための自動アプローチを提案する。
我々は,新たに生成された長尾QAデータセットに事前学習したLLMを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2024-03-03T03:06:31Z) - Diversity Enhanced Narrative Question Generation for Storybooks [4.043005183192124]
マルチクエスト生成モデル(mQG)を導入し,複数の,多様な,回答可能な質問を生成する。
生成した質問の応答性を検証するために,SQuAD2.0の微調整された質問応答モデルを用いる。
mQGは、強力なベースラインの中で、様々な評価指標で有望な結果を示している。
論文 参考訳(メタデータ) (2023-10-25T08:10:04Z) - Improving Question Generation with Multi-level Content Planning [70.37285816596527]
本稿では、与えられたコンテキストと回答から質問を生成する問題に対処し、特に拡張されたコンテキストをまたいだマルチホップ推論を必要とする質問に焦点をあてる。
具体的には、キーフレーズを同時に選択して完全な回答を生成するFA-modelと、生成した全回答を付加的な入力として取り込んだQ-modelの2つのコンポーネントを含む。
論文 参考訳(メタデータ) (2023-10-20T13:57:01Z) - An Empirical Comparison of LM-based Question and Answer Generation
Methods [79.31199020420827]
質問と回答の生成(QAG)は、コンテキストが与えられた質問と回答のペアのセットを生成することで構成される。
本稿では,シーケンス・ツー・シーケンス言語モデル(LM)を微調整する3つの異なるQAG手法を用いて,ベースラインを確立する。
実験により、学習時間と推論時間の両方で計算的に軽量なエンドツーエンドQAGモデルが一般に堅牢であり、他のより複雑なアプローチよりも優れていることが示された。
論文 参考訳(メタデータ) (2023-05-26T14:59:53Z) - Generative Long-form Question Answering: Relevance, Faithfulness and
Succinctness [9.770663160391287]
Long Form Question Answering (LFQA) は、ある質問に対して、より深い、項長の回答を生成することを目的としている。
LFQAシステムを効果的に構築する作業はほとんど行われていない。
1)質問関連性,2)回答忠実性,3)回答簡潔性の観点から回答品質を改善するための研究の方向性を開拓した。
論文 参考訳(メタデータ) (2022-11-15T18:36:01Z) - Read before Generate! Faithful Long Form Question Answering with Machine
Reading [77.17898499652306]
LFQA(Long-form Question answering)は、ある質問に対する段落長の回答を生成することを目的としている。
生成と機械読取を協調的にモデル化する新しいエンドツーエンドフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-01T10:41:17Z) - Relation-Guided Pre-Training for Open-Domain Question Answering [67.86958978322188]
複雑なオープンドメイン問題を解決するためのRGPT-QA(Relation-Guided Pre-Training)フレームワークを提案する。
RGPT-QAは, 自然質問, TriviaQA, WebQuestionsにおいて, Exact Matchの精度が2.2%, 2.4%, 6.3%向上したことを示す。
論文 参考訳(メタデータ) (2021-09-21T17:59:31Z) - SituatedQA: Incorporating Extra-Linguistic Contexts into QA [7.495151447459443]
SituatedQA(SituatedQA)は,時間的・地理的文脈を考慮に入れた質問に対して,システムが正しい回答を提示しなければならない,オープン検索型QAデータセットである。
質問を求める情報のかなりの割合は、文脈に依存した回答であることがわかった。
我々の研究は、既存のモデルが頻繁に更新される、あるいは珍しい場所から回答を得るのに苦労していることを示している。
論文 参考訳(メタデータ) (2021-09-13T17:53:21Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z) - Template-Based Question Generation from Retrieved Sentences for Improved
Unsupervised Question Answering [98.48363619128108]
擬似学習データを用いてQAモデルを訓練するための教師なしアプローチを提案する。
関連した検索文に簡単なテンプレートを適用してQA学習のための質問を生成すると、元の文脈文よりも、下流QAのパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2020-04-24T17:57:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。