論文の概要: Query Refinement Prompts for Closed-Book Long-Form Question Answering
- arxiv url: http://arxiv.org/abs/2210.17525v1
- Date: Mon, 31 Oct 2022 17:44:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-01 17:16:37.387041
- Title: Query Refinement Prompts for Closed-Book Long-Form Question Answering
- Title(参考訳): クローズドブック長文質問応答のためのクエリリファインメントプロンプト
- Authors: Reinald Kim Amplayo, Kellie Webster, Michael Collins, Dipanjan Das,
Shashi Narayan
- Abstract要約: 大規模言語モデル (LLM) は、質問への回答や長文生成においてよく機能することが示されている。
問合せにおける多面性を明確に表現することを促す問合せ改善プロンプトを定義した。
AsQA と AQuAMuSe の2つの長文質問応答データセットに対する実験により,提案手法を用いることで,クローズド・ブック・セッティングにおける完全微調整モデルよりも優れた性能が得られることが示された。
- 参考スコア(独自算出の注目度): 21.776413623962515
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large language models (LLMs) have been shown to perform well in answering
questions and in producing long-form texts, both in few-shot closed-book
settings. While the former can be validated using well-known evaluation
metrics, the latter is difficult to evaluate. We resolve the difficulties to
evaluate long-form output by doing both tasks at once -- to do question
answering that requires long-form answers. Such questions tend to be
multifaceted, i.e., they may have ambiguities and/or require information from
multiple sources. To this end, we define query refinement prompts that
encourage LLMs to explicitly express the multifacetedness in questions and
generate long-form answers covering multiple facets of the question. Our
experiments on two long-form question answering datasets, ASQA and AQuAMuSe,
show that using our prompts allows us to outperform fully finetuned models in
the closed book setting, as well as achieve results comparable to
retrieve-then-generate open-book models.
- Abstract(参考訳): 大規模言語モデル(LLM)は、質問への回答や長い形式のテキストの生成において、どちらも数ショットのクローズドブック設定でうまく機能することが示されている。
前者はよく知られた評価指標を使って検証できるが、後者は評価が難しい。
両タスクを同時に実行することで、ロングフォームなアウトプットを評価することの難しさを解消し、ロングフォームな回答を必要とする質問に答える。
このような質問は多面的になりがちで、曖昧さや複数の情報源からの情報を必要とする。
この目的を達成するために、llmが質問の多面性を明確に表現し、質問の複数の面をカバーする長文の回答を生成するクエリ改善プロンプトを定義する。
AsQA と AQuAMuSe という2つの長文質問応答データセットに対する実験により,クローズドブック設定における完全微調整モデルよりも優れ,検索可能なオープンブックモデルに匹敵する結果が得られることを示した。
関連論文リスト
- Localizing and Mitigating Errors in Long-form Question Answering [79.63372684264921]
LFQA(Long-form Question answering)は、複雑な質問に対して徹底的で深い回答を提供し、理解を深めることを目的としている。
この研究は、人書きおよびモデル生成LFQA回答の局所的エラーアノテーションを備えた最初の幻覚データセットであるHaluQuestQAを紹介する。
論文 参考訳(メタデータ) (2024-07-16T17:23:16Z) - Prompting-based Synthetic Data Generation for Few-Shot Question Answering [23.97949073816028]
大規模言語モデルを用いることで,複数データセットにおける質問応答性能が向上することを示す。
言語モデルには、一般的な事前学習/微調整スキームを超えて使える貴重なタスク非依存の知識が含まれていることを示唆する。
論文 参考訳(メタデータ) (2024-05-15T13:36:43Z) - Chain-of-Discussion: A Multi-Model Framework for Complex Evidence-Based Question Answering [55.295699268654545]
本稿では,オープンソースのLarge Language Model間の相乗効果を利用する新しいChain-of-Discussionフレームワークを提案する。
実験の結果,複数のLSM間の議論は回答の質を高める上で重要な役割を担っていることがわかった。
論文 参考訳(メタデータ) (2024-02-26T05:31:34Z) - Long-form Question Answering: An Iterative Planning-Retrieval-Generation
Approach [28.849548176802262]
長文質問応答(LFQA)は,段落の形で詳細な回答を生成するため,課題となる。
本稿では,反復計画,検索,生成を伴うLFQAモデルを提案する。
我々のモデルはLFQAタスクの様々なテキストおよび実測値の最先端モデルよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-15T21:22:27Z) - Answering Ambiguous Questions with a Database of Questions, Answers, and
Revisions [95.92276099234344]
ウィキペディアから生成される曖昧な質問のデータベースを利用して、あいまいな質問に答えるための新しい最先端技術を提案する。
提案手法は,リコール対策で15%,予測出力から不明瞭な質問を評価する尺度で10%向上する。
論文 参考訳(メタデータ) (2023-08-16T20:23:16Z) - Answering Ambiguous Questions via Iterative Prompting [84.3426020642704]
オープンドメインの質問応答では、質問のあいまいさのため、複数の妥当な回答が存在する可能性がある。
ひとつのアプローチは、すべての有効な回答を直接予測することですが、これは、妥当性と多様性のバランスに苦労する可能性があります。
本稿では,あいまいな疑問に答える既存手法の欠陥に対処するため,AmbigPromptを提案する。
論文 参考訳(メタデータ) (2023-07-08T04:32:17Z) - Successive Prompting for Decomposing Complex Questions [50.00659445976735]
最近の研究は、大規模言語モデル(LM)の機能を活用して、数ショットで複雑な質問応答を行う。
そこでは、複雑なタスクを単純なタスクに繰り返し分解し、それを解決し、最終解を得るまでプロセスを繰り返します。
我々の最良のモデル(逐次プロンプト付き)は、DROPデータセットの数ショットバージョンにおいて、5%の絶対F1の改善を実現します。
論文 参考訳(メタデータ) (2022-12-08T06:03:38Z) - MultiModalQA: Complex Question Answering over Text, Tables and Images [52.25399438133274]
テキスト,テーブル,画像に対する共同推論を必要とするデータセットであるMultiModalQAを提案する。
大規模で複雑なマルチモーダル質問を生成するための新しいフレームワークを使用してMMQAを作成します。
次に、単一のモダリティから回答できる質問を受け取り、それらを組み合わせてクロスモーダルな質問を生成する形式言語を定義します。
論文 参考訳(メタデータ) (2021-04-13T09:14:28Z) - FeTaQA: Free-form Table Question Answering [33.018256483762386]
FeTaQAは10Kのウィキペディアベースのテーブル、質問、自由形式の回答、テーブルセルペアをサポートする新しいデータセットである。
FeTaQAは、構造化された知識ソースから複数の不連続な事実の検索、推論、および統合後に自由形式のテキスト回答を生成する必要があるため、より困難なテーブル質問回答設定を提供する。
論文 参考訳(メタデータ) (2021-04-01T09:59:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。