論文の概要: Self-Prompting Large Language Models for Zero-Shot Open-Domain QA
- arxiv url: http://arxiv.org/abs/2212.08635v2
- Date: Tue, 16 May 2023 11:29:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-17 19:18:02.919325
- Title: Self-Prompting Large Language Models for Zero-Shot Open-Domain QA
- Title(参考訳): ゼロショットオープンドメインQAのための自己プロンピング大言語モデル
- Authors: Junlong Li, Zhuosheng Zhang, Hai Zhao
- Abstract要約: Open-Domain Question Answering (ODQA) は、背景文書を明示的に提供せずにファクトイドの質問に答えることを目的としている。
ゼロショット設定では、Retriever-Readersのようなカスタマイズされたモデルをトレーニングするデータがないため、このタスクはより難しい。
本稿では,大規模言語モデルのパラメータに格納された膨大な知識を明示的に活用するセルフプロンプトフレームワークを提案する。
- 参考スコア(独自算出の注目度): 84.1784903043884
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Open-Domain Question Answering (ODQA) aims at answering factoid questions
without explicitly providing specific background documents. In a zero-shot
setting, this task is more challenging since no data is available to train
customized models like Retriever-Readers. Recently, Large Language Models
(LLMs) like GPT-3 have shown their power in zero-shot ODQA with direct
prompting methods, but these methods are still far from releasing the full
powerfulness of LLMs only in an implicitly invoking way. In this paper, we
propose a Self-Prompting framework to explicitly utilize the massive knowledge
stored in the parameters of LLMs and their strong instruction understanding
abilities. Concretely, we prompt LLMs step by step to generate multiple pseudo
QA pairs with background passages and explanations from scratch and then use
those generated elements for in-context learning. Experimental results show our
method surpasses previous SOTA methods significantly on three widely-used ODQA
datasets, and even achieves comparable performance with some Retriever-Reader
models fine-tuned on full training data.
- Abstract(参考訳): Open-Domain Question Answering (ODQA) は、特定の背景文書を明示的に提供せずにファクトイドに答えることを目的としている。
ゼロショット設定では、Retriever-Readersのようなカスタマイズされたモデルをトレーニングするデータがないため、このタスクはより難しい。
近年、gpt-3のような大規模言語モデル(llm)は、直接プロンプト方式でゼロショットodqaの能力を示しているが、これらの手法は、暗黙的に起動するだけでllmの完全な強力さをリリースするには程遠い。
本稿では,LLMのパラメータに格納されている膨大な知識と,その強力な指導理解能力を明確に活用するセルフプロンプトフレームワークを提案する。
具体的には,背景文と説明文をスクラッチから複数の擬似QAペアを生成し,その生成した要素を文脈内学習に利用する。
実験結果から,本手法は3つの広く使用されているODQAデータセットにおいて,従来のSOTA手法をはるかに上回り,Retriever-Readerモデルと同等の性能を示した。
関連論文リスト
- Harnessing Multi-Role Capabilities of Large Language Models for
Open-Domain Question Answering [40.2758450304531]
オープンドメイン質問応答 (ODQA) は情報システムにおいて重要な研究スポットライトとなっている。
本稿では,ODQA処理をクエリ拡張,文書選択,回答生成という3つの基本ステップに定式化するフレームワークを提案する。
我々は,ロールプレイングプロンプトを洗練するための新しいプロンプト最適化アルゴリズムを導入し,高品質なエビデンスと回答を生成する。
論文 参考訳(メタデータ) (2024-03-08T11:09:13Z) - Open-source Large Language Models are Strong Zero-shot Query Likelihood
Models for Document Ranking [36.90911173089409]
大規模言語モデル(LLM)は、効果的なクエリ類似モデル(QLM)として登場した。
本稿では,近年のLLMにおけるゼロショットランキングの有効性について検討する。
LLMをベースとしたQLMとハイブリッドゼロショットレトリバーを統合した,最先端のランキングシステムを提案する。
論文 参考訳(メタデータ) (2023-10-20T02:54:42Z) - Enhancing In-Context Learning with Answer Feedback for Multi-Span
Question Answering [9.158919909909146]
本稿では,LLMが望ましくない出力を通知するなど,ラベル付きデータを活用する新しい手法を提案する。
3つのマルチスパン質問応答データセットとキーフレーズ抽出データセットの実験により、我々の新しいプロンプト戦略はLLMの文脈内学習性能を一貫して改善することを示した。
論文 参考訳(メタデータ) (2023-06-07T15:20:24Z) - Allies: Prompting Large Language Model with Beam Search [107.38790111856761]
本研究では,ALIESと呼ばれる新しい手法を提案する。
入力クエリが与えられた場合、ALLIESはLLMを活用して、元のクエリに関連する新しいクエリを反復的に生成する。
元のクエリのスコープを反復的に精錬して拡張することにより、ALLIESは直接検索できない隠れた知識をキャプチャし、利用する。
論文 参考訳(メタデータ) (2023-05-24T06:16:44Z) - RET-LLM: Towards a General Read-Write Memory for Large Language Models [4.997673761305335]
RET-LLMは、大規模な言語モデルに一般的な読み書きメモリユニットを装備する新しいフレームワークである。
デビッドソンのセマンティクス理論に触発され、三重項の形で知識を抽出し保存する。
本フレームワークは,時間に基づく質問応答タスクの処理において,堅牢な性能を示す。
論文 参考訳(メタデータ) (2023-05-23T17:53:38Z) - LLM-Pruner: On the Structural Pruning of Large Language Models [65.02607075556742]
大規模言語モデル(LLM)は、言語理解と生成において顕著な能力を示している。
タスク非依存であり、元のトレーニングデータセットへの依存を最小限に抑えるという2つの制約の範囲内でLLMの圧縮に取り組む。
LLM-Prunerという名前のこの手法は、非臨界結合構造を選択的に除去する構造プルーニングを採用する。
論文 参考訳(メタデータ) (2023-05-19T12:10:53Z) - Zero-Shot Listwise Document Reranking with a Large Language Model [58.64141622176841]
本稿では,タスク固有の学習データを用いることなく,言語モデル(LRL)を用いたリスワイズ・リランカを提案する。
3つのTRECウェブサーチデータセットの実験により、LRLは第1段検索結果の再ランク付け時にゼロショットポイントワイズ法より優れるだけでなく、最終段再ランカとしても機能することが示された。
論文 参考訳(メタデータ) (2023-05-03T14:45:34Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Retrieval-Augmented Generation for Knowledge-Intensive NLP Tasks [133.93803565077337]
検索強化生成モデルは、事前訓練されたパラメトリックメモリと非パラメトリックメモリを組み合わせて言語生成を行う。
我々は、RAGモデルが、最先端パラメトリックのみのセク2セックベースラインよりも、より具体的で、多様で、現実的な言語を生成することを示す。
論文 参考訳(メタデータ) (2020-05-22T21:34:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。