論文の概要: Harnessing Multi-Role Capabilities of Large Language Models for
Open-Domain Question Answering
- arxiv url: http://arxiv.org/abs/2403.05217v1
- Date: Fri, 8 Mar 2024 11:09:13 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-11 20:06:19.833024
- Title: Harnessing Multi-Role Capabilities of Large Language Models for
Open-Domain Question Answering
- Title(参考訳): オープンドメイン質問応答のための大規模言語モデルのマルチロール機能活用
- Authors: Hongda Sun, Yuxuan Liu, Chengwei Wu, Haiyu Yan, Cheng Tai, Xin Gao,
Shuo Shang, Rui Yan
- Abstract要約: オープンドメイン質問応答 (ODQA) は情報システムにおいて重要な研究スポットライトとなっている。
本稿では,ODQA処理をクエリ拡張,文書選択,回答生成という3つの基本ステップに定式化するフレームワークを提案する。
我々は,ロールプレイングプロンプトを洗練するための新しいプロンプト最適化アルゴリズムを導入し,高品質なエビデンスと回答を生成する。
- 参考スコア(独自算出の注目度): 40.2758450304531
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Open-domain question answering (ODQA) has emerged as a pivotal research
spotlight in information systems. Existing methods follow two main paradigms to
collect evidence: (1) The \textit{retrieve-then-read} paradigm retrieves
pertinent documents from an external corpus; and (2) the
\textit{generate-then-read} paradigm employs large language models (LLMs) to
generate relevant documents. However, neither can fully address multifaceted
requirements for evidence. To this end, we propose LLMQA, a generalized
framework that formulates the ODQA process into three basic steps: query
expansion, document selection, and answer generation, combining the superiority
of both retrieval-based and generation-based evidence. Since LLMs exhibit their
excellent capabilities to accomplish various tasks, we instruct LLMs to play
multiple roles as generators, rerankers, and evaluators within our framework,
integrating them to collaborate in the ODQA process. Furthermore, we introduce
a novel prompt optimization algorithm to refine role-playing prompts and steer
LLMs to produce higher-quality evidence and answers. Extensive experimental
results on widely used benchmarks (NQ, WebQ, and TriviaQA) demonstrate that
LLMQA achieves the best performance in terms of both answer accuracy and
evidence quality, showcasing its potential for advancing ODQA research and
applications.
- Abstract(参考訳): オープンドメイン質問応答 (ODQA) は情報システムにおいて重要な研究スポットライトとなっている。
既存の手法では、(1) \textit{retrieve-then-read}パラダイムは外部コーパスから関連するドキュメントを検索する、(2) \textit{generate-then-read}パラダイムは、関連するドキュメントを生成するために大規模な言語モデル(llms)を使用する。
しかし、証拠の多面的要求には対処できない。
この目的のために,汎用フレームワークであるLLMQAを提案する。クエリ拡張,文書選択,回答生成という3つの基本ステップでODQAプロセスを定式化する。
LLMは様々なタスクをこなすのに優れた能力を示すので、私たちはLDMにジェネレータ、リランカ、そしてフレームワーク内の評価役として複数の役割を演じるように指示します。
さらに,ロールプレイングプロンプトとステアリングllmを洗練し,高品質なエビデンスと回答を生成するための新しいプロンプト最適化アルゴリズムを提案する。
広く使われているベンチマーク(NQ、WebQ、TriviaQA)の大規模な実験結果によると、LLMQAは答えの正確さと証拠の品質の両方において最高のパフォーマンスを達成しており、ODQAの研究と応用を前進させる可能性を示している。
関連論文リスト
- mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - IDEAL: Leveraging Infinite and Dynamic Characterizations of Large Language Models for Query-focused Summarization [59.06663981902496]
クエリ中心の要約(QFS)は、特定の関心事に答え、より優れたユーザ制御とパーソナライゼーションを可能にする要約を作成することを目的としている。
本稿では,LLMを用いたQFSモデル,Longthy Document Summarization,およびクエリ-LLMアライメントの2つの重要な特徴について検討する。
これらのイノベーションは、QFS技術分野における幅広い応用とアクセシビリティの道を開いた。
論文 参考訳(メタデータ) (2024-07-15T07:14:56Z) - Peering into the Mind of Language Models: An Approach for Attribution in Contextual Question Answering [9.86691461253151]
大規模言語モデル(LLM)の隠れ状態表現を利用した文脈質問応答における帰属手法を提案する。
提案手法は,より詳細な属性を提供し,生成した回答の質を保ちながら,広範囲なモデル再訓練および検索モデルオーバーヘッドの必要性を回避している。
本稿では,LLM世代に対するトークンレベルのアノテーションを文脈質問応答設定に有する属性データセットであるVerifiability-granularを提案する。
論文 参考訳(メタデータ) (2024-05-28T09:12:44Z) - MILL: Mutual Verification with Large Language Models for Zero-Shot Query Expansion [39.24969189479343]
本稿では,大規模言語モデル(LLM)を相互検証に用いるゼロショットクエリ拡張フレームワークを提案する。
提案手法は完全にゼロショットであり,その有効性を示すために3つの公開ベンチマークデータセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-10-29T16:04:10Z) - Query2doc: Query Expansion with Large Language Models [69.9707552694766]
提案手法はまず,大言語モデル (LLM) をプロンプトすることで擬似文書を生成する。
query2docは、アドホックIRデータセットでBM25のパフォーマンスを3%から15%向上させる。
また,本手法は,ドメイン内およびドメイン外の両方において,最先端の高密度検索に有効である。
論文 参考訳(メタデータ) (2023-03-14T07:27:30Z) - Recitation-Augmented Language Models [85.30591349383849]
知識集約型NLPタスクにおいて,RECITEは強力なパラダイムであることを示す。
具体的には、リサイクリングを中間ステップとして活用することにより、新しい最先端性能を実現することができることを示す。
論文 参考訳(メタデータ) (2022-10-04T00:49:20Z) - Generate rather than Retrieve: Large Language Models are Strong Context
Generators [74.87021992611672]
本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
論文 参考訳(メタデータ) (2022-09-21T01:30:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。