論文の概要: Learning When to Retrieve, What to Rewrite, and How to Respond in Conversational QA
- arxiv url: http://arxiv.org/abs/2409.15515v1
- Date: Mon, 23 Sep 2024 20:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-26 12:47:38.693146
- Title: Learning When to Retrieve, What to Rewrite, and How to Respond in Conversational QA
- Title(参考訳): 会話型QAにおける検索時期、書き直し方法、応答方法
- Authors: Nirmal Roy, Leonardo F. R. Ribeiro, Rexhina Blloshmi, Kevin Small,
- Abstract要約: シングルターンSELF-RAGフレームワークを構築し,会話設定のためのSELF-multi-RAGを提案する。
SELF-multi-RAGは、関連するパスの検索に関して、シングルターン変種よりも改善された機能を示す。
- 参考スコア(独自算出の注目度): 16.1357049130957
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Augmenting Large Language Models (LLMs) with information retrieval capabilities (i.e., Retrieval-Augmented Generation (RAG)) has proven beneficial for knowledge-intensive tasks. However, understanding users' contextual search intent when generating responses is an understudied topic for conversational question answering (QA). This conversational extension leads to additional concerns when compared to single-turn QA as it is more challenging for systems to comprehend conversational context and manage retrieved passages over multiple turns. In this work, we propose a method for enabling LLMs to decide when to retrieve in RAG settings given a conversational context. When retrieval is deemed necessary, the LLM then rewrites the conversation for passage retrieval and judges the relevance of returned passages before response generation. Operationally, we build on the single-turn SELF-RAG framework (Asai et al., 2023) and propose SELF-multi-RAG for conversational settings. SELF-multi-RAG demonstrates improved capabilities over single-turn variants with respect to retrieving relevant passages (by using summarized conversational context) and assessing the quality of generated responses. Experiments on three conversational QA datasets validate the enhanced response generation capabilities of SELF-multi-RAG, with improvements of ~13% measured by human annotation.
- Abstract(参考訳): 情報検索機能を備えた大規模言語モデル(LLM)の拡張(Retrieval-Augmented Generation(RAG))は知識集約的なタスクに有効であることが証明されている。
しかし、応答を生成する際のユーザのコンテキスト探索意図を理解することは、会話型質問応答(QA)の下位課題である。
この会話拡張は、システムが会話コンテキストを理解し、複数のターンで取得したパスを管理することがより難しいため、シングルターンQAと比較して、さらなる懸念をもたらす。
本研究では,会話コンテキストが与えられたRAG設定でLLMがいつ取得するかを判断する手法を提案する。
検索が必要な場合、LLMは、経路検索のための会話を書き直し、応答生成前の返却通路の関連性を判断する。
運用上,シングルターンSELF-RAGフレームワーク(Asai et al ,2023)を構築し,会話設定のためのSELF-multi-RAGを提案する。
SELF-multi-RAGは、(要約された会話コンテキストを用いて)関連するパスを検索し、生成した応答の品質を評価することで、シングルターン変種よりも優れた機能を示す。
3つの会話型QAデータセットの実験により、SELF-multi-RAGの応答生成能力が向上し、人間のアノテーションによって約13%の改善が得られた。
関連論文リスト
- IRLab@iKAT24: Learned Sparse Retrieval with Multi-aspect LLM Query Generation for Conversational Search [6.974395116689502]
iKAT 2024は、対話アシスタントの進化に焦点を当て、対話と応答をパーソナライズされたユーザー知識から適応することができる。
このトラックには、Personal Textual Knowledge Base(PTKB)と会話型AIタスク(通訳ランキングや応答生成など)が組み込まれている。
論文 参考訳(メタデータ) (2024-11-22T05:18:35Z) - Boosting Conversational Question Answering with Fine-Grained Retrieval-Augmentation and Self-Check [25.63538452425097]
本稿では,対話型質問応答のための細粒度検索と自己チェックを組み込んだ対話レベルのRAG手法を提案する。
特に,本手法は,対話型質問精算器,きめ細かい検索器,自己チェックに基づく応答生成器の3つのコンポーネントから構成される。
論文 参考訳(メタデータ) (2024-03-27T04:20:18Z) - Effective and Efficient Conversation Retrieval for Dialogue State Tracking with Implicit Text Summaries [48.243879779374836]
LLM (Large Language Models) を用いたDST (Few-shot dialogue state tracking) では,会話検索を効果的かつ効率的に行うことで,学習の迅速化を図っている。
従来は検索キーやクエリとして生の対話コンテキストを使用していた。
会話のテキスト要約に基づいて会話検索を行う。
LLMに基づく会話要約器がクエリとキー生成に採用され、効果的な内部製品探索が可能となる。
論文 参考訳(メタデータ) (2024-02-20T14:31:17Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - CONQRR: Conversational Query Rewriting for Retrieval with Reinforcement
Learning [16.470428531658232]
本研究では,会話型質問を独立した質問に書き換えるクエリ書き換えモデルCONQRRを提案する。
CONQRR は最近のオープンドメイン CQA データセットで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-16T01:40:30Z) - Open-Retrieval Conversational Machine Reading [80.13988353794586]
会話機械読解では、システムは自然言語規則を解釈し、ハイレベルな質問に答え、フォローアップの明確化を問う必要がある。
既存の作業では、ルールテキストがユーザ毎の質問に対して提供されると仮定し、実際のシナリオにおいて必須の検索ステップを無視する。
本研究では,対話型機械読解のオープンリトリーバル設定を提案し,検討する。
論文 参考訳(メタデータ) (2021-02-17T08:55:01Z) - Reasoning in Dialog: Improving Response Generation by Context Reading
Comprehension [49.92173751203827]
マルチターンダイアログでは、発話が文の完全な形を取るとは限らない。
読み解きの質問に答えるモデルの能力を検討し、応答生成性能の向上を提案する。
論文 参考訳(メタデータ) (2020-12-14T10:58:01Z) - Open-Retrieval Conversational Question Answering [62.11228261293487]
オープン検索型対話型質問応答 (ORConvQA) の設定を導入する。
ORConvQAのエンド・ツー・エンドシステムを構築し,レトリバー,リランカ,およびすべてトランスフォーマーをベースとしたリーダを特徴とする。
論文 参考訳(メタデータ) (2020-05-22T19:39:50Z) - Multi-Stage Conversational Passage Retrieval: An Approach to Fusing Term
Importance Estimation and Neural Query Rewriting [56.268862325167575]
マルチステージアドホックIRシステムにクエリ再構成を組み込んだ会話経路検索(ConvPR)に取り組む。
本稿では,1項の重要度推定と2項のニューラルクエリ書き換えという2つの手法を提案する。
前者に対しては、周波数に基づく信号を用いて会話コンテキストから抽出した重要な用語を用いて会話クエリを拡張する。
後者では,会話クエリを,事前訓練されたシーケンス列列列モデルを用いて,自然な,スタンドアロンの,人間の理解可能なクエリに再構成する。
論文 参考訳(メタデータ) (2020-05-05T14:30:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。