論文の概要: Evaluating Self-Generated Documents for Enhancing Retrieval-Augmented Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2410.13192v3
- Date: Sun, 26 Jan 2025 08:27:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-28 13:51:20.445282
- Title: Evaluating Self-Generated Documents for Enhancing Retrieval-Augmented Generation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた検索機能強化のための自己生成文書の評価
- Authors: Jiatao Li, Xinyu Hu, Xunjian Yin, Xiaojun Wan,
- Abstract要約: 本稿では,自己文書の総合的有効性について検討し,RAGパフォーマンスへの貢献を形作る重要な要因を同定する。
これらの知見に基づいて,体系的機能言語学に基づく分類学を開発し,様々なセルフドキュメンテーションカテゴリーの影響を比較する。
その結果,どのタイプのセルフドキュメンテーションが最も有用かを明らかにし,それを活用するための実践的ガイドラインを提供した。
- 参考スコア(独自算出の注目度): 39.243030042003646
- License:
- Abstract: The integration of documents generated by LLMs themselves (Self-Docs) alongside retrieved documents has emerged as a promising strategy for retrieval-augmented generation systems. However, previous research primarily focuses on optimizing the use of Self-Docs, with their inherent properties remaining underexplored. To bridge this gap, we first investigate the overall effectiveness of Self-Docs, identifying key factors that shape their contribution to RAG performance (RQ1). Building on these insights, we develop a taxonomy grounded in Systemic Functional Linguistics to compare the influence of various Self-Docs categories (RQ2) and explore strategies for combining them with external sources (RQ3). Our findings reveal which types of Self-Docs are most beneficial and offer practical guidelines for leveraging them to achieve significant improvements in knowledge-intensive question answering tasks.
- Abstract(参考訳): LLM自身(Self-Docs)が生成した文書と検索文書の統合は,検索拡張生成システムにとって有望な戦略である。
しかし、従来の研究は主にセルフドキュメンテーションの使用を最適化することに焦点を当てており、その固有の性質は未探索のままである。
このギャップを埋めるために、まず、自己文書の全体的な有効性を調査し、RAGパフォーマンスへの貢献を形作る重要な要因を特定します(RQ1)。
これらの知見に基づいて,体系的機能言語学に基づく分類学を開発し,様々な自己文書カテゴリー(RQ2)の影響を比較し,それらを外部ソース(RQ3)と組み合わせるための戦略を探究する。
その結果,どのセルフドキュメンテーションが最も有用かを明らかにするとともに,知識集約型質問応答タスクの大幅な改善を実現するための実践的ガイドラインを提供することができた。
関連論文リスト
- Optimizing Knowledge Integration in Retrieval-Augmented Generation with Self-Selection [72.92366526004464]
Retrieval-Augmented Generation (RAG) は、Large Language Models (LLM) がより正確で信頼性の高い応答を生成するのに有効であることが証明されている。
本稿では,自己選択型RAGフレームワークを提案する。このフレームワークでは,内部パラメトリック知識のみで生成されたペアの応答からLLMを選択できる。
論文 参考訳(メタデータ) (2025-02-10T04:29:36Z) - GenTREC: The First Test Collection Generated by Large Language Models for Evaluating Information Retrieval Systems [0.33748750222488655]
GenTRECは、Large Language Model (LLM)によって生成された文書から完全に構築された最初のテストコレクションである。
我々は、生成したプロンプトのみに関連する文書を考察する一方、他の文書とトピックのペアは非関連として扱われる。
結果として得られたGenTRECコレクションは96,196のドキュメント、300のトピック、および18,964の関連性"判断"で構成されている。
論文 参考訳(メタデータ) (2025-01-05T00:27:36Z) - Towards Multi-Source Retrieval-Augmented Generation via Synergizing Reasoning and Preference-Driven Retrieval [4.862780562808097]
既存のadaptive RAG (ARAG) システムは、適切なタイミングで適切なソースを選択することができないため、複数の検索ソースを効果的に探索するのに苦労している。
我々は,MSPRと呼ばれるマルチソースARAGフレームワークを提案し,推論と嗜好駆動型検索を相乗化して「いつ,何を検索すべきか」と「どの検索ソースを使うのか」を適応的に決定する。
論文 参考訳(メタデータ) (2024-11-01T15:50:58Z) - Unveiling and Consulting Core Experts in Retrieval-Augmented MoE-based LLMs [64.9693406713216]
RAGシステムの有効性に寄与する内部メカニズムは未解明のままである。
実験の結果,複数のコアグループの専門家がRAG関連行動に主に関与していることが判明した。
本稿では,専門家の活性化を通じてRAGの効率性と有効性を高めるためのいくつかの戦略を提案する。
論文 参考訳(メタデータ) (2024-10-20T16:08:54Z) - SeRTS: Self-Rewarding Tree Search for Biomedical Retrieval-Augmented Generation [50.26966969163348]
大規模言語モデル(LLM)は,検索増強世代(RAG)の進展に伴い,生物医学領域において大きな可能性を示した。
既存の検索強化アプローチは、様々なクエリやドキュメント、特に医療知識クエリに対処する上で、課題に直面している。
モンテカルロ木探索(MCTS)と自己回帰パラダイムに基づく自己回帰木探索(SeRTS)を提案する。
論文 参考訳(メタデータ) (2024-06-17T06:48:31Z) - A Survey on RAG Meeting LLMs: Towards Retrieval-Augmented Large Language Models [71.25225058845324]
大規模言語モデル(LLM)は、言語理解と生成において革命的な能力を示している。
Retrieval-Augmented Generation (RAG)は、信頼性と最新の外部知識を提供する。
RA-LLMは、モデルの内部知識に頼るのではなく、外部および権威的な知識ベースを活用するために登場した。
論文 参考訳(メタデータ) (2024-05-10T02:48:45Z) - REAR: A Relevance-Aware Retrieval-Augmented Framework for Open-Domain Question Answering [115.72130322143275]
REAR(Relevance-Aware Retrieval-augmented approach for open-domain Question answering, QA)
我々は,特殊な設計のアセスメントモジュールを組み込むことで,LLMベースのRAGシステムのための新しいアーキテクチャを開発する。
オープンドメインの4つのQAタスクの実験では、REARは以前の競争力のあるRAGアプローチよりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-02-27T13:22:51Z) - CorpusLM: Towards a Unified Language Model on Corpus for Knowledge-Intensive Tasks [20.390672895839757]
Retrieval-augmented Generation (RAG) は、事実精度を高めるための一般的なソリューションとして登場した。
従来の検索モジュールは、大きなドキュメントインデックスと生成タスクとの切り離しに依存していることが多い。
生成検索,クローズドブック生成,RAGを統合した統一言語モデルである textbfCorpusLM を提案する。
論文 参考訳(メタデータ) (2024-02-02T06:44:22Z) - Coarse-to-Fine Knowledge Selection for Document Grounded Dialogs [11.63334863772068]
マルチドキュメント基盤対話システム(DGDS)は,文書の集合から支援された知識を見出すことで,ユーザの要求に答える。
本稿では,粒度の粗い知識検索と粒度の細かい知識抽出の両方を統一されたフレームワークで最適化することを目的としたRe3Gを提案する。
論文 参考訳(メタデータ) (2023-02-23T08:28:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。