論文の概要: RetroLLM: Empowering Large Language Models to Retrieve Fine-grained   Evidence within Generation
        - arxiv url: http://arxiv.org/abs/2412.11919v1
- Date: Mon, 16 Dec 2024 16:03:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-17 15:50:00.471876
- Title: RetroLLM: Empowering Large Language Models to Retrieve Fine-grained   Evidence within Generation
- Title(参考訳): RetroLLM: 生成中のきめ細かいエビデンスを検索する大規模言語モデル
- Authors: Xiaoxi Li, Jiajie Jin, Yujia Zhou, Yongkang Wu, Zhonghua Li, Qi Ye, Zhicheng Dou, 
- Abstract要約: RetroLLMは、検索と生成を単一の凝集プロセスに統合する統合フレームワークである。
制約付きエビデンス生成の過程での偽プルーニングを軽減するために,階層的FM-Index制約を導入する。
5つのオープンドメインQAデータセットの実験では、ドメイン内タスクとドメイン外タスクの両方にわたって、RetroLLMの優れたパフォーマンスが示されている。
- 参考スコア(独自算出の注目度): 21.764973680014368
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract:   Large language models (LLMs) exhibit remarkable generative capabilities but often suffer from hallucinations. Retrieval-augmented generation (RAG) offers an effective solution by incorporating external knowledge, but existing methods still face several limitations: additional deployment costs of separate retrievers, redundant input tokens from retrieved text chunks, and the lack of joint optimization of retrieval and generation. To address these issues, we propose \textbf{RetroLLM}, a unified framework that integrates retrieval and generation into a single, cohesive process, enabling LLMs to directly generate fine-grained evidence from the corpus with constrained decoding. Moreover, to mitigate false pruning in the process of constrained evidence generation, we introduce (1) hierarchical FM-Index constraints, which generate corpus-constrained clues to identify a subset of relevant documents before evidence generation, reducing irrelevant decoding space; and (2) a forward-looking constrained decoding strategy, which considers the relevance of future sequences to improve evidence accuracy. Extensive experiments on five open-domain QA datasets demonstrate RetroLLM's superior performance across both in-domain and out-of-domain tasks. The code is available at \url{https://github.com/sunnynexus/RetroLLM}. 
- Abstract(参考訳): 大きな言語モデル(LLM)は顕著な生成能力を示すが、幻覚に悩まされることが多い。
Retrieval-augmented Generation (RAG) は、外部知識を取り入れた効果的なソリューションを提供するが、既存の手法では、分離された検索者の配置コスト、検索されたテキストチャンクからの冗長な入力トークン、検索と生成の共同最適化の欠如など、いくつかの制限に直面している。
これらの問題に対処するために,検索と生成を単一の凝集プロセスに統合する統合フレームワークである‘textbf{RetroLLM} を提案する。
さらに, 制約付き証拠生成の過程における偽プルーニングを緩和するために, 1) 証拠生成前の関連文書のサブセットを識別するためのコーパス制約付き手がかりを生成する階層的FM-Index制約, 2) 証拠の正確性を改善するために, 将来的な制約付きデコード戦略を導入する。
5つのオープンドメインQAデータセットに関する大規模な実験は、RetroLLMがドメイン内タスクとドメイン外タスクの両方で優れたパフォーマンスを示している。
コードは \url{https://github.com/sunnynexus/RetroLLM} で公開されている。
 
      
        関連論文リスト
        - SemCORE: A Semantic-Enhanced Generative Cross-Modal Retrieval Framework   with MLLMs [70.79124435220695]
 セマンティック強化型Cross-mOdal Retrievalフレームワーク(SemCORE)を提案する。
まず,自然言語の理解と生成に最適化された生成モデルとターゲット識別子を効果的に整合させる構造化自然言語識別器(SID)を構築した。
次に、粒度の細かいターゲット識別を可能にするジェネレーティブ・セマンティック・検証(GSV)戦略を導入する。
 論文  参考訳(メタデータ) (2025-04-17T17:59:27Z)
- Constrained Auto-Regressive Decoding Constrains Generative Retrieval [71.71161220261655]
 ジェネレーティブ検索は、従来の検索インデックスデータ構造を1つの大規模ニューラルネットワークに置き換えようとしている。
本稿では,制約とビームサーチという2つの本質的な視点から,制約付き自己回帰生成の固有の制約について検討する。
 論文  参考訳(メタデータ) (2025-04-14T06:54:49Z)
- Learning More Effective Representations for Dense Retrieval through   Deliberate Thinking Before Search [65.53881294642451]
 ディリベレート思考に基づくDense Retriever (DEBATER)
DEBATERは、ステップバイステップの思考プロセスを通じて、より効果的な文書表現を学習できるようにすることにより、最近の密集型検索機能を強化している。
実験の結果,DEBATERはいくつかのベンチマークで既存手法よりも優れていた。
 論文  参考訳(メタデータ) (2025-02-18T15:56:34Z)
- Cognitive-Aligned Document Selection for Retrieval-augmented Generation [2.9060210098040855]
 本稿では,クエリを動的に更新し,高品質で信頼性の高い検索文書をフィルタリングするGGatrievalを提案する。
ユーザクエリを構文コンポーネントにパースし、検索したドキュメントときめ細かいグラウンドアライメントを実行する。
提案手法では,検索した文書をフィルタリングするための新しい基準を導入し,ターゲット情報を取得するための人的戦略を密にエミュレートする。
 論文  参考訳(メタデータ) (2025-02-17T13:00:15Z)
- Reinforced Information Retrieval [35.0424269986952]
 textbfReinforced-IRは、事前学習した検索器とジェネレータを併用して正確なクロスドメイン検索を行う新しい手法である。
Reinforced-IRの重要なイノベーションは textbfSelf-Boosting フレームワークである。
我々の実験では、Reinforced-IRは既存のドメイン適応手法を大きなマージンで上回り、広範囲のアプリケーションシナリオで検索品質が大幅に向上した。
 論文  参考訳(メタデータ) (2025-02-17T08:52:39Z)
- ACE: A Generative Cross-Modal Retrieval Framework with Coarse-To-Fine   Semantic Modeling [53.97609687516371]
 我々は、エンドツーエンドのクロスモーダル検索のための先駆的なジェネリッククロスモーダル rEtrieval framework (ACE) を提案する。
ACEは、クロスモーダル検索における最先端のパフォーマンスを達成し、Recall@1の強いベースラインを平均15.27%上回る。
 論文  参考訳(メタデータ) (2024-06-25T12:47:04Z)
- Accelerating Inference of Retrieval-Augmented Generation via Sparse   Context Selection [28.15184715270483]
 大きな言語モデル (LLM) は、検索によって強化され、堅牢な性能と広範な汎用性を示す。
本稿では,スパースRAGという新しいパラダイムを提案する。
Sparse RAGは、検索したドキュメントを並列にエンコードする。
 論文  参考訳(メタデータ) (2024-05-25T11:10:04Z)
- Harnessing Multi-Role Capabilities of Large Language Models for
  Open-Domain Question Answering [40.2758450304531]
 オープンドメイン質問応答 (ODQA) は情報システムにおいて重要な研究スポットライトとなっている。
本稿では,ODQA処理をクエリ拡張,文書選択,回答生成という3つの基本ステップに定式化するフレームワークを提案する。
我々は,ロールプレイングプロンプトを洗練するための新しいプロンプト最適化アルゴリズムを導入し,高品質なエビデンスと回答を生成する。
 論文  参考訳(メタデータ) (2024-03-08T11:09:13Z)
- Corrective Retrieval Augmented Generation [36.04062963574603]
 Retrieval-augmented Generation (RAG) は、検索された文書の関連性に大きく依存しており、検索が失敗した場合のモデルがどのように振る舞うかについての懸念を提起する。
生成の堅牢性を改善するために,CRAG(Corrective Retrieval Augmented Generation)を提案する。
CRAGはプラグアンドプレイであり、様々なRAGベースのアプローチとシームレスに結合できる。
 論文  参考訳(メタデータ) (2024-01-29T04:36:39Z)
- Generator-Retriever-Generator Approach for Open-Domain Question   Answering [18.950517545413813]
 文書検索手法と大規模言語モデル(LLM)を組み合わせた新しい手法を提案する。
並行して、デュアルエンコーダネットワークは、外部コーパスから質問に関連する文書を検索する。
GRGは最先端のgenerator-then-readおよびrecovery-then-readパイプラインより優れている。
 論文  参考訳(メタデータ) (2023-07-21T00:34:38Z)
- Active Retrieval Augmented Generation [123.68874416084499]
 外部知識資源から情報を取得することで、大きな言語モデル(LM)を拡張することは、有望な解決策である。
ほとんどの既存の検索拡張LMは、入力に基づいて一度だけ情報を検索する検索と生成のセットアップを採用している。
本稿では,将来的な内容を予測するために,文の予測を反復的に利用する汎用手法であるフォワード・フォワード・アクティブ・レトリヴァル・ジェネレーション・ジェネレーション(FLARE)を提案する。
 論文  参考訳(メタデータ) (2023-05-11T17:13:40Z)
- Generate rather than Retrieve: Large Language Models are Strong Context
  Generators [74.87021992611672]
 本稿では,文書検索を大規模言語モデル生成器に置き換えることで,知識集約型タスクを解く新しい視点を提案する。
我々は,提案手法をgenRead (genRead) と呼び,まず大きな言語モデルに対して,与えられた質問に基づいて文脈文書を生成し,次に生成された文書を読み出して最終回答を生成する。
 論文  参考訳(メタデータ) (2022-09-21T01:30:59Z)
- Autoregressive Search Engines: Generating Substrings as Document
  Identifiers [53.0729058170278]
 自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
 論文  参考訳(メタデータ) (2022-04-22T10:45:01Z)
- GERE: Generative Evidence Retrieval for Fact Verification [57.78768817972026]
 本稿では,ジェネレーション方式で証拠を検索する最初のシステムであるGEREを提案する。
FEVERデータセットの実験結果は、GEREが最先端のベースラインよりも大幅に改善されていることを示している。
 論文  参考訳(メタデータ) (2022-04-12T03:49:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
       
     
      指定された論文の情報です。
      本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。