論文の概要: Loops On Retrieval Augmented Generation (LoRAG)
- arxiv url: http://arxiv.org/abs/2403.15450v1
- Date: Mon, 18 Mar 2024 15:19:17 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-01 02:44:33.712780
- Title: Loops On Retrieval Augmented Generation (LoRAG)
- Title(参考訳): 検索拡張世代(LoRAG)のループ
- Authors: Ayush Thakur, Rashmi Vashisth,
- Abstract要約: Loops On Retrieval Augmented Generation (LoRAG)は、検索強化テキスト生成の品質を高めるために設計された新しいフレームワークである。
アーキテクチャは、生成モデル、検索機構、動的ループモジュールを統合する。
LoRAGはBLEUスコア、ROUGEスコア、パープレキシティの点で既存の最先端モデルを上回っている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents Loops On Retrieval Augmented Generation (LoRAG), a new framework designed to enhance the quality of retrieval-augmented text generation through the incorporation of an iterative loop mechanism. The architecture integrates a generative model, a retrieval mechanism, and a dynamic loop module, allowing for iterative refinement of the generated text through interactions with relevant information retrieved from the input context. Experimental evaluations on benchmark datasets demonstrate that LoRAG surpasses existing state-of-the-art models in terms of BLEU score, ROUGE score, and perplexity, showcasing its effectiveness in achieving both coherence and relevance in generated text. The qualitative assessment further illustrates LoRAG's capability to produce contextually rich and coherent outputs. This research contributes valuable insights into the potential of iterative loops in mitigating challenges in text generation, positioning LoRAG as a promising advancement in the field.
- Abstract(参考訳): 本稿では,反復ループ機構の導入による検索強化テキスト生成の品質向上を目的とした新しいフレームワークであるLoRAGについて述べる。
このアーキテクチャは、生成モデル、検索機構、動的ループモジュールを統合し、入力コンテキストから取得した関連情報との相互作用を通じて生成されたテキストを反復的に洗練することができる。
ベンチマークデータセットの実験的評価では、LORAGはBLEUスコア、ROUGEスコア、パープレキシティの点で既存の最先端モデルを超えており、生成されたテキストのコヒーレンスと関連性の両方を達成する上での有効性を示している。
質的な評価は、文脈的にリッチで一貫性のある出力を生成するLORAGの能力をさらに示している。
本研究は,テキスト生成における課題の緩和における反復ループの可能性について,LoRAGをこの分野における有望な進歩と位置づけた貴重な知見を提供する。
関連論文リスト
- A Survey on Retrieval-Augmented Text Generation for Large Language Models [1.4579344926652844]
Retrieval-Augmented Generation (RAG)は、検索手法とディープラーニングの進歩を融合する。
本稿では,RAGパラダイムを検索前,検索後,検索後,生成の4つのカテゴリに分類する。
RAGの進化を概説し、重要な研究の分析を通して分野の進歩について論じている。
論文 参考訳(メタデータ) (2024-04-17T01:27:42Z) - RQ-RAG: Learning to Refine Queries for Retrieval Augmented Generation [42.82192656794179]
大きな言語モデル(LLM)は優れた能力を示すが、不正確なあるいは幻覚反応を引き起こす傾向がある。
この制限は、膨大な事前トレーニングデータセットに依存することに起因するため、目に見えないシナリオでのエラーの影響を受けやすい。
Retrieval-Augmented Generation (RAG) は、外部の関連文書を応答生成プロセスに組み込むことによって、この問題に対処する。
論文 参考訳(メタデータ) (2024-03-31T08:58:54Z) - Distillation Enhanced Generative Retrieval [96.69326099136289]
生成的検索はテキスト検索において有望な新しいパラダイムであり、関連する通路の識別子文字列を検索対象として生成する。
本研究は, 蒸留による生成的検索をさらに促進するための有効な方向を特定し, DGR という名称の実行可能なフレームワークを提案する。
本研究では,4つの公開データセットに対して実験を行い,DGRが生成的検索手法の最先端性能を達成することを示す。
論文 参考訳(メタデータ) (2024-02-16T15:48:24Z) - Evaluating Generative Ad Hoc Information Retrieval [58.800799175084286]
従来の文書ランキングの代わりに、多くの生成検索システムは、クエリや質問として表現された情報に対する回答として、接地された生成されたテキストを直接返します。
このような生成的アドホック検索を適切に評価するには,テキスト応答の有用性の定量化が不可欠である。
本分析は, アドホック検索に着目した生成検索システム評価のための基礎と新たな知見を提供する。
論文 参考訳(メタデータ) (2023-11-08T14:05:00Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - Enhancing Retrieval-Augmented Large Language Models with Iterative
Retrieval-Generation Synergy [164.83371924650294]
検索と生成を反復的に同期させるIter-RetGenと呼ばれる手法により,高い性能が得られることを示す。
モデル出力は、タスクを完了するために必要なものを示し、より関連する知識を取得するための情報的コンテキストを提供する。
Iter-RetGenプロセスは、すべての知識を全体として取得し、構造的な制約なしに生成時の柔軟性をほとんど保持します。
論文 参考訳(メタデータ) (2023-05-24T16:17:36Z) - Entailment Tree Explanations via Iterative Retrieval-Generation Reasoner [56.08919422452905]
我々はIRGR(Iterative Retrieval-Generation Reasoner)と呼ばれるアーキテクチャを提案する。
本モデルでは,テキストの前提からステップバイステップの説明を体系的に生成することにより,与えられた仮説を説明することができる。
前提条件の検索と細分化木の生成に関する既存のベンチマークを上回り、全体の正しさはおよそ300%向上した。
論文 参考訳(メタデータ) (2022-05-18T21:52:11Z) - RDF-to-Text Generation with Reinforcement Learning Based Graph-augmented
Structural Neural Encoders [34.774049199809426]
本稿では, RDF三重項における局所構造情報と大域構造情報の両方を学習するために, 2つのグラフ拡張構造型ニューラルエンコーダを組み合わせたモデルを提案する。
テキストの忠実性をさらに向上するため,情報抽出に基づく強化学習報酬を革新的に導入する。
論文 参考訳(メタデータ) (2021-11-20T08:41:54Z) - GQE-PRF: Generative Query Expansion with Pseudo-Relevance Feedback [8.142861977776256]
PRFに基づくクエリ拡張にテキスト生成モデルを効果的に統合する新しい手法を提案する。
提案手法では,初期クエリと擬似関連フィードバックの両方を条件としたニューラルテキスト生成モデルを用いて,拡張クエリ項を生成する。
2つのベンチマークデータセットを用いて,情報検索タスクに対するアプローチの有効性を評価する。
論文 参考訳(メタデータ) (2021-08-13T01:09:02Z) - Generation-Augmented Retrieval for Open-domain Question Answering [134.27768711201202]
GAR(Generation-Augmented Retrieval)は、オープンドメインの質問に答える機能である。
クエリーに対して多様なコンテキストを生成することは、結果の融合が常により良い検索精度をもたらすので有益であることを示す。
GARは、抽出読取装置を備えた場合、抽出QA設定の下で、自然質問およびトリビアQAデータセットの最先端性能を達成する。
論文 参考訳(メタデータ) (2020-09-17T23:08:01Z) - SARG: A Novel Semi Autoregressive Generator for Multi-turn Incomplete
Utterance Restoration [9.394277095571942]
本稿では,マルチターン対話システムにおける不完全な発話復元について検討する。
本稿では,高い効率と柔軟性を有する新しい半自己回帰発電機(SARG)を提案する。
論文 参考訳(メタデータ) (2020-08-04T11:52:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。