論文の概要: Multiple Abstraction Level Retrieve Augment Generation
- arxiv url: http://arxiv.org/abs/2501.16952v1
- Date: Tue, 28 Jan 2025 13:49:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-29 22:09:11.161229
- Title: Multiple Abstraction Level Retrieve Augment Generation
- Title(参考訳): 多重抽象レベル検索オーグメント生成
- Authors: Zheng Zheng, Xinyi Ni, Pengyu Hong,
- Abstract要約: 大規模言語モデル(LLM)を利用した検索型拡張生成(RAG)モデルは、新しいデータや知識に適応するためのより高速でコスト効率の高いソリューションを提供する。
本稿では,多文レベル,段落レベル,セクションレベル,文書レベルを含む,複数抽象レベル(MAL)のチャンクを用いた新しいRAG手法を提案する。
従来の単一レベルRAGアプローチと比較して,Glyco関連論文では,AIによるQ/A回答の正当性の評価が25.739%向上した。
- 参考スコア(独自算出の注目度): 4.516242893120263
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A Retrieval-Augmented Generation (RAG) model powered by a large language model (LLM) provides a faster and more cost-effective solution for adapting to new data and knowledge. It also delivers more specialized responses compared to pre-trained LLMs. However, most existing approaches rely on retrieving prefix-sized chunks as references to support question-answering (Q/A). This approach is often deployed to address information needs at a single level of abstraction, as it struggles to generate answers across multiple levels of abstraction. In an RAG setting, while LLMs can summarize and answer questions effectively when provided with sufficient details, retrieving excessive information often leads to the 'lost in the middle' problem and exceeds token limitations. We propose a novel RAG approach that uses chunks of multiple abstraction levels (MAL), including multi-sentence-level, paragraph-level, section-level, and document-level. The effectiveness of our approach is demonstrated in an under-explored scientific domain of Glycoscience. Compared to traditional single-level RAG approaches, our approach improves AI evaluated answer correctness of Q/A by 25.739\% on Glyco-related papers.
- Abstract(参考訳): 大規模言語モデル(LLM)を利用した検索型拡張生成(RAG)モデルは、新しいデータや知識に適応するためのより高速でコスト効率の高いソリューションを提供する。
また、事前訓練されたLLMと比較して、より専門的な応答を提供する。
しかし、既存のアプローチのほとんどは、質問回答(Q/A)をサポートするための参照としてプレフィックスサイズのチャンクを取得することに依存している。
このアプローチは、複数のレベルの抽象化で回答を生成するのに苦労するため、単一の抽象化レベルで情報ニーズに対処するためにしばしばデプロイされます。
RAG設定では、LLMは十分な詳細が提供されると、効率的に質問を要約して答えることができるが、過剰な情報を取得すると、しばしば'中間のロスト'問題が発生し、トークン制限を超える。
本稿では,多文レベル,段落レベル,セクションレベル,文書レベルを含む,複数抽象レベル(MAL)のチャンクを用いた新しいRAG手法を提案する。
本手法の有効性は,グリコサイエンスの未研究分野において実証されている。
従来の単一レベルRAGアプローチと比較して,Glyco関連論文では,AIによるQ/A回答の正当性の評価が25.739\%向上している。
関連論文リスト
- ReAG: Reasoning-Augmented Generation for Knowledge-based Visual Question Answering [54.72902502486611]
ReAG(Reasoning-Augmented Multimodal RAG)は、粗い部分ときめ細かい部分の検索と、無関係な通路をフィルタリングする批評家モデルを組み合わせた手法である。
ReAGは従来の手法よりも優れており、解答精度が向上し、検索された証拠に根ざした解釈可能な推論を提供する。
論文 参考訳(メタデータ) (2025-11-27T19:01:02Z) - URaG: Unified Retrieval and Generation in Multimodal LLMs for Efficient Long Document Understanding [55.45331924836242]
MLLM内での検索と生成を統一するフレームワークであるURaGについて述べる。
URaGは,計算オーバーヘッドを44~56%削減し,最先端性能を実現する。
論文 参考訳(メタデータ) (2025-11-13T17:54:09Z) - Q-RAG: Long Context Multi-step Retrieval via Value-based Embedder Training [50.37345200692884]
強化学習(RL)を用いた多段階探索のための細粒度埋め込みモデルQ-RAGを提案する。
Q-RAGは、オープンドメイン質問応答のための既存のマルチステップ検索方法に代わる、競合的でリソース効率のよい代替手段を提供する。
論文 参考訳(メタデータ) (2025-11-10T17:31:02Z) - MARAG-R1: Beyond Single Retriever via Reinforcement-Learned Multi-Tool Agentic Retrieval [50.30107119622642]
大規模言語モデル(LLM)は推論と生成において優れているが、本質的には静的事前学習データによって制限されている。
Retrieval-Augmented Generation (RAG)は、LLMを外部知識に基盤を置くことでこの問題に対処する。
MarAG-R1は、LLMが複数の検索機構を動的に調整できる強化学習型マルチツールRAGフレームワークである。
論文 参考訳(メタデータ) (2025-10-31T15:51:39Z) - Tagging-Augmented Generation: Assisting Language Models in Finding Intricate Knowledge In Long Contexts [6.14987671066697]
本稿では,Taging-Augmented Generation (TAG) を長文シナリオのための軽量データ拡張戦略として提案する。
NoLima と NovelQA という,難解で直接的な質問応答ベンチマークを2つ加えることで,私たちの仮説を検証する。
コンテキストをタグ付けしたり、あるいはQAプロンプトにタグ定義を追加するだけで、ベースラインよりも一貫したパフォーマンスが向上することを示す。
論文 参考訳(メタデータ) (2025-10-27T03:23:25Z) - DeepSieve: Information Sieving via LLM-as-a-Knowledge-Router [57.28685457991806]
DeepSieveはエージェントRAGフレームワークで、LLM-as-a-knowledge-routerを介して情報を収集する。
我々の設計はモジュール性、透明性、適応性を重視しており、エージェントシステム設計の最近の進歩を活用している。
論文 参考訳(メタデータ) (2025-07-29T17:55:23Z) - Divide by Question, Conquer by Agent: SPLIT-RAG with Question-Driven Graph Partitioning [62.640169289390535]
SPLIT-RAGは、質問駆動セマンティックグラフ分割と協調サブグラフ検索による制限に対処するマルチエージェントRAGフレームワークである。
革新的なフレームワークは、まずリンク情報のセマンティック分割を作成し、次にタイプ特化知識ベースを使用してマルチエージェントRAGを実現する。
属性対応グラフセグメンテーションは、知識グラフを意味的に一貫性のあるサブグラフに分割し、サブグラフが異なるクエリタイプと整合することを保証する。
階層的なマージモジュールは、論理的検証を通じて、部分グラフ由来の解答間の矛盾を解消する。
論文 参考訳(メタデータ) (2025-05-20T06:44:34Z) - Beyond Prompting: An Efficient Embedding Framework for Open-Domain Question Answering [15.04887070246276]
大規模言語モデルは、最近、新しいフロンティアにオープンドメインの質問に答えた。
一般的なレトリバーリーダーパイプラインは、しばしば複数のプロンプトレベル命令に依存する。
EmbQAは,レシーバとリーダの両方を強化した埋め込みレベルのフレームワークである。
論文 参考訳(メタデータ) (2025-03-03T14:41:35Z) - SRAG: Structured Retrieval-Augmented Generation for Multi-Entity Question Answering over Wikipedia Graph [10.297615455470133]
MEQA(Multi-entity Question answering)は、大規模言語モデルにおいて重要な課題である。
本稿では、抽出されたエンティティをリレーショナルテーブルに整理する構造化RAGフレームワークを提案する。
ウィキペディアベースのマルチエンタリティQAタスクの実験では、SRAGが最先端の長文LLMを著しく上回っていることが示されている。
論文 参考訳(メタデータ) (2025-03-03T09:37:33Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - mR$^2$AG: Multimodal Retrieval-Reflection-Augmented Generation for Knowledge-Based VQA [78.45521005703958]
マルチモーダル検索拡張生成(mRAG)はMLLMに包括的で最新の知識を提供するために自然に導入されている。
我々は、適応的検索と有用な情報ローカライゼーションを実現する textbfRetrieval-textbfReftextbfAugmented textbfGeneration (mR$2$AG) という新しいフレームワークを提案する。
mR$2$AG は INFOSEEK と Encyclopedic-VQA の最先端MLLM を著しく上回る
論文 参考訳(メタデータ) (2024-11-22T16:15:50Z) - How Much Can RAG Help the Reasoning of LLM? [9.601957219734683]
Retrieval-Augmented Generation (RAG)は、現代のLarge Language Models (LLMs)で大きな人気を集めている。
RAGは推論プロセスにどのように役立つのか、RAGは推論能力を改善するのにどのように役立つのか、まだ疑問が残る。
論文 参考訳(メタデータ) (2024-10-03T09:48:09Z) - W-RAG: Weakly Supervised Dense Retrieval in RAG for Open-domain Question Answering [28.79851078451609]
W-RAGは、下流タスクから弱いトレーニング信号を抽出し、検索者がタスクに最も利益をもたらすパスを優先順位付けするように微調整する手法である。
我々は4つの公開可能なOpenQAデータセットの包括的な実験を行い、我々のアプローチが検索とOpenQAのパフォーマンスを向上させることを実証した。
論文 参考訳(メタデータ) (2024-08-15T22:34:44Z) - RAG-QA Arena: Evaluating Domain Robustness for Long-form Retrieval Augmented Question Answering [61.19126689470398]
Long-form RobustQA (LFRQA)は、7つの異なるドメインにわたる26Kクエリと大きなコーパスをカバーする新しいデータセットである。
RAG-QAアリーナと人間の回答品質判断は高い相関関係にあることを示す。
最も競争力のあるLLMの回答の41.3%のみがLFRQAの回答に好まれており、RAG-QAアリーナは将来の研究の挑戦的な評価プラットフォームであることを示している。
論文 参考訳(メタデータ) (2024-07-19T03:02:51Z) - Ground Every Sentence: Improving Retrieval-Augmented LLMs with Interleaved Reference-Claim Generation [51.8188846284153]
RAGは大規模言語モデル(LLM)を強化するために広く採用されている。
分散テキスト生成(ATG)が注目され、RAGにおけるモデルの応答をサポートするための引用を提供する。
本稿では,ReClaim(Refer & Claim)と呼ばれる詳細なATG手法を提案する。
論文 参考訳(メタデータ) (2024-07-01T20:47:47Z) - DARG: Dynamic Evaluation of Large Language Models via Adaptive Reasoning Graph [70.79413606968814]
本稿では,適応推論グラフ展開(DARG)によるLCMの動的評価を導入し,複雑性と多様性を制御した現在のベンチマークを動的に拡張する。
具体的には、まず現在のベンチマークでデータポイントの推論グラフを抽出し、それから推論グラフを摂動させて新しいテストデータを生成する。
このような新しく生成されたテストサンプルは、元のベンチマークと同様の言語的多様性を維持しながら、複雑さのレベルが異なる可能性がある。
論文 参考訳(メタデータ) (2024-06-25T04:27:53Z) - Multi-Head RAG: Solving Multi-Aspect Problems with LLMs [18.581518952488093]
MRAG(Multi-Head RAG)は、マルチアスペクト文書を取得するための新しいスキームである。
MRAGは18RAGベースラインに対して設計上の優位性を示し,検索成功率の最大20%を実証的に改善した。
論文 参考訳(メタデータ) (2024-06-07T16:59:38Z) - Improving Retrieval for RAG based Question Answering Models on Financial Documents [0.046603287532620746]
本稿では,RAGパイプラインの既存の制約について検討し,テキスト検索の方法を紹介する。
高度なチャンキングテクニック、クエリ拡張、メタデータアノテーションの組み込み、再ランク付けアルゴリズムの適用、埋め込みアルゴリズムの微調整などの戦略を練っている。
論文 参考訳(メタデータ) (2024-03-23T00:49:40Z) - Adaptive-RAG: Learning to Adapt Retrieval-Augmented Large Language Models through Question Complexity [59.57065228857247]
Retrieval-augmented Large Language Models (LLMs) は、質問回答(QA)のようなタスクにおける応答精度を高めるための有望なアプローチとして登場した。
本稿では,クエリの複雑さに基づいて,LLMの最適戦略を動的に選択できる適応型QAフレームワークを提案する。
オープンドメインのQAデータセットを用いて、複数のクエリの複雑さを網羅し、QAシステムの全体的な効率性と精度を高めることを示す。
論文 参考訳(メタデータ) (2024-03-21T13:52:30Z) - Enhancing textual textbook question answering with large language models and retrieval augmented generation [3.6799953119508735]
本稿では、検索拡張生成(RAG)技術を組み込んだフレームワーク(PLRTQA)を提案する。
我々のアーキテクチャはベースラインよりも優れており、検証セットが4.12%、テストセットが9.84%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-02-05T11:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。