論文の概要: Is Implicit Knowledge Enough for LLMs? A RAG Approach for Tree-based Structures
- arxiv url: http://arxiv.org/abs/2510.10806v2
- Date: Tue, 21 Oct 2025 16:10:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.226112
- Title: Is Implicit Knowledge Enough for LLMs? A RAG Approach for Tree-based Structures
- Title(参考訳): LLMにとって意図しない知識は十分か? : 木構造に対するRAGアプローチ
- Authors: Mihir Gupte, Paolo Giusto, Ramesh S,
- Abstract要約: 大規模言語モデル(LLM)は、文脈内の情報に基づいて応答を生成するのに適している。
Retrieval-Augmented Generation (RAG)は、関連する文書を検索して、モデルのコンテキスト内学習を強化する。
本稿では,木構造からの知識を線形化する手法を提案する。
- 参考スコア(独自算出の注目度): 0.5352699766206808
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large Language Models (LLMs) are adept at generating responses based on information within their context. While this ability is useful for interacting with structured data like code files, another popular method, Retrieval-Augmented Generation (RAG), retrieves relevant documents to augment the model's in-context learning. However, it is not well-explored how to best represent this retrieved knowledge for generating responses on structured data, particularly hierarchical structures like trees. In this work, we propose a novel bottom-up method to linearize knowledge from tree-like structures (like a GitHub repository) by generating implicit, aggregated summaries at each hierarchical level. This approach enables the knowledge to be stored in a knowledge base and used directly with RAG. We then compare our method to using RAG on raw, unstructured code, evaluating the accuracy and quality of the generated responses. Our results show that while response quality is comparable across both methods, our approach generates over 68% fewer documents in the retriever, a significant gain in efficiency. This finding suggests that leveraging implicit, linearized knowledge may be a highly effective and scalable strategy for handling complex, hierarchical data structures.
- Abstract(参考訳): 大規模言語モデル(LLM)は、文脈内の情報に基づいて応答を生成するのに適している。
この機能は、コードファイルのような構造化データと対話するのに有用であるが、他の人気のあるメソッドであるRetrieval-Augmented Generation (RAG)は、関連するドキュメントを取得して、モデルのコンテキスト内学習を強化する。
しかし、構造データ、特に木のような階層構造に対する応答を生成するために、この抽出された知識を最もよく表現する方法は、よく解明されていない。
本研究では,木のような構造(GitHubリポジトリなど)から知識を線形化する新たなボトムアップ手法を提案する。
このアプローチにより、知識を知識ベースに格納し、RAGと直接使用することが可能になる。
次に、生の非構造化コードでRAGを使用する方法と比較し、生成した応答の精度と品質を評価する。
その結果, 応答品質は両手法に匹敵するが, 提案手法では検索側で68%以上の文書が生成され, 効率は著しく向上した。
この発見は、暗黙的、線形化された知識を活用することは、複雑で階層的なデータ構造を扱うための非常に効果的でスケーラブルな戦略である可能性を示唆している。
関連論文リスト
- Structured Knowledge Representation through Contextual Pages for Retrieval-Augmented Generation [53.768256130061765]
PAGERは、RAGのためのページ駆動の自律的知識表現フレームワークである。
関連文書を反復的に検索して洗練し、各スロットをポップアップさせ、最終的にコヒーレントなページを構成する。
実験の結果、PAGERはすべてのRAGベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2026-01-14T11:44:31Z) - BookRAG: A Hierarchical Structure-aware Index-based Approach for Retrieval-Augmented Generation on Complex Documents [11.158307125677375]
Retrieval-Augmented Generation (RAG)は、外部の複雑なドキュメントから非常に関連性の高い情報をクエリする。
本稿では,階層構造を持つ文書を対象とした新しいRAG手法であるBookRAGを紹介する。
BookRAGは最先端のパフォーマンスを実現し、検索リコールとQA精度の両方において、ベースラインを著しく上回っている。
論文 参考訳(メタデータ) (2025-12-03T03:40:49Z) - Scheduling Your LLM Reinforcement Learning with Reasoning Trees [18.720191133993715]
本稿では、推論木の構造に基づいて、クエリの学習困難度を測定するReasoning Score(r-score)を紹介する。
rスコアに基づくスケジューリングアルゴリズムであるReasoning Tree Schedule (Re-Schedule)を提案する。
論文 参考訳(メタデータ) (2025-10-28T17:52:07Z) - Prompting is not Enough: Exploring Knowledge Integration and Controllable Generation on Large Language Models [89.65955788873532]
オープンドメイン質問応答(OpenQA)は自然言語処理(NLP)の基盤である。
我々は,知識統合と制御可能生成を探求し,OpenQAの性能向上を目的としたGenKIという新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-05-26T08:18:33Z) - ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデルに統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - ReTreever: Tree-based Coarse-to-Fine Representations for Retrieval [64.44265315244579]
そこで本研究では,様々なレベルで参照文書を整理し,表現するためのツリーベース手法を提案する。
我々の手法はReTreeverと呼ばれ、クエリと参照ドキュメントが同様のツリーブランチに割り当てられるように、バイナリツリーの内部ノード毎のルーティング関数を共同で学習する。
我々の評価では、ReTreeverは一般的に完全な表現精度を保っている。
論文 参考訳(メタデータ) (2025-02-11T21:35:13Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - RAGEval: Scenario Specific RAG Evaluation Dataset Generation Framework [66.93260816493553]
本稿では,様々なシナリオにまたがってRAGシステムを評価するためのフレームワークであるRAGvalを紹介する。
事実の正確性に焦点をあてて,完全性,幻覚,不適切性の3つの新しい指標を提案する。
実験結果から, RAGEvalは, 生成した試料の明瞭度, 安全性, 適合性, 豊かさにおいて, ゼロショット法とワンショット法より優れていた。
論文 参考訳(メタデータ) (2024-08-02T13:35:11Z) - Blended RAG: Improving RAG (Retriever-Augmented Generation) Accuracy with Semantic Search and Hybrid Query-Based Retrievers [0.0]
Retrieval-Augmented Generation (RAG) は、大規模言語モデル (LLM) で文書のプライベートな知識基盤を注入し、生成的Q&A (Question-Answering) システムを構築するための一般的なアプローチである。
本稿では,Vector インデックスや Sparse インデックスなどのセマンティック検索手法をハイブリッドクエリ手法と組み合わせた 'Blended RAG' 手法を提案する。
本研究は,NQ や TREC-COVID などの IR (Information Retrieval) データセットの検索結果の改善と,新たなベンチマーク設定を行う。
論文 参考訳(メタデータ) (2024-03-22T17:13:46Z) - Retrieval-Generation Alignment for End-to-End Task-Oriented Dialogue
System [40.33178881317882]
本稿では、応答生成からの信号を利用して、知覚的レトリバーの学習に最大限の限界確率を適用することを提案する。
本稿では,T5とChatGPTをバックボーンモデルとして用いた3つのタスク指向対話データセットについて検討する。
論文 参考訳(メタデータ) (2023-10-13T06:03:47Z) - Autoregressive Search Engines: Generating Substrings as Document
Identifiers [53.0729058170278]
自動回帰言語モデルは、回答を生成するデファクト標準として現れています。
これまでの研究は、探索空間を階層構造に分割する方法を探究してきた。
本研究では,検索空間の任意の構造を強制しない代替として,経路内のすべてのngramを識別子として使用することを提案する。
論文 参考訳(メタデータ) (2022-04-22T10:45:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。