論文の概要: A Survey on Retrieval And Structuring Augmented Generation with Large Language Models
- arxiv url: http://arxiv.org/abs/2509.10697v1
- Date: Fri, 12 Sep 2025 21:25:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-16 17:26:22.736691
- Title: A Survey on Retrieval And Structuring Augmented Generation with Large Language Models
- Title(参考訳): 大規模言語モデルを用いた検索・構造化世代に関する調査研究
- Authors: Pengcheng Jiang, Siru Ouyang, Yizhu Jiao, Ming Zhong, Runchu Tian, Jiawei Han,
- Abstract要約: 大規模言語モデル(LLM)は、テキスト生成と推論において顕著な能力を持つ自然言語処理に革命をもたらした。
しかし、これらのモデルは、時代遅れの知識や限られたドメインの専門知識を含む、現実世界のアプリケーションにデプロイする際の重要な課題に直面します。
Retrieval And Structuring (RAS) Augmented Generationは、動的情報検索と構造化知識表現を統合することで、これらの制限に対処する。
- 参考スコア(独自算出の注目度): 29.707181003761004
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large Language Models (LLMs) have revolutionized natural language processing with their remarkable capabilities in text generation and reasoning. However, these models face critical challenges when deployed in real-world applications, including hallucination generation, outdated knowledge, and limited domain expertise. Retrieval And Structuring (RAS) Augmented Generation addresses these limitations by integrating dynamic information retrieval with structured knowledge representations. This survey (1) examines retrieval mechanisms including sparse, dense, and hybrid approaches for accessing external knowledge; (2) explore text structuring techniques such as taxonomy construction, hierarchical classification, and information extraction that transform unstructured text into organized representations; and (3) investigate how these structured representations integrate with LLMs through prompt-based methods, reasoning frameworks, and knowledge embedding techniques. It also identifies technical challenges in retrieval efficiency, structure quality, and knowledge integration, while highlighting research opportunities in multimodal retrieval, cross-lingual structures, and interactive systems. This comprehensive overview provides researchers and practitioners with insights into RAS methods, applications, and future directions.
- Abstract(参考訳): 大規模言語モデル(LLM)は、テキスト生成と推論において顕著な能力を持つ自然言語処理に革命をもたらした。
しかし、これらのモデルは、幻覚生成、時代遅れの知識、限られたドメインの専門知識など、現実世界のアプリケーションにデプロイするとき、重大な課題に直面します。
Retrieval And Structuring (RAS) Augmented Generationは、動的情報検索と構造化知識表現を統合することで、これらの制限に対処する。
本研究では,(1)外的知識にアクセスするための疎密でハイブリッドなアプローチ,(2)非構造的テキストを組織化された表現に変換する分類構築,階層分類,情報抽出などのテキスト構造化手法,(3)これらの構造化された表現が,素早い手法,推論フレームワーク,知識埋め込み技術を通じてLLMとどのように統合されるかを検討する。
また、検索効率、構造品質、知識統合における技術的課題を特定し、マルチモーダル検索、言語間構造、インタラクティブシステムの研究機会を強調している。
この包括的概要は、RASメソッド、アプリケーション、将来の方向性に関する洞察を研究者や実践者に提供する。
関連論文リスト
- Towards Improving Interpretability of Language Model Generation through a Structured Knowledge Discovery Approach [33.17711262799183]
我々は,知識を付加したテキスト生成タスクに対して,タスクに依存しない構造化された知識ハンターを開発する。
我々のモデルは高い解釈可能性を実現し、ユーザーはモデル出力生成プロセスを理解することができる。
我々は,RotoWireFGデータセットとKdConvデータセットを用いた外部知識強化対話生成の両方において,我々のモデルの有効性を実証的に実証した。
論文 参考訳(メタデータ) (2025-11-28T16:43:46Z) - Deep Research: A Systematic Survey [118.82795024422722]
Deep Research (DR)は、大規模言語モデルの推論能力と検索エンジンなどの外部ツールを組み合わせることを目的としている。
本調査は,深層研究システムの包括的かつ体系的な概要を提示する。
論文 参考訳(メタデータ) (2025-11-24T15:28:28Z) - A Survey of Context Engineering for Large Language Models [31.68644305980195]
この調査では、シンプルなプロンプト設計を超越する形式的な規律であるContext Engineeringを紹介します。
まず、コンテキスト検索と生成、コンテキスト処理、コンテキスト管理といった基本的なコンポーネントについて検討する。
次に、これらのコンポーネントがいかにアーキテクチャ的に統合され、洗練されたシステム実装を作成するかを探る。
論文 参考訳(メタデータ) (2025-07-17T17:50:36Z) - STRUCTSENSE: A Task-Agnostic Agentic Framework for Structured Information Extraction with Human-In-The-Loop Evaluation and Benchmarking [2.355572228890207]
StructSenseは、大規模言語モデル上に構築された構造化情報抽出のためのモジュラーでタスクに依存しないオープンソースのフレームワークである。
複雑なドメインコンテンツを効果的にエンコードできるドメイン固有のシンボリック知識によって導かれる。
我々は、StructSenseがドメイン感度の限界とクロスタスクの一般化性の欠如を克服できることを実証した。
論文 参考訳(メタデータ) (2025-07-04T15:51:07Z) - RAS: Retrieval-And-Structuring for Knowledge-Intensive LLM Generation [46.237206695937246]
本稿では,クエリ固有の知識グラフを動的に構築するフレームワークであるRetrieval-And-Structuring (RAS)を提案する。
7つの知識集約ベンチマークでは、RASは一貫して強力なベースラインを上回っている。
この結果から,動的クエリ固有知識構造化は,言語モデル生成における推論精度と堅牢性を向上させるための堅牢な経路を提供することが示された。
論文 参考訳(メタデータ) (2025-02-16T05:01:49Z) - A Comprehensive Survey on Integrating Large Language Models with Knowledge-Based Methods [4.686190098233778]
大規模言語モデル(LLM)は構造化知識ベースシステムと統合することができる。
本稿では, LLMと知識基盤の関係を調査し, 実際に適用できる方法について検討し, 技術的, 運用的, 倫理的課題について考察する。
これは、データコンテキスト化、モデル精度、知識リソースの利用に関する構造化知識ベースシステムに生成AIを組み込むことの利点を示す。
論文 参考訳(メタデータ) (2025-01-19T23:25:21Z) - StructRAG: Boosting Knowledge Intensive Reasoning of LLMs via Inference-time Hybrid Information Structurization [94.31508613367296]
Retrieval-augmented Generation(RAG)は、大規模言語モデル(LLM)を効果的に強化する鍵となる手段である。
本稿では,手前のタスクに対して最適な構造型を識別し,元の文書をこの構造化形式に再構成し,その結果に基づいて回答を推測するStructRAGを提案する。
実験の結果、StructRAGは最先端のパフォーマンスを実現し、特に挑戦的なシナリオに優れていた。
論文 参考訳(メタデータ) (2024-10-11T13:52:44Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - DIVKNOWQA: Assessing the Reasoning Ability of LLMs via Open-Domain
Question Answering over Knowledge Base and Text [73.68051228972024]
大きな言語モデル(LLM)は印象的な生成能力を示すが、内部知識に依存すると幻覚に悩まされる。
検索拡張LDMは、外部知識においてLLMを基盤とする潜在的な解決策として出現している。
論文 参考訳(メタデータ) (2023-10-31T04:37:57Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Foundational Models Defining a New Era in Vision: A Survey and Outlook [151.49434496615427]
視覚シーンの構成的性質を観察し、推論する視覚システムは、我々の世界を理解するのに不可欠である。
モデルは、このようなモダリティと大規模なトレーニングデータとのギャップを埋めることを学び、コンテキスト推論、一般化、テスト時の迅速な機能を容易にした。
このようなモデルの出力は、例えば、バウンディングボックスを設けて特定のオブジェクトをセグメント化したり、画像や映像シーンについて質問したり、言語命令でロボットの動作を操作することで対話的な対話を行うなど、リトレーニングすることなく、人為的なプロンプトによって変更することができる。
論文 参考訳(メタデータ) (2023-07-25T17:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。