論文の概要: DSRAG: A Domain-Specific Retrieval Framework Based on Document-derived Multimodal Knowledge Graph
- arxiv url: http://arxiv.org/abs/2509.10467v1
- Date: Fri, 22 Aug 2025 14:24:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-21 06:05:45.73514
- Title: DSRAG: A Domain-Specific Retrieval Framework Based on Document-derived Multimodal Knowledge Graph
- Title(参考訳): DSRAG: ドキュメント由来のマルチモーダル知識グラフに基づくドメイン特化検索フレームワーク
- Authors: Mengzheng Yang, Yanfei Ren, David Osei Opoku, Ruochang Li, Peng Ren, Chunxiao Xing,
- Abstract要約: この研究は、生成プロセスにおける知識グラフ品質の重要な役割を強調したグラフベースのRAGフレームワークに焦点を当てている。
ドメイン固有アプリケーション向けに設計されたマルチモーダルな知識グラフ駆動検索拡張生成フレームワークであるDSRAGを提案する。
- 参考スコア(独自算出の注目度): 4.951890767337337
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Current general-purpose large language models (LLMs) commonly exhibit knowledge hallucination and insufficient domain-specific adaptability in domain-specific tasks, limiting their effectiveness in specialized question answering scenarios. Retrieval-augmented generation (RAG) effectively tackles these challenges by integrating external knowledge to enhance accuracy and relevance. However, traditional RAG still faces limitations in domain knowledge accuracy and context modeling.To enhance domain-specific question answering performance, this work focuses on a graph-based RAG framework, emphasizing the critical role of knowledge graph quality during the generation process. We propose DSRAG (Domain-Specific RAG), a multimodal knowledge graph-driven retrieval-augmented generation framework designed for domain-specific applications. Our approach leverages domain-specific documents as the primary knowledge source, integrating heterogeneous information such as text, images, and tables to construct a multimodal knowledge graph covering both conceptual and instance layers. Building on this foundation, we introduce semantic pruning and structured subgraph retrieval mechanisms, combining knowledge graph context and vector retrieval results to guide the language model towards producing more reliable responses. Evaluations using the Langfuse multidimensional scoring mechanism show that our method excels in domain-specific question answering, validating the efficacy of integrating multimodal knowledge graphs with retrieval-augmented generation.
- Abstract(参考訳): 現在の汎用大規模言語モデル(LLM)は、知識幻覚とドメイン固有のタスクにおけるドメイン固有の適応性に乏しく、特殊な質問応答シナリオにおける有効性を制限している。
Retrieval-augmented Generation (RAG) は、精度と妥当性を高めるために外部知識を統合することで、これらの課題に効果的に取り組む。
しかし、従来のRAGは、ドメイン固有の質問応答性能を高めるために、生成プロセスにおける知識グラフ品質の重要な役割を強調し、グラフベースのRAGフレームワークに焦点を当てている。
DSRAG(Domain-Specific RAG)は,ドメイン固有アプリケーション向けに設計された多モーダル知識グラフ駆動検索拡張生成フレームワークである。
提案手法では,テキストや画像,テーブルなどの異種情報を統合して,概念層とインスタンス層の両方をカバーするマルチモーダルな知識グラフを構築する。
この基盤を基盤として,知識グラフコンテキストとベクトル検索結果を組み合わせたセマンティックプルーニングと構造化サブグラフ検索機構を導入し,より信頼性の高い応答を生成するための言語モデルを導出する。
Langfuseの多次元スコアリング機構を用いて評価した結果,本手法はドメイン固有の質問応答に優れており,マルチモーダル知識グラフと検索拡張生成の統合の有効性が検証されている。
関連論文リスト
- Cross-Granularity Hypergraph Retrieval-Augmented Generation for Multi-hop Question Answering [49.43814054718318]
マルチホップ質問応答 (MHQA) は、正しい回答を得るために複数の経路に散在する知識を統合する必要がある。
従来の検索拡張生成法(RAG)は主に粗い粒度のテキスト意味的類似性に焦点を当てている。
本稿では,HGRAG for MHQAという新しいRAG手法を提案する。
論文 参考訳(メタデータ) (2025-08-15T06:36:13Z) - UniversalRAG: Retrieval-Augmented Generation over Corpora of Diverse Modalities and Granularities [53.76854299076118]
UniversalRAGは異種情報源からの知識を多様さと粒度で検索・統合するための新しいRAGフレームワークである。
本稿では,最も適切なモダリティ固有コーパスを動的に識別し,その内部でターゲット検索を行うモダリティ対応ルーティング機構を提案する。
マルチモーダル性にまたがる8つのベンチマークでUniversalRAGを検証する。
論文 参考訳(メタデータ) (2025-04-29T13:18:58Z) - Retrieval Augmented Generation and Understanding in Vision: A Survey and New Outlook [85.43403500874889]
Retrieval-augmented Generation (RAG) は人工知能(AI)において重要な技術である。
具体化されたAIのためのRAGの最近の進歩は、特に計画、タスク実行、マルチモーダル知覚、インタラクション、特殊ドメインの応用に焦点を当てている。
論文 参考訳(メタデータ) (2025-03-23T10:33:28Z) - A Survey of Graph Retrieval-Augmented Generation for Customized Large Language Models [29.45576836135952]
Retrieval-Augmented Generation (RAG)は、大規模言語モデル(LLM)をカスタマイズするための有望なソリューションとして登場した。
本調査は,GraphRAG(Graph-based Retrieval-Augmented Generation)の系統的解析である。
論文 参考訳(メタデータ) (2025-01-21T06:25:21Z) - MoColl: Agent-Based Specific and General Model Collaboration for Image Captioning [4.955697042432618]
本稿では,MoCollと呼ばれる新しいエージェント強化モデルコラボレーションフレームワークを提案する。
MoCollは複雑なイメージキャプションタスクを一連の相互接続された質問応答サブタスクに分解する。
放射線学レポート生成実験の結果,提案手法の有効性が検証された。
論文 参考訳(メタデータ) (2025-01-03T14:38:01Z) - Retrieval-Augmented Generation with Graphs (GraphRAG) [84.29507404866257]
Retrieval-augmented Generation (RAG) は、追加情報を取得することによって下流タスクの実行を向上させる強力な技術である。
グラフは、その固有の「エッジで接続されたノード」の性質により、巨大な異種情報と関係情報を符号化する。
従来のRAGとは異なり、多種多様な形式とドメイン固有の関係知識のようなグラフ構造化データのユニークさは、異なるドメインでGraphRAGを設計する際、ユニークで重要な課題を生じさせる。
論文 参考訳(メタデータ) (2024-12-31T06:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。