論文の概要: Research on Graph-Retrieval Augmented Generation Based on Historical Text Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2506.15241v1
- Date: Wed, 18 Jun 2025 08:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-19 19:35:51.587722
- Title: Research on Graph-Retrieval Augmented Generation Based on Historical Text Knowledge Graphs
- Title(参考訳): 歴史的テキスト知識グラフに基づくグラフ検索拡張生成に関する研究
- Authors: Yang Fan, Zhang Qi, Xing Wenqian, Liu Chang, Liu Liu,
- Abstract要約: 本稿は、歴史テキスト分析のための一般的な大言語モデルにおけるドメイン知識のギャップについて論じる。
本稿では,チェーン・オブ・シークレット・プロンプト,自己指示生成,プロセス監視を組み合わせたグラフRAGフレームワークを提案する。
このデータセットは、過去の知識の自動抽出をサポートし、労働コストを削減します。
- 参考スコア(独自算出の注目度): 6.350401830141683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This article addresses domain knowledge gaps in general large language models for historical text analysis in the context of computational humanities and AIGC technology. We propose the Graph RAG framework, combining chain-of-thought prompting, self-instruction generation, and process supervision to create a The First Four Histories character relationship dataset with minimal manual annotation. This dataset supports automated historical knowledge extraction, reducing labor costs. In the graph-augmented generation phase, we introduce a collaborative mechanism between knowledge graphs and retrieval-augmented generation, improving the alignment of general models with historical knowledge. Experiments show that the domain-specific model Xunzi-Qwen1.5-14B, with Simplified Chinese input and chain-of-thought prompting, achieves optimal performance in relation extraction (F1 = 0.68). The DeepSeek model integrated with GraphRAG improves F1 by 11% (0.08-0.19) on the open-domain C-CLUE relation extraction dataset, surpassing the F1 value of Xunzi-Qwen1.5-14B (0.12), effectively alleviating hallucinations phenomenon, and improving interpretability. This framework offers a low-resource solution for classical text knowledge extraction, advancing historical knowledge services and humanities research.
- Abstract(参考訳): 本稿では,人文科学とAIGC技術の文脈における歴史的テキスト解析のための一般の大規模言語モデルにおけるドメイン知識ギャップについて論じる。
本稿では,最小限の手動アノテーションを用いた第14歴史文字関係データセットを作成するために,チェーン・オブ・シークレット・プロンプト,自己指示生成,プロセス監視を組み合わせたグラフRAGフレームワークを提案する。
このデータセットは、過去の知識の自動抽出をサポートし、労働コストを削減します。
グラフ強化生成フェーズでは、知識グラフと検索強化生成の協調機構を導入し、一般的なモデルと過去の知識との整合性を改善する。
実験により、簡素な中国語入力とチェーン・オブ・シークレットプロンプトを持つドメイン固有モデルであるXunzi-Qwen1.5-14Bが、関係抽出において最適な性能を達成することが示された(F1 = 0.68)。
GraphRAGと統合されたDeepSeekモデルは、オープンドメインC-CLUE関係抽出データセット上でF1を11%改善し(0.08-0.19)、Xunzi-Qwen1.5-14B(0.12)のF1値を超え、幻覚現象を効果的に緩和し、解釈可能性を向上させる。
このフレームワークは、古典的なテキスト知識の抽出、歴史的知識サービスと人文科学研究の進歩のための、低リソースのソリューションを提供する。
関連論文リスト
- ArchRAG: Attributed Community-based Hierarchical Retrieval-Augmented Generation [16.204046295248546]
Retrieval-Augmented Generation (RAG) は、外部知識を大規模言語モデル (LLM) に統合するのに有効であることが証明されている。
我々は、Attributed Community-based Hierarchical RAG (ArchRAG)と呼ばれる新しいグラフベースのRAGアプローチを導入する。
属性付きコミュニティのための新しい階層型インデックス構造を構築し,効果的なオンライン検索手法を開発した。
ArchRAGはHuaweiのクラウドコンピューティングにおけるドメイン知識のQAにうまく適用されている。
論文 参考訳(メタデータ) (2025-02-14T03:28:36Z) - GFM-RAG: Graph Foundation Model for Retrieval Augmented Generation [84.41557981816077]
本稿では,新しいグラフ基盤モデル (GFM) である GFM-RAG について紹介する。
GFM-RAGは、複雑なクエリ-知識関係をキャプチャするグラフ構造を理由とする、革新的なグラフニューラルネットワークによって実現されている。
効率とニューラルスケーリング法則との整合性を維持しつつ、最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-02-03T07:04:29Z) - Graph-Augmented Relation Extraction Model with LLMs-Generated Support Document [7.0421339410165045]
本研究では,文レベルの関係抽出(RE)に対する新しいアプローチを提案する。
グラフニューラルネットワーク(GNN)とLarge Language Models(LLM)を統合し、コンテキストに富んだサポートドキュメントを生成する。
そこで,CrossREデータセットを用いて実験を行い,本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-10-30T20:48:34Z) - Deep Contrastive Graph Learning with Clustering-Oriented Guidance [61.103996105756394]
グラフ畳み込みネットワーク(GCN)は、グラフベースのクラスタリングを改善する上で大きな可能性を秘めている。
モデルはGCNを適用するために初期グラフを事前に推定する。
一般的なデータクラスタリングには,Deep Contrastive Graph Learning (DCGL)モデルが提案されている。
論文 参考訳(メタデータ) (2024-02-25T07:03:37Z) - CADGE: Context-Aware Dialogue Generation Enhanced with Graph-Structured Knowledge Aggregation [25.56539617837482]
コンテキスト対応グラフアテンションモデル(Context-aware GAT)を提案する。
これは、コンテキスト強化された知識集約機構を通じて、関連する知識グラフからグローバルな特徴を同化する。
実験により,本フレームワークは従来のGNNベース言語モデルよりも性能が優れていることが示された。
論文 参考訳(メタデータ) (2023-05-10T16:31:35Z) - LUKE-Graph: A Transformer-based Approach with Gated Relational Graph
Attention for Cloze-style Reading Comprehension [13.173307471333619]
本稿では,文書内のエンティティ間の直感的な関係に基づく異種グラフ構築モデルLUKE-Graphを提案する。
次に、アテンション読み込み(RGAT)を用いて、事前学習したLUKEモデルによって符号化されたグラフの推論情報と文脈表現を融合する。
実験結果から,LUKE-Graphはコモンセンス推論による最先端性能を実現することが示された。
論文 参考訳(メタデータ) (2023-03-12T14:31:44Z) - EGRC-Net: Embedding-induced Graph Refinement Clustering Network [66.44293190793294]
埋め込みによるグラフリファインメントクラスタリングネットワーク (EGRC-Net) という新しいグラフクラスタリングネットワークを提案する。
EGRC-Netは学習した埋め込みを利用して初期グラフを適応的に洗練し、クラスタリング性能を向上させる。
提案手法はいくつかの最先端手法より一貫して優れている。
論文 参考訳(メタデータ) (2022-11-19T09:08:43Z) - Federated Knowledge Graphs Embedding [50.35484170815679]
本稿では,fkge(federated knowledge graphs embedded)という分散スケーラブル学習フレームワークを提案する。
FKGEは、知識グラフのペア間の逆生成を利用して、異なるドメインの同一の実体と関係を近接埋め込み空間に変換する。
トレーニングデータのプライバシーを保護するために、FKGEはさらにプライバシー保護ニューラルネットワーク構造を実装し、生データの漏洩を保証しません。
論文 参考訳(メタデータ) (2021-05-17T05:30:41Z) - Reasoning with Latent Structure Refinement for Document-Level Relation
Extraction [20.308845516900426]
本稿では,潜在文書レベルグラフを自動的に誘導することにより,文間の関係推論を促進する新しいモデルを提案する。
具体的には、大規模文書レベルデータセット(DocRED)上でF1スコア59.05を達成する。
論文 参考訳(メタデータ) (2020-05-13T13:36:09Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z) - Graph Representation Learning via Graphical Mutual Information
Maximization [86.32278001019854]
本稿では,入力グラフとハイレベルな隠蔽表現との相関を測る新しい概念であるGMIを提案する。
我々は,グラフニューラルエンコーダの入力と出力の間でGMIを最大化することで訓練された教師なし学習モデルを開発する。
論文 参考訳(メタデータ) (2020-02-04T08:33:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。