論文の概要: Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language Models
- arxiv url: http://arxiv.org/abs/2512.00590v1
- Date: Sat, 29 Nov 2025 18:44:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.311882
- Title: Wikontic: Constructing Wikidata-Aligned, Ontology-Aware Knowledge Graphs with Large Language Models
- Title(参考訳): Wikontic: 大規模言語モデルを用いたウィキデータ対応オントロジー対応知識グラフの構築
- Authors: Alla Chepurova, Aydar Bulatov, Yuri Kuratov, Mikhail Burtsev,
- Abstract要約: 知識グラフ(KGs)は、大規模言語モデル(LLMs)の構造化、検証可能な基盤を提供する
現在のLLMベースのシステムでは、KGをテキスト検索の補助構造として使用しており、本質的な品質は未探索のままである。
我々はオープンドメインテキストからKGを構成する多段階パイプラインであるWikonticを提案する。
- 参考スコア(独自算出の注目度): 10.130178524819536
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graphs (KGs) provide structured, verifiable grounding for large language models (LLMs), but current LLM-based systems commonly use KGs as auxiliary structures for text retrieval, leaving their intrinsic quality underexplored. In this work, we propose Wikontic, a multi-stage pipeline that constructs KGs from open-domain text by extracting candidate triplets with qualifiers, enforcing Wikidata-based type and relation constraints, and normalizing entities to reduce duplication. The resulting KGs are compact, ontology-consistent, and well-connected; on MuSiQue, the correct answer entity appears in 96% of generated triplets. On HotpotQA, our triplets-only setup achieves 76.0 F1, and on MuSiQue 59.8 F1, matching or surpassing several retrieval-augmented generation baselines that still require textual context. In addition, Wikontic attains state-of-the-art information-retention performance on the MINE-1 benchmark (86%), outperforming prior KG construction methods. Wikontic is also efficient at build time: KG construction uses less than 1,000 output tokens, about 3$\times$ fewer than AriGraph and $<$1/20 of GraphRAG. The proposed pipeline enhances the quality of the generated KG and offers a scalable solution for leveraging structured knowledge in LLMs.
- Abstract(参考訳): 知識グラフ(KGs)は、大きな言語モデル(LLMs)に対して構造化された検証可能な基盤を提供するが、現在のLLMベースのシステムは、KGをテキスト検索の補助構造として一般的に使用し、本質的な品質を過小評価している。
本研究では,オープンドメインテキストからKGを合成する多段階パイプラインであるWikonticを提案する。
結果として得られるKGはコンパクトで、オントロジーに一貫性があり、十分に結合している; MuSiQue では、正しい答え実体は生成された三重項の 96% に現れる。
HotpotQAでは、トリップレットのみのセットアップで76.0 F1を達成し、MuSiQue 59.8 F1では、テキストコンテキストを必要とするいくつかの検索拡張生成ベースラインをマッチまたはオーバーします。
さらに、WikonticはMINE-1ベンチマーク(86%)で最先端の情報保持性能を達成し、以前のKG構築方法よりも優れていた。
KGの構築では1,000未満の出力トークンを使用し、AriGraphよりも約3$\times$、GraphRAGの$<1/20である。
提案したパイプラインは生成したKGの品質を高め,LLMにおける構造化知識を活用するスケーラブルなソリューションを提供する。
関連論文リスト
- Can Knowledge-Graph-based Retrieval Augmented Generation Really Retrieve What You Need? [57.28763506780752]
GraphFlowは、テキストリッチなKGから現実世界のクエリに必要な正確で多様な知識を効率的に取得するフレームワークである。
GPT-4oを含む強力なKG-RAGベースラインを10%上回り、ヒット率とリコール率で上回る。
また、KGを見えないものに強く一般化し、その有効性と堅牢性を示す。
論文 参考訳(メタデータ) (2025-10-18T17:06:49Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - KG2QA: Knowledge Graph-enhanced Retrieval-augmented Generation for Communication Standards Question Answering [7.079181644378029]
KG2QAは、細調整された大言語モデル(LLM)とドメイン固有知識グラフ(KG)を統合する質問応答フレームワークである。
ITU-TレコメンデーションとQwen2.5-7B-インストラクトから,高品質な6,587対のQAデータセットを構築した。
我々のKG-RAGパイプラインでは、細調整されたLLMがまずKGから関連する知識を取得し、より正確で現実的な応答を可能にします。
論文 参考訳(メタデータ) (2025-06-08T08:07:22Z) - Ontology-grounded Automatic Knowledge Graph Construction by LLM under Wikidata schema [60.42231674887294]
本稿では,Large Language Models (LLMs) を用いた知識グラフ構築のためのオントロジー的アプローチを提案する。
我々は、一貫性と解釈可能性を確保するために、抽出された関係に基づいて、著者によるオントロジーによるKGの基底生成を行う。
我々の研究は、人間の介入を最小限に抑えたスケーラブルなKG建設パイプラインの実現に向けて有望な方向を示し、高品質で人間に解釈可能なKGを生み出す。
論文 参考訳(メタデータ) (2024-12-30T13:36:05Z) - Can LLMs be Good Graph Judge for Knowledge Graph Construction? [18.05473053134776]
上記の課題に対処するためのKG構築フレームワークである textbfGraphJudge を提案する。
本フレームワークでは,文書中のノイズ情報を除去するためのエンティティ中心の戦略を設計する。
そして、LLMをグラフ判定器として微調整し、生成したKGの品質を最終的に向上させた。
論文 参考訳(メタデータ) (2024-11-26T12:46:57Z) - Graphusion: A RAG Framework for Knowledge Graph Construction with a Global Perspective [13.905336639352404]
この研究は、無料テキストからゼロショットの知識グラフフレームワークであるGraphusionを導入している。
ステップ1では、トピックモデリングを用いてシードエンティティのリストを抽出し、最終KGに最も関連性の高いエンティティを導く。
ステップ2ではLSMを用いて候補三重項抽出を行い、ステップ3では抽出した知識のグローバルなビューを提供する新しい融合モジュールを設計する。
論文 参考訳(メタデータ) (2024-10-23T06:54:03Z) - Generate-on-Graph: Treat LLM as both Agent and KG in Incomplete Knowledge Graph Question Answering [87.67177556994525]
我々は、知識グラフ(KG)を探索しながら、新しい実写トリプルを生成する、Generate-on-Graph(GoG)と呼ばれる学習自由な手法を提案する。
GoGはIKGQAでLLMをエージェントとKGの両方として扱うThinking-Searching-Generatingフレームワークを通じて推論を行う。
論文 参考訳(メタデータ) (2024-04-23T04:47:22Z) - BertNet: Harvesting Knowledge Graphs with Arbitrary Relations from
Pretrained Language Models [65.51390418485207]
本稿では,事前学習したLMから任意の関係を持つ大規模KGを抽出する手法を提案する。
関係定義の最小限の入力により、アプローチは膨大な実体対空間を効率的に探索し、多様な正確な知識を抽出する。
我々は、異なるLMから400以上の新しい関係を持つKGを収穫するためのアプローチを展開している。
論文 参考訳(メタデータ) (2022-06-28T19:46:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。