論文の概要: OMNIA: Closing the Loop by Leveraging LLMs for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2603.11820v1
- Date: Thu, 12 Mar 2026 11:30:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 13:51:29.047916
- Title: OMNIA: Closing the Loop by Leveraging LLMs for Knowledge Graph Completion
- Title(参考訳): OMNIA: LLMを活用した知識グラフ補完によるループのクローズ
- Authors: Frédéric Ieng, Soror Sahri, Mourad Ouzzani, Massinissa Hammaz, Salima Benbernou, Hanieh Khorashadizadeh, Sven Groppe, Farah Benamara,
- Abstract要約: 我々は、知識グラフ補完のための構造的および意味論的推論を橋渡しする2段階のアプローチであるOMNIAを提案する。
まず、KG内の意味論的関連エンティティと関係をクラスタリングして候補三重項を生成し、その後、軽量な埋め込みフィルタリングによってそれらを検証する。
F1スコアは従来の埋め込みベースのモデルに比べて大幅に改善されている。
- 参考スコア(独自算出の注目度): 5.1405091437027455
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graphs (KGs) are widely used to represent structured knowledge, yet their automatic construction, especially with Large Language Models (LLMs), often results in incomplete or noisy outputs. Knowledge Graph Completion (KGC) aims to infer and add missing triples, but most existing methods either rely on structural embeddings that overlook semantics or language models that ignore the graph's structure and depend on external sources. In this work, we present OMNIA, a two-stage approach that bridges structural and semantic reasoning for KGC. It first generates candidate triples by clustering semantically related entities and relations within the KG, then validates them through lightweight embedding filtering followed by LLM-based semantic validation. OMNIA performs on the internal KG, without external sources, and specifically targets implicit semantics that are most frequent in LLM-generated graphs. Extensive experiments on multiple datasets demonstrate that OMNIA significantly improves F1-score compared to traditional embedding-based models. These results highlight OMNIA's effectiveness and efficiency, as its clustering and filtering stages reduce both search space and validation cost while maintaining high-quality completion.
- Abstract(参考訳): 知識グラフ(KG)は構造化された知識を表現するために広く使われているが、特にLLM(Large Language Models)では自動構築が不完全あるいはノイズの多い出力をもたらすことが多い。
知識グラフ補完(KGC)は、欠落したトリプルを推論し追加することを目的としているが、既存のほとんどのメソッドは、セマンティクスや、グラフの構造を無視して外部ソースに依存する言語モデルを見下ろす構造的な埋め込みに依存している。
本研究では,KGCの構造的および意味論的推論を橋渡しする2段階のアプローチであるOMNIAを提案する。
まず、KG内のセマンティック関連エンティティと関係をクラスタリングして候補三重項を生成し、続いて軽量な埋め込みフィルタリングとLLMベースのセマンティックバリデーションによってそれらを検証する。
OMNIAは外部ソースなしで内部KG上で動作し、特にLSM生成グラフで最も頻繁に使用される暗黙的な意味論をターゲットとしている。
複数のデータセットに対する大規模な実験により、OMNIAは従来の埋め込みベースモデルと比較してF1スコアを大幅に改善することが示された。
これらの結果から,OMNIAのクラスタリングとフィルタリングの段階は,高品質な完全性を維持しつつ,検索スペースと検証コストの両方を削減し,有効性と効率性を強調した。
関連論文リスト
- Turning Semantics into Topology: LLM-Driven Attribute Augmentation for Collaborative Filtering [27.20519975467197]
Topology-Augmented Graph Collaborative Filtering (TAGCF)は、意味的知識をトポロジ接続に変換する新しいフレームワークである。
この拡張構造における異種関係を効果的にモデル化するために、適応的関係重み付きグラフ畳み込みを提案する。
論文 参考訳(メタデータ) (2026-02-24T17:01:47Z) - Improving LLM Reasoning with Homophily-aware Structural and Semantic Text-Attributed Graph Compression [55.51959317490934]
大規模言語モデル(LLM)は、テキスト分散グラフ(TAG)理解において有望な能力を示している。
グラフは本来、構造情報や意味情報を豊富に含むものであり、それらの有効利用はLLMの推論性能の潜在的な利益を解放する可能性があると論じる。
グラフホモフィリーの活用を目的としたフレームワーク LLMs (HS2C) のホモフィリー対応構造とセマンティック圧縮を提案する。
論文 参考訳(メタデータ) (2026-01-13T03:35:18Z) - Enrich-on-Graph: Query-Graph Alignment for Complex Reasoning with LLM Enriching [61.824094419641575]
大言語モデル(LLM)は知識グラフ質問応答(KGQA)のような知識集約的なシナリオにおける幻覚と事実的誤りに苦しむ
これは、構造化知識グラフ(KG)と非構造化クエリのセマンティックギャップによるもので、その焦点や構造に固有の違いが原因である。
既存の手法は通常、バニラKGの資源集約的で非スケーリング可能な推論を用いるが、このギャップを見落としている。
我々は、LLMの事前知識を活用してKGを充実させる柔軟なフレームワークEnrich-on-Graph(EoG)を提案し、グラフとクエリ間のセマンティックギャップを埋める。
論文 参考訳(メタデータ) (2025-09-25T06:48:52Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - KG-CF: Knowledge Graph Completion with Context Filtering under the Guidance of Large Language Models [55.39134076436266]
KG-CFはランキングベースの知識グラフ補完タスクに適したフレームワークである。
KG-CFは、LLMの推論能力を活用して、無関係なコンテキストをフィルタリングし、現実世界のデータセットで優れた結果を得る。
論文 参考訳(メタデータ) (2025-01-06T01:52:15Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Exploring the Potential of Large Language Models for Heterophilic Graphs [38.79574338268997]
大規模言語モデル(LLM)を用いた異種グラフモデリングのための2段階フレームワークを提案する。
第1段階では、LLMを微調整して、ノードのテキスト内容に基づいて、同好および異好のエッジをより正確に識別する。
第2段階では,ノードの特徴,構造,ヘテロ親和性,ホモ親和性といった特徴に基づいて,異なるエッジタイプに対するGNNのメッセージ伝搬を適応的に管理する。
論文 参考訳(メタデータ) (2024-08-26T09:29:56Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。