論文の概要: Injecting Knowledge Graphs into Large Language Models
- arxiv url: http://arxiv.org/abs/2505.07554v1
- Date: Mon, 12 May 2025 13:31:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-13 20:21:49.405141
- Title: Injecting Knowledge Graphs into Large Language Models
- Title(参考訳): 大規模言語モデルに知識グラフを注入する
- Authors: Erica Coppolillo,
- Abstract要約: 我々は,大規模言語モデル内のグラフ埋め込みをトークンとして統合するエンコーディング技術を構築した。
我々のアプローチは、モデルに依存しず、リソース効率が良く、どのLLMとも互換性がある。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Integrating structured knowledge from Knowledge Graphs (KGs) into Large Language Models (LLMs) remains a key challenge for symbolic reasoning. Existing methods mainly rely on prompt engineering or fine-tuning, which lose structural fidelity or incur high computational costs. Building on recent encoding techniques which integrate graph embeddings within the LLM input as tokens, we extend this paradigm to the KG domain by leveraging Knowledge Graph Embedding (KGE) models, thus enabling graph-aware reasoning. Our approach is model-agnostic, resource-efficient, and compatible with any LLMs. Extensive experimentation on synthetic and real-world datasets shows that our method improves reasoning performance over established baselines, further achieving the best trade-off in terms of accuracy and efficiency against state-of-the-art LLMs.
- Abstract(参考訳): 知識グラフ(KG)からの構造化知識をLarge Language Models(LLM)に統合することは、シンボリック推論の重要な課題である。
既存の手法は主に素早い工学や微調整に依存しており、構造的忠実さを失うか、高い計算コストがかかる。
LLM入力のグラフ埋め込みをトークンとして統合する最近の符号化技術に基づいて、知識グラフ埋め込み(KGE)モデルを活用することにより、このパラダイムをKGドメインに拡張し、グラフ認識推論を可能にする。
我々のアプローチは、モデルに依存しず、リソース効率が良く、どのLLMとも互換性がある。
合成および実世界のデータセットに対する大規模な実験により,提案手法は確立されたベースラインよりも推論性能を向上し,最先端のLCMに対する精度と効率の両面で最高のトレードオフを達成できることが示されている。
関連論文リスト
- Ontology-Enhanced Knowledge Graph Completion using Large Language Models [20.080012331845065]
大言語モデル(LLM)は知識グラフ補完(KGC)において広く採用されている。
OL-KGCを用いた拡張KGC法を提案する。
まず、神経知覚機構を利用して、構造情報をテキスト空間に効果的に埋め込む。
論文 参考訳(メタデータ) (2025-07-28T09:00:48Z) - Quantizing Text-attributed Graphs for Semantic-Structural Integration [6.721504414917793]
テキスト分散グラフ(TAG)は、様々な領域にわたる複雑な関係をモデル化するための強力な表現として登場した。
大規模言語モデル(LLM)の台頭に伴い、グラフ学習に彼らの能力を活用することへの関心が高まっている。
凍結したコードブックを用いて,グラフ構造情報を離散トークンに直接量子化する,新たな自己教師型フレームワークSTAGを提案する。
論文 参考訳(メタデータ) (2025-07-20T09:18:02Z) - Learning Efficient and Generalizable Graph Retriever for Knowledge-Graph Question Answering [75.12322966980003]
大規模言語モデル(LLM)は、様々な領域にわたって強い帰納的推論能力を示している。
既存のRAGパイプラインのほとんどは非構造化テキストに依存しており、解釈可能性と構造化推論を制限する。
近年,知識グラフ解答のための知識グラフとLLMの統合について検討している。
KGQAにおける効率的なグラフ検索のための新しいフレームワークであるRAPLを提案する。
論文 参考訳(メタデータ) (2025-06-11T12:03:52Z) - GraphOmni: A Comprehensive and Extendable Benchmark Framework for Large Language Models on Graph-theoretic Tasks [15.147178364098034]
LLMのグラフ推論能力を評価するためのベンチマークフレームワークであるGraph Omniを提案する。
以上の結果から, 単連化やプロンプト戦略が他より一貫して優れていないことが示唆された。
これらの知見に感化され、我々は、最高のシリアライズとプロンプトのペアリングを動的に選択する強化学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-17T09:01:16Z) - Grounding LLM Reasoning with Knowledge Graphs [4.279373869671241]
我々は、知識グラフと推論戦略を統合することで、KGデータにおける推論チェーンのすべてのステップまたは"思想"をアンカーする。
我々は,Chain-of-Thought (CoT), Tree-of-Thought (ToT), Graph-of-Thought (GoT) など,いくつかの推論手法によるエージェント検索と自動検索の両方を評価した。
我々の実験は、このアプローチがベースラインモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2025-02-18T19:20:46Z) - In-Context Learning with Topological Information for Knowledge Graph Completion [3.035601871864059]
我々は,知識グラフの性能を向上させるために,文脈内学習を通じてトポロジ情報を組み込む新しい手法を開発した。
提案手法は,テストグラフデータセット内のノードがトレーニンググラフデータセットに存在するような,トランスダクティブな設定において,高いパフォーマンスを実現する。
提案手法は,ILPC小データセットとILPC大データセットのベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-12-11T19:29:36Z) - Comprehending Knowledge Graphs with Large Language Models for Recommender Systems [13.270018897057293]
知識グラフを改善するために,CoLaKGと呼ばれる新しい手法を提案する。
項目中心のサブグラフ抽出とプロンプトエンジニアリングを用いることで、ローカル情報を正確に理解することができる。
さらに、意味に基づく検索モジュールを通じて、各項目は知識グラフ全体の関連項目によって濃縮される。
論文 参考訳(メタデータ) (2024-10-16T04:44:34Z) - How to Make LLMs Strong Node Classifiers? [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端(SOTA)GNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Bridging LLMs and KGs without Fine-Tuning: Intermediate Probing Meets Subgraph-Aware Entity Descriptions [49.36683223327633]
大規模言語モデル(LLM)は、幅広い世界の知識をカプセル化し、強力なコンテキストモデリング能力を示す。
実効的で効率的なKGCを実現するために,LLMの強みを頑健な知識表現と相乗化するための新しいフレームワークを提案する。
従来手法に比べて47%の相対的な改善を達成し,我々の知る限り,ファインチューニング LLM に匹敵する分類性能を初めて達成した。
論文 参考訳(メタデータ) (2024-08-13T10:15:55Z) - Proficient Graph Neural Network Design by Accumulating Knowledge on Large Language Models [20.31388126105889]
DesiGNNは知識中心のフレームワークで、過去のモデル設計の経験を構造化されたきめ細かな知識に変換する。
目に見えないグラフ理解と既知の効果的なアーキテクチャパターンの固いメタ知識を構築することで、DesiGNNは、目に見えないデータセットに対するトップ5.77%の初期モデル提案を数秒で提供できる。
論文 参考訳(メタデータ) (2024-08-13T08:22:01Z) - All Against Some: Efficient Integration of Large Language Models for Message Passing in Graph Neural Networks [51.19110891434727]
事前訓練された知識と強力なセマンティック理解能力を持つ大規模言語モデル(LLM)は、最近、視覚とテキストデータを使用してアプリケーションに恩恵をもたらす顕著な能力を示している。
E-LLaGNNは、グラフから限られたノード数を増やして、グラフ学習のメッセージパッシング手順を強化するオンデマンドLLMサービスを備えたフレームワークである。
論文 参考訳(メタデータ) (2024-07-20T22:09:42Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Disentangled Representation Learning with Large Language Models for
Text-Attributed Graphs [57.052160123387104]
本稿では,TAGに対するLLMの推論と予測能力を向上させることができるDGTLモデルを提案する。
提案するDGTLモデルでは, グラフ構造情報をGNN層に組み込む。
実験により,提案したDGTLモデルにより,最先端のベースラインよりも優れた性能,あるいは同等の性能が得られることを示した。
論文 参考訳(メタデータ) (2023-10-27T14:00:04Z) - Great Truths are Always Simple: A Rather Simple Knowledge Encoder for
Enhancing the Commonsense Reasoning Capacity of Pre-Trained Models [89.98762327725112]
自然言語における常識推論は、人工知能システムの望ましい能力である。
複雑なコモンセンス推論タスクを解決するための典型的な解決策は、知識対応グラフニューラルネットワーク(GNN)エンコーダで事前訓練された言語モデル(PTM)を強化することである。
有効性にもかかわらず、これらのアプローチは重いアーキテクチャ上に構築されており、外部知識リソースがPTMの推論能力をどのように改善するかを明確に説明できない。
論文 参考訳(メタデータ) (2022-05-04T01:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。