論文の概要: SEMMA: A Semantic Aware Knowledge Graph Foundation Model
- arxiv url: http://arxiv.org/abs/2505.20422v1
- Date: Mon, 26 May 2025 18:15:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 17:05:58.236514
- Title: SEMMA: A Semantic Aware Knowledge Graph Foundation Model
- Title(参考訳): SEMMA: セマンティック知識グラフ基礎モデル
- Authors: Arvindh Arun, Sumit Kumar, Mojtaba Nayyeri, Bo Xiong, Ponnurangam Kumaraguru, Antonio Vergari, Steffen Staab,
- Abstract要約: 知識グラフ基礎モデル(KGFM)は、転送可能なパターンを学習することによって、目に見えないグラフに対するゼロショット推論を可能にすることを約束している。
本稿では, 変換可能なテキストセマンティクスと構造を結合したデュアルモジュールKGFMであるSEMMAを紹介する。
より困難な一般化設定では、テスト時間関係ボキャブラリは完全に見えず、構造的手法は崩壊し、SEMMAは2倍効率がよい。
- 参考スコア(独自算出の注目度): 34.001718474850676
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge Graph Foundation Models (KGFMs) have shown promise in enabling zero-shot reasoning over unseen graphs by learning transferable patterns. However, most existing KGFMs rely solely on graph structure, overlooking the rich semantic signals encoded in textual attributes. We introduce SEMMA, a dual-module KGFM that systematically integrates transferable textual semantics alongside structure. SEMMA leverages Large Language Models (LLMs) to enrich relation identifiers, generating semantic embeddings that subsequently form a textual relation graph, which is fused with the structural component. Across 54 diverse KGs, SEMMA outperforms purely structural baselines like ULTRA in fully inductive link prediction. Crucially, we show that in more challenging generalization settings, where the test-time relation vocabulary is entirely unseen, structural methods collapse while SEMMA is 2x more effective. Our findings demonstrate that textual semantics are critical for generalization in settings where structure alone fails, highlighting the need for foundation models that unify structural and linguistic signals in knowledge reasoning.
- Abstract(参考訳): 知識グラフ基礎モデル(KGFM)は、転送可能なパターンを学習することによって、目に見えないグラフに対するゼロショット推論を可能にすることを約束している。
しかし、既存のKGFMの多くはグラフ構造のみに依存しており、テキスト属性に符号化されたリッチな意味信号を見渡している。
本稿では,2つのモジュールKGFMであるSEMMAを紹介した。
SEMMAは、Large Language Models (LLMs) を利用して関係識別子を豊かにし、セマンティックな埋め込みを生成し、その後テキスト関係グラフを形成し、構造成分と融合する。
54種類のKGに対して、SEMMAはULTRAのような純粋に構造的なベースラインよりも完全な帰納的リンク予測に優れる。
重要なことは、テスト時間関係の語彙が全く見えず、構造的手法が崩壊し、SEMMAは2倍効率が良いというより、より難しい一般化条件を示す。
文献意味論は構造のみが失敗する環境での一般化に重要であり,知識推論における構造的・言語的信号を統一する基盤モデルの必要性を強調した。
関連論文リスト
- Integrating Structural and Semantic Signals in Text-Attributed Graphs with BiGTex [0.16385815610837165]
BiGTexは、スタック化されたGraph-Text Fusion Unitを通じてGNNとLLMを密に統合する新しいアーキテクチャである。
BiGTexはノード分類における最先端性能を実現し、リンク予測に効果的に一般化する。
論文 参考訳(メタデータ) (2025-04-16T20:25:11Z) - MGSA: Multi-Granularity Graph Structure Attention for Knowledge Graph-to-Text Generation [10.607080796475815]
本稿では,事前学習言語モデル(PLM)に基づくMGSA(Multi-granularity Graph Structure Attention)を提案する。
モデルアーキテクチャのエンコーダは、エンティティレベルの構造符号化モジュールと、ワードレベルの構造符号化モジュールと、両方の構造から情報を合成する集約モジュールとを備える。
KG-to-Text GenerationベンチマークデータセットとWebNLG,EventNarrativeを用いて,MGSAモデルの広範な評価を行った。
論文 参考訳(メタデータ) (2024-09-16T14:01:03Z) - Bridging Local Details and Global Context in Text-Attributed Graphs [62.522550655068336]
GraphBridgeは、コンテキストテキスト情報を活用することで、ローカルおよびグローバルな視点をブリッジするフレームワークである。
提案手法は最先端性能を実現し,グラフ対応トークン削減モジュールは効率を大幅に向上し,スケーラビリティの問題を解消する。
論文 参考訳(メタデータ) (2024-06-18T13:35:25Z) - Unleashing the Potential of Text-attributed Graphs: Automatic Relation Decomposition via Large Language Models [31.443478448031886]
RoSE (Relation-oriented Semantic Edge-Decomposition) は、生のテキスト属性を分析してグラフ構造を分解する新しいフレームワークである。
我々のフレームワークは、さまざまなデータセットのノード分類性能を大幅に向上させ、ウィスコンシンデータセットでは最大16%の改善を実現した。
論文 参考訳(メタデータ) (2024-05-28T20:54:47Z) - Joint Language Semantic and Structure Embedding for Knowledge Graph
Completion [66.15933600765835]
本稿では,知識三重項の自然言語記述と構造情報とを共同で組み込むことを提案する。
本手法は,学習済み言語モデルを微調整することで,完了作業のための知識グラフを埋め込む。
各種知識グラフベンチマーク実験により,本手法の最先端性能を実証した。
論文 参考訳(メタデータ) (2022-09-19T02:41:02Z) - Structural Adapters in Pretrained Language Models for AMR-to-text
Generation [59.50420985074769]
グラフ構造データからのテキスト生成に関するこれまでの研究は、事前学習言語モデル(plm)に依存している。
グラフ構造をPLMにエンコードするアダプタ法であるStructAdaptを提案する。
論文 参考訳(メタデータ) (2021-03-16T15:06:50Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。