論文の概要: SAGE: Scale-Aware Gradual Evolution for Continual Knowledge Graph Embedding
- arxiv url: http://arxiv.org/abs/2508.11347v1
- Date: Fri, 15 Aug 2025 09:23:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-18 14:51:23.833812
- Title: SAGE: Scale-Aware Gradual Evolution for Continual Knowledge Graph Embedding
- Title(参考訳): SAGE: 継続的知識グラフ埋め込みのためのスケールアウェアなグラデーショナル進化
- Authors: Yifei Li, Lingling Zhang, Hang Yan, Tianzhe Zhao, Zihan Ma, Muye Huang, Jun Liu,
- Abstract要約: 本稿では,知識グラフ埋め込みのための段階的進化フレームワークであるSAGEを提案する。
SAGEは既存のベースラインを一貫して上回り、MRRが1.38%、H@1が1.25%、H@10が1.6%改善している。
SAGEと固定埋め込みディメンションを使ったメソッドの比較実験は、SAGEがスナップショット毎に最適なパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 14.115513111911673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Traditional knowledge graph (KG) embedding methods aim to represent entities and relations in a low-dimensional space, primarily focusing on static graphs. However, real-world KGs are dynamically evolving with the constant addition of entities, relations and facts. To address such dynamic nature of KGs, several continual knowledge graph embedding (CKGE) methods have been developed to efficiently update KG embeddings to accommodate new facts while maintaining learned knowledge. As KGs grow at different rates and scales in real-world scenarios, existing CKGE methods often fail to consider the varying scales of updates and lack systematic evaluation throughout the entire update process. In this paper, we propose SAGE, a scale-aware gradual evolution framework for CKGE. Specifically, SAGE firstly determine the embedding dimensions based on the update scales and expand the embedding space accordingly. The Dynamic Distillation mechanism is further employed to balance the preservation of learned knowledge and the incorporation of new facts. We conduct extensive experiments on seven benchmarks, and the results show that SAGE consistently outperforms existing baselines, with a notable improvement of 1.38% in MRR, 1.25% in H@1 and 1.6% in H@10. Furthermore, experiments comparing SAGE with methods using fixed embedding dimensions show that SAGE achieves optimal performance on every snapshot, demonstrating the importance of adaptive embedding dimensions in CKGE. The codes of SAGE are publicly available at: https://github.com/lyfxjtu/Dynamic-Embedding.
- Abstract(参考訳): 従来の知識グラフ(KG)埋め込み手法は、主に静的グラフに焦点を当てた低次元空間における実体と関係を表現することを目的としている。
しかし、現実世界のKGは、実体、関係、事実の絶え間ない追加によって動的に進化している。
このようなKGの動的な性質に対処するため、学習知識を維持しながら新しい事実に対応するためにKG埋め込みを効率的に更新するために、いくつかの継続的知識グラフ埋め込み(CKGE)法が開発されている。
KGが現実世界のシナリオで異なる速度で成長しスケールするにつれて、既存のCKGEメソッドは更新のさまざまなスケールを考慮せず、更新プロセス全体を通して体系的な評価を欠いていることが多い。
本稿では,CKGEのスケール対応段階的進化フレームワークであるSAGEを提案する。
具体的には、SAGEがまず、更新スケールに基づいて埋め込み次元を決定し、それに応じて埋め込み空間を拡大する。
動的蒸留機構は、学習知識の保存と新たな事実の具体化のバランスをとるためにさらに用いられる。
その結果,SAGEはMRRが1.38%,H@1が1.25%,H@10が1.6%向上した。
さらに、SAGEと固定埋め込み次元を用いた手法を比較する実験により、SAGEはスナップショット毎に最適な性能を示し、CKGEにおける適応埋め込み次元の重要性を示す。
SAGEのコードは、https://github.com/lyfxjtu/Dynamic-Embedding.comで公開されている。
関連論文リスト
- Learning to Evolve: Bayesian-Guided Continual Knowledge Graph Embedding [20.479556500981044]
連続知識グラフ埋め込み(CKGE)に直面する主な課題は、モデルが「破滅的な忘れ物」になりがちであることである。
この問題を効果的に軽減するために,新しいCKGEモデルBAKEを提案する。
論文 参考訳(メタデータ) (2025-08-04T13:46:33Z) - Towards Improving Long-Tail Entity Predictions in Temporal Knowledge Graphs through Global Similarity and Weighted Sampling [53.11315884128402]
時間知識グラフ(TKG)補完モデルは、伝統的にトレーニング中にグラフ全体へのアクセスを前提としている。
本稿では,TKGに特化して設計されたインクリメンタルトレーニングフレームワークを提案する。
提案手法は,モデルに依存しない拡張層と加重サンプリング戦略を組み合わせることで,既存のTKG補完手法を拡張および改善することができる。
論文 参考訳(メタデータ) (2025-07-25T06:02:48Z) - KG-Infused RAG: Augmenting Corpus-Based RAG with External Knowledge Graphs [66.35046942874737]
KG-Infused RAGは、拡散活性化を実装するためにKGをRAGシステムに統合するフレームワークである。
KG-Infused RAGはKGの事実を検索し、クエリを拡張し、コーパスと構造化された事実を組み合わせることで生成を強化する。
論文 参考訳(メタデータ) (2025-06-11T09:20:02Z) - Fast and Continual Knowledge Graph Embedding via Incremental LoRA [20.624310261539694]
連続的知識グラフ埋め込みは、新しい知識を効率的に学習し、古い知識を同時に保存することを目的としている。
本稿では,新しい知識を効率的に獲得するために,インクリメンタルな低ランクアダプタ(mec)機構を組み込んだ高速CKGEフレームワーク(モデル)を提案する。
4つの公開データセットと2つの新しいデータセットを、より大規模な初期スケールで実験する。
論文 参考訳(メタデータ) (2024-07-08T08:07:13Z) - KG-FIT: Knowledge Graph Fine-Tuning Upon Open-World Knowledge [63.19837262782962]
知識グラフ埋め込み(KGE)技術は、知識グラフ内の実体と関係のコンパクトな表現を学習するために重要である。
本研究では、エンティティクラスタのセマンティックコヒーレントな階層構造を構築するKG-FITを紹介する。
ベンチマークデータセットFB15K-237、YAGO3-10、PrimeKGの実験は、最先端の訓練済み言語モデルに基づく手法よりもKG-FITの方が優れていることを示した。
論文 参考訳(メタデータ) (2024-05-26T03:04:26Z) - Towards Continual Knowledge Graph Embedding via Incremental Distillation [12.556752486002356]
従来の知識グラフ埋め込み(KGE)の手法では、新しい知識が出現すると、知識グラフ全体(KG)をかなりの訓練コストで保存する必要がある。
本稿では,KGsにおける明示的なグラフ構造の完全活用を考慮したインクリメンタル蒸留(IncDE)に基づくCKGEの競合手法を提案する。
論文 参考訳(メタデータ) (2024-05-07T16:16:00Z) - Lifelong Embedding Learning and Transfer for Growing Knowledge Graphs [22.88552158340435]
既存の知識グラフ埋め込みモデルは、主に静的KGに焦点を当てている。
新たな事実やそれまで目に見えない存在や関係が絶えず現れ、成長を通じて新しい知識を素早く学び、伝達できる埋め込みモデルが必要になります。
我々は,KGのスナップショットをスクラッチから学習することなく,学習の知識伝達と保持を考察する。
提案モデルでは,学習と更新のマスク付きKGオートエンコーダと,学習知識を新たなエンティティや関係埋め込みに注入するための埋め込み転送戦略と,破滅的忘れを避けるための埋め込み正規化手法を備える。
論文 参考訳(メタデータ) (2022-11-29T00:43:44Z) - Temporal Knowledge Graph Reasoning Based on Evolutional Representation
Learning [59.004025528223025]
将来の事実を予測する鍵は、歴史的事実を徹底的に理解することです。
TKGは実際には異なるタイムスタンプに対応するKGのシーケンスである。
グラフ畳み込みネットワーク(GCN)に基づく新しいリカレント進化ネットワークを提案する。
論文 参考訳(メタデータ) (2021-04-21T05:12:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。