論文の概要: Improving Continual Learning of Knowledge Graph Embeddings via Informed Initialization
- arxiv url: http://arxiv.org/abs/2511.11118v1
- Date: Fri, 14 Nov 2025 09:48:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-17 22:42:18.525241
- Title: Improving Continual Learning of Knowledge Graph Embeddings via Informed Initialization
- Title(参考訳): インフォームド初期化による知識グラフ埋め込みの継続的な学習の改善
- Authors: Gerard Pons, Besim Bilalli, Anna Queralt,
- Abstract要約: 多くのKG(Knowledege Graphs)が頻繁に更新され、KGE(Knowledege Graph Embeddings)がこれらの変更に対応せざるを得なくなった。
この問題に対処するため、KGEの継続学習技術は、新しいエンティティへの埋め込みを取り入れ、古いエンティティを更新する。
我々は,KGEの既存の継続学習手法にシームレスに統合可能な,新しい情報埋め込み戦略を提案する。
- 参考スコア(独自算出の注目度): 0.8602553195689513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Many Knowledege Graphs (KGs) are frequently updated, forcing their Knowledge Graph Embeddings (KGEs) to adapt to these changes. To address this problem, continual learning techniques for KGEs incorporate embeddings for new entities while updating the old ones. One necessary step in these methods is the initialization of the embeddings, as an input to the KGE learning process, which can have an important impact in the accuracy of the final embeddings, as well as in the time required to train them. This is especially relevant for relatively small and frequent updates. We propose a novel informed embedding initialization strategy, which can be seamlessly integrated into existing continual learning methods for KGE, that enhances the acquisition of new knowledge while reducing catastrophic forgetting. Specifically, the KG schema and the previously learned embeddings are utilized to obtain initial representations for the new entities, based on the classes the entities belong to. Our extensive experimental analysis shows that the proposed initialization strategy improves the predictive performance of the resulting KGEs, while also enhancing knowledge retention. Furthermore, our approach accelerates knowledge acquisition, reducing the number of epochs, and therefore time, required to incrementally learn new embeddings. Finally, its benefits across various types of KGE learning models are demonstrated.
- Abstract(参考訳): 多くのKG(Knowledege Graphs)が頻繁に更新され、KGE(Knowledege Graph Embeddings)がこれらの変更に対応せざるを得なくなった。
この問題に対処するため、KGEの継続学習技術は、新しいエンティティへの埋め込みを取り入れ、古いエンティティを更新する。
これらの方法の1つの必要なステップは、KGE学習プロセスへの入力として埋め込みの初期化であり、最終埋め込みの正確性だけでなく、学習に必要な時間にも重要な影響を与える可能性がある。
これは特に、比較的小さく頻繁な更新に関係している。
本稿では,KGEの既存の継続学習手法にシームレスに統合し,破滅的な忘れ込みを抑えつつ,新たな知識の獲得を促進する新しい情報埋め込み初期化戦略を提案する。
具体的には、KGスキーマと以前に学習した埋め込みを使用して、エンティティが属するクラスに基づいて、新しいエンティティの初期表現を取得する。
実験結果から,提案した初期化戦略がKGEの予測性能を向上させるとともに,知識保持性の向上を図っている。
さらに,本手法は知識獲得を加速させ,エポックの数を減らし,新たな埋め込みを段階的に学習するために必要な時間を短縮する。
最後に、様々なタイプのKGE学習モデルにまたがる利点を実証する。
関連論文リスト
- AgREE: Agentic Reasoning for Knowledge Graph Completion on Emerging Entities [16.03316404374351]
Agentic Reasoning for Emerging Entities (AgREE)は、反復的な検索アクションと多段階推論を組み合わせて、リッチな知識グラフ三重項を動的に構築する新しいフレームワークである。
AgREEは、知識グラフ三重項を構築する既存の方法、特に言語モデルのトレーニングプロセスで見られなかった新興エンティティにおいて、非常に優れています。
本研究は,エージェントに基づく推論と戦略情報検索を組み合わせることで,最新の知識グラフを維持することの有効性を実証する。
論文 参考訳(メタデータ) (2025-08-06T06:34:22Z) - Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning [51.0864247376786]
学習過程を通じて進化する知識グラフを構築する知識グラフ強化多モードモデル(KG-GMM)を導入する。
テスト中,生成されたテキスト内の関係を解析し,特定のカテゴリを特定する知識グラフ拡張推論手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T07:20:43Z) - Towards Continual Knowledge Graph Embedding via Incremental Distillation [12.556752486002356]
従来の知識グラフ埋め込み(KGE)の手法では、新しい知識が出現すると、知識グラフ全体(KG)をかなりの訓練コストで保存する必要がある。
本稿では,KGsにおける明示的なグラフ構造の完全活用を考慮したインクリメンタル蒸留(IncDE)に基づくCKGEの競合手法を提案する。
論文 参考訳(メタデータ) (2024-05-07T16:16:00Z) - Knowledge Editing for Large Language Models: A Survey [51.01368551235289]
大規模言語モデル(LLM)の大きな欠点の1つは、事前学習に要する計算コストである。
知識に基づくモデル編集(KME)が注目を集めており、特定の知識を組み込むためにLLMを正確に修正することを目的としている。
論文 参考訳(メタデータ) (2023-10-24T22:18:13Z) - Overcoming Generic Knowledge Loss with Selective Parameter Update [48.240683797965005]
基礎モデルを継続的に更新する新しい手法を提案する。
すべてのパラメータを均等に更新する代わりに、学習しているタスクに関連するパラメータのスパースセットにアップデートをローカライズします。
提案手法は,学習済みのタスクの精度を最大7%向上すると同時に,学習前知識を0.9%減少させることなく,代表制御セットの精度を低下させる。
論文 参考訳(メタデータ) (2023-08-23T22:55:45Z) - Confidence-aware Self-Semantic Distillation on Knowledge Graph Embedding [20.49583906923656]
信頼を意識した自己知識蒸留はモデル自体から学習し、KGEを低次元空間で強化する。
特定のセマンティックモジュールは、以前に学習した埋め込みの信頼度を推定することにより、信頼できる知識をフィルタリングする。
論文 参考訳(メタデータ) (2022-06-07T01:49:22Z) - New Insights on Reducing Abrupt Representation Change in Online
Continual Learning [69.05515249097208]
我々は、以前に観測されていないクラスが入ってくるデータストリームに現れるときに発生する観測データの表現の変化に焦点を当てる。
Experience Replayを適用すると、新たに追加されたクラスの表現が以前のクラスと大幅に重複することを示します。
本稿では,新しいクラスに対応するために,学習した表現を劇的な適応から保護することで,この問題を緩和する手法を提案する。
論文 参考訳(メタデータ) (2022-03-08T01:37:00Z) - Generative Adversarial Zero-Shot Relational Learning for Knowledge
Graphs [96.73259297063619]
我々は、この厄介なキュレーションを解放するために、新しい定式化、ゼロショット学習を考える。
新たに追加された関係について,テキスト記述から意味的特徴を学習しようと試みる。
我々は,GAN(Generative Adrial Networks)を活用し,テキストと知識グラフ領域の接続を確立する。
論文 参考訳(メタデータ) (2020-01-08T01:19:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。