論文の概要: Learning to Evolve: Bayesian-Guided Continual Knowledge Graph Embedding
- arxiv url: http://arxiv.org/abs/2508.02426v1
- Date: Mon, 04 Aug 2025 13:46:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-05 18:25:22.364345
- Title: Learning to Evolve: Bayesian-Guided Continual Knowledge Graph Embedding
- Title(参考訳): 進化への学習:ベイジアンガイドによる継続的知識グラフの埋め込み
- Authors: Linyu Li, Zhi Jin, Yuanpeng He, Dongming Jin, Yichi Zhang, Haoran Duan, Nyima Tash,
- Abstract要約: 連続知識グラフ埋め込み(CKGE)に直面する主な課題は、モデルが「破滅的な忘れ物」になりがちであることである。
この問題を効果的に軽減するために,新しいCKGEモデルBAKEを提案する。
- 参考スコア(独自算出の注目度): 20.479556500981044
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Since knowledge graphs (KG) will continue to evolve in real scenarios, traditional KGE models are only suitable for static knowledge graphs. Therefore, continual knowledge graph embedding (CKGE) has attracted the attention of researchers. Currently, a key challenge facing CKGE is that the model is prone to "catastrophic forgetting", resulting in the loss of previously learned knowledge. In order to effectively alleviate this problem, we propose a new CKGE model BAKE. First, we note that the Bayesian posterior update principle provides a natural continual learning strategy that is insensitive to data order and can theoretically effectively resist the forgetting of previous knowledge during data evolution. Different from the existing CKGE method, BAKE regards each batch of new data as a Bayesian update of the model prior. Under this framework, as long as the posterior distribution of the model is maintained, the model can better preserve the knowledge of early snapshots even after evolving through multiple time snapshots. Secondly, we propose a continual clustering method for CKGE, which further directly combats knowledge forgetting by constraining the evolution difference (or change amplitude) between new and old knowledge between different snapshots. We conduct extensive experiments on BAKE on multiple datasets, and the results show that BAKE significantly outperforms existing baseline models.
- Abstract(参考訳): 知識グラフ(KG)は実際のシナリオで進化し続けるため、従来のKGEモデルは静的知識グラフにのみ適している。
そのため、継続知識グラフ埋め込み (CKGE) が研究者の注目を集めている。
現在、CKGEが直面している重要な課題は、モデルが"破滅的な忘れ物"になりがちである。
この問題を効果的に軽減するために,新しいCKGEモデルBAKEを提案する。
まず、ベイズの後続更新原理は、データ順序に敏感で、理論上はデータ進化中に過去の知識を忘れることに効果的に抵抗できる自然な連続学習戦略を提供する。
既存のCKGEメソッドとは異なり、BAKEは、新しいデータのバッチを以前のモデルのベイズ更新と見なしている。
このフレームワークの下では、モデルの後方分布が維持されている限り、モデルは、複数の時間スナップショットを通して進化した後でも、早期スナップショットの知識をよりよく保存することができる。
次に, CKGEのクラスタリング手法を提案する。この手法は, 異なるスナップショット間の新しい知識と古い知識の進化差(あるいは変化振幅)を制約することによって, 忘れる知識と直接競合する。
複数のデータセット上でBAKEに関する広範な実験を行い、その結果、BAKEは既存のベースラインモデルよりも大幅に優れていることが示された。
関連論文リスト
- Knowledge Graph Enhanced Generative Multi-modal Models for Class-Incremental Learning [51.0864247376786]
学習過程を通じて進化する知識グラフを構築する知識グラフ強化多モードモデル(KG-GMM)を導入する。
テスト中,生成されたテキスト内の関係を解析し,特定のカテゴリを特定する知識グラフ拡張推論手法を提案する。
論文 参考訳(メタデータ) (2025-03-24T07:20:43Z) - SoTCKGE:Continual Knowledge Graph Embedding Based on Spatial Offset Transformation [7.706481522285466]
現在、CKGE(Continuous Knowledge Graph Embedding)メソッドは翻訳ベースの埋め込み方式に依存している。
本研究では,空間オフセット変換ベクトルに基づく新しいCKGEフレームワークを提案する。
パラメータ更新処理を洗練させるために,階層的な更新戦略とバランスの取れた埋め込み手法を導入する。
論文 参考訳(メタデータ) (2025-03-11T08:54:03Z) - Towards Continual Knowledge Graph Embedding via Incremental Distillation [12.556752486002356]
従来の知識グラフ埋め込み(KGE)の手法では、新しい知識が出現すると、知識グラフ全体(KG)をかなりの訓練コストで保存する必要がある。
本稿では,KGsにおける明示的なグラフ構造の完全活用を考慮したインクリメンタル蒸留(IncDE)に基づくCKGEの競合手法を提案する。
論文 参考訳(メタデータ) (2024-05-07T16:16:00Z) - History repeats Itself: A Baseline for Temporal Knowledge Graph Forecasting [10.396081172890025]
時間的知識グラフ (TKG) 予測は、知識グラフの歴史に基づいた将来の時間ステップのための知識グラフのリンクを予測することを目的としている。
本稿では,繰り返し発生する事象を予測したTKG予測のための直感的なベースラインを設計することを提案する。
論文 参考訳(メタデータ) (2024-04-25T16:39:32Z) - Few-Shot Class-Incremental Learning with Prior Knowledge [94.95569068211195]
本稿では,事前学習モデルの一般化能力を高めるために,先行知識を用いた学習(LwPK)を提案する。
実験結果から,LwPKは破滅的忘れ込みに対するモデルレジリエンスを効果的に向上させることが示された。
論文 参考訳(メタデータ) (2024-02-02T08:05:35Z) - Overcoming Generic Knowledge Loss with Selective Parameter Update [48.240683797965005]
基礎モデルを継続的に更新する新しい手法を提案する。
すべてのパラメータを均等に更新する代わりに、学習しているタスクに関連するパラメータのスパースセットにアップデートをローカライズします。
提案手法は,学習済みのタスクの精度を最大7%向上すると同時に,学習前知識を0.9%減少させることなく,代表制御セットの精度を低下させる。
論文 参考訳(メタデータ) (2023-08-23T22:55:45Z) - Adaptively Integrated Knowledge Distillation and Prediction Uncertainty
for Continual Learning [71.43841235954453]
現在のディープラーニングモデルは、新しい知識を継続的に学習するときに、古い知識を破滅的に忘れることに悩まされることが多い。
この問題を軽減する既存の戦略は、古い知識(安定性)の維持と新しい知識(塑性)の学習のトレードオフを解消することが多い。
論文 参考訳(メタデータ) (2023-01-18T05:36:06Z) - Complex Evolutional Pattern Learning for Temporal Knowledge Graph
Reasoning [60.94357727688448]
TKG推論は、歴史的KG配列を考えると、将来の潜在的な事実を予測することを目的としている。
進化のパターンは、長さの多様性と時間変化の2つの側面において複雑である。
本稿では,CEN(Complex Evolutional Network)と呼ばれる新しいモデルを提案する。CNN(Convolutional Neural Network)を用いて,長さの異なる進化パターンを扱う。
論文 参考訳(メタデータ) (2022-03-15T11:02:55Z) - Continual Learning for Blind Image Quality Assessment [80.55119990128419]
ブラインド画像品質評価(BIQA)モデルは、サブポピュレーションシフトに継続的に適応できない。
最近の研究では、利用可能なすべての人間評価のIQAデータセットの組み合わせに関するBIQAメソッドのトレーニングが推奨されている。
モデルがIQAデータセットのストリームから継続的に学習するBIQAの継続的学習を策定する。
論文 参考訳(メタデータ) (2021-02-19T03:07:01Z) - Tucker decomposition-based Temporal Knowledge Graph Completion [35.56360622521721]
次数4テンソルのタッカー分解にインスパイアされた時間知識グラフ補完のための新しいテンソル分解モデルを構築する。
提案モデルは完全に表現力のあるモデルであることが実証され、いくつかの公開ベンチマークに対して最先端の結果が報告される。
論文 参考訳(メタデータ) (2020-11-16T07:05:52Z) - Evaluating Prediction-Time Batch Normalization for Robustness under
Covariate Shift [81.74795324629712]
我々は予測時間バッチ正規化と呼び、共変量シフト時のモデル精度とキャリブレーションを大幅に改善する。
予測時間バッチ正規化は、既存の最先端アプローチに相補的な利点をもたらし、ロバスト性を向上させることを示します。
この手法は、事前トレーニングと併用して使用すると、さまざまな結果が得られるが、より自然なタイプのデータセットシフトでは、パフォーマンスが良くないようだ。
論文 参考訳(メタデータ) (2020-06-19T05:08:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。