論文の概要: Elastic Weight Consolidation for Knowledge Graph Continual Learning: An Empirical Evaluation
- arxiv url: http://arxiv.org/abs/2512.01890v1
- Date: Mon, 01 Dec 2025 17:11:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.980379
- Title: Elastic Weight Consolidation for Knowledge Graph Continual Learning: An Empirical Evaluation
- Title(参考訳): 知識グラフ連続学習のための弾性重み強化 : 経験的評価
- Authors: Gaganpreet Jhajj, Fuhua Lin,
- Abstract要約: EWC(Elastic Weight Consolidation)は、正規化に基づく連続学習手法である。
EWCは破滅的な忘れ物を12.62%から6.85%に減らし、45.7%減らした。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Knowledge graphs (KGs) require continual updates as new information emerges, but neural embedding models suffer from catastrophic forgetting when learning new tasks sequentially. We evaluate Elastic Weight Consolidation (EWC), a regularization-based continual learning method, on KG link prediction using TransE embeddings on FB15k-237. Across multiple experiments with five random seeds, we find that EWC reduces catastrophic forgetting from 12.62% to 6.85%, a 45.7% reduction compared to naive sequential training. We observe that the task partitioning strategy affects the magnitude of forgetting: relation-based partitioning (grouping triples by relation type) exhibits 9.8 percentage points higher forgetting than randomly partitioned tasks (12.62% vs 2.81%), suggesting that task construction influences evaluation outcomes. While focused on a single embedding model and dataset, our results demonstrate that EWC effectively mitigates catastrophic forgetting in KG continual learning and highlight the importance of evaluation protocol design.
- Abstract(参考訳): 知識グラフ(KG)は、新しい情報が出現するにつれて継続的な更新を必要とするが、ニューラル埋め込みモデルは、新しいタスクを逐次学習する際に破滅的な忘れに苦しむ。
我々は,FB15k-237上のTransE埋め込みを用いたKGリンク予測に基づいて,正規化に基づく連続学習手法であるElastic Weight Consolidation (EWC)を評価する。
5つのランダムな種子を用いた複数の実験で、EWCは破壊的な忘れを12.62%から6.85%に減少させる。
関係性に基づく分割(関係型によるグループ分け)は、ランダムに分割されたタスク(12.62%対2.81%)よりも9.8ポイント高く、タスク構築が評価結果に影響を与えることを示唆している。
一つの埋め込みモデルとデータセットに着目しながら、EWCはKG連続学習における破滅的な忘れを効果的に軽減し、評価プロトコル設計の重要性を強調した。
関連論文リスト
- Path-Coordinated Continual Learning with Neural Tangent Kernel-Justified Plasticity: A Theoretical Framework with Near State-of-the-Art Performance [0.618778092044887]
破滅的な忘れは継続的学習の根本的問題の一つである。
提案した枠組みは、原理的可塑性境界のニューラル・タンジェント・カーネル(NTK)理論を統一する。
このフレームワークは、厳密な統計的保証で発見されたパスの80%を検証する。
論文 参考訳(メタデータ) (2025-11-03T19:55:59Z) - Hard Negatives, Hard Lessons: Revisiting Training Data Quality for Robust Information Retrieval with LLMs [53.78110936809744]
堅牢で再帰的なモデルのトレーニングは通常、大規模なデータセットに依存します。
トレーニングデータセットにおいて、偽陰性を識別し、許容する。
トレーニングデータセットとコードは公開されています。
論文 参考訳(メタデータ) (2025-05-22T17:47:57Z) - Advancing Tabular Stroke Modelling Through a Novel Hybrid Architecture and Feature-Selection Synergy [0.9999629695552196]
本研究は、ストロークを予測するように設計されたデータ駆動型、解釈可能な機械学習フレームワークを開発し、検証する。
定期的に収集された人口統計、生活習慣、臨床変数は4,981件の公的なコホートから得られた。
提案したモデルでは精度97.2%、F1スコア97.15%が達成され、先行する個人モデルと比較して大幅に向上した。
論文 参考訳(メタデータ) (2025-05-18T21:46:45Z) - Benchmarking Reasoning Robustness in Large Language Models [76.79744000300363]
新規データや不完全データでは,性能が著しく低下することがわかった。
これらの結果は、厳密な論理的推論に対するリコールへの依存を浮き彫りにした。
本稿では,情報不足によって引き起こされる幻覚を利用して推論ギャップを明らかにする,Math-RoBと呼ばれる新しいベンチマークを提案する。
論文 参考訳(メタデータ) (2025-03-06T15:36:06Z) - CLIP the Bias: How Useful is Balancing Data in Multimodal Learning? [72.19502317793133]
比較言語画像事前学習(CLIP)におけるバイアス軽減のためのデータバランスの有効性について検討する。
表現バイアスと相関バイアスの両方を低減するために,Multi-Modal Moment Matching (M4) と呼ばれる新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-03-07T14:43:17Z) - SLYKLatent: A Learning Framework for Gaze Estimation Using Deep Facial Feature Learning [0.0]
SLYKLatentは、データセットの外観不安定性問題に対処することで、視線推定を向上するための新しいアプローチである。
SLYKLatentは、自己教師付き学習を使用して、表情データセットでの初期トレーニングを行い、その後、パッチベースのトリブランチネットワークで改善する。
ベンチマークデータセットの評価では、Gaze360が10.9%改善され、トップMPIIFaceGazeの3.8%に取って代わられ、ETH-XGazeのサブセットが11.6%向上した。
論文 参考訳(メタデータ) (2024-02-02T16:47:18Z) - History Repeats: Overcoming Catastrophic Forgetting For Event-Centric
Temporal Knowledge Graph Completion [33.38304336898247]
時間知識グラフ(TKG)の完成モデルは、トレーニング中にグラフ全体にアクセスすることに依存する。
TKGデータは、イベントが展開するにつれて徐々に受信され、時間とともに動的に非定常なデータ分布につながる。
本稿では,任意のTKG完了法に適用可能な一般的な連続トレーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2023-05-30T01:21:36Z) - A novel Deep Learning approach for one-step Conformal Prediction
approximation [0.7646713951724009]
Conformal Prediction (CP) は、最小限の制約を与えられた最大エラー率を保証する汎用的なソリューションである。
本稿では,従来の2ステップCPアプローチを1ステップで近似する新しい共形損失関数を提案する。
論文 参考訳(メタデータ) (2022-07-25T17:46:09Z) - Improving Music Performance Assessment with Contrastive Learning [78.8942067357231]
本研究では,既存のMPAシステムを改善するための潜在的手法として,コントラスト学習について検討する。
畳み込みニューラルネットワークに適用された回帰タスクに適した重み付きコントラスト損失を導入する。
この結果から,MPA回帰タスクにおいて,コントラッシブ・ベースの手法がSoTA性能に適合し,超越できることが示唆された。
論文 参考訳(メタデータ) (2021-08-03T19:24:25Z) - Semi-supervised Contrastive Learning with Similarity Co-calibration [72.38187308270135]
SsCL(Semi-supervised Contrastive Learning)と呼ばれる新しいトレーニング戦略を提案する。
ssclは、自己教師付き学習におけるよく知られたコントラスト損失と、半教師付き学習におけるクロスエントロピー損失を組み合わせる。
SsCLはより差別的な表現を生じさせ,ショット学習に有益であることを示す。
論文 参考訳(メタデータ) (2021-05-16T09:13:56Z) - Consistency and Monotonicity Regularization for Neural Knowledge Tracing [50.92661409499299]
人間の知識獲得を追跡する知識追跡(KT)は、オンライン学習と教育におけるAIの中心的なコンポーネントです。
本稿では, 新たなデータ拡張, 代替, 挿入, 削除の3種類と, 対応する正規化損失を提案する。
さまざまなKTベンチマークに関する広範な実験は、私たちの正規化スキームがモデルのパフォーマンスを一貫して改善することを示しています。
論文 参考訳(メタデータ) (2021-05-03T02:36:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。