論文の概要: Rethinking Regularization Methods for Knowledge Graph Completion
- arxiv url: http://arxiv.org/abs/2505.23442v1
- Date: Thu, 29 May 2025 13:39:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.878655
- Title: Rethinking Regularization Methods for Knowledge Graph Completion
- Title(参考訳): 知識グラフ補完のための正規化手法の再考
- Authors: Linyu Li, Zhi Jin, Yuanpeng He, Dongming Jin, Haoran Duan, Zhengwei Tao, Xuan Zhang, Jiandong Li,
- Abstract要約: KGC正則化器にランクベース選択空間の概念を組み込む新しいスパース正規化法を導入する。
複数のデータセットと複数のモデルに関する様々な実験により、SPR正則化法は他の正則化法よりも優れており、KGCモデルがパフォーマンスマージンをさらに突破できることが示されている。
- 参考スコア(独自算出の注目度): 25.269091177345565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph completion (KGC) has attracted considerable attention in recent years because it is critical to improving the quality of knowledge graphs. Researchers have continuously explored various models. However, most previous efforts have neglected to take advantage of regularization from a deeper perspective and therefore have not been used to their full potential. This paper rethinks the application of regularization methods in KGC. Through extensive empirical studies on various KGC models, we find that carefully designed regularization not only alleviates overfitting and reduces variance but also enables these models to break through the upper bounds of their original performance. Furthermore, we introduce a novel sparse-regularization method that embeds the concept of rank-based selective sparsity into the KGC regularizer. The core idea is to selectively penalize those components with significant features in the embedding vector, thus effectively ignoring many components that contribute little and may only represent noise. Various comparative experiments on multiple datasets and multiple models show that the SPR regularization method is better than other regularization methods and can enable the KGC model to further break through the performance margin.
- Abstract(参考訳): 近年,知識グラフの質向上に欠かせないため,知識グラフ補完(KGC)が注目されている。
研究者は様々なモデルを継続的に探究してきた。
しかし、これまでのほとんどの取り組みは、より深い視点から正規化を活かすことを怠っており、従って、それらの潜在能力を最大限に活用していない。
本稿では,KGCにおける正規化手法の適用について再考する。
様々なKGCモデルに関する広範な実証研究を通して、慎重に設計された正規化は過度な適合を緩和し、分散を低減させるだけでなく、これらのモデルが元の性能の上限を突破することを可能にする。
さらに,KGC正則化器にランクベース選択空間の概念を組み込む新しいスパース正規化手法を提案する。
中心となる考え方は、埋め込みベクトルにおいて重要な特徴を持つこれらのコンポーネントを選択的にペナルティ化することであり、それによって、ほとんど寄与せず、ノイズのみを表す可能性のある多くのコンポーネントを効果的に無視することである。
複数のデータセットと複数のモデルの比較実験により、SPR正則化法は他の正則化法よりも優れていることが示され、KGCモデルはパフォーマンスマージンをさらに突破することができる。
関連論文リスト
- Normalized Attention Guidance: Universal Negative Guidance for Diffusion Model [57.20761595019967]
注意空間にL1をベースとした正規化・精細化を施した,効率的かつトレーニング不要な機構である正規化注意誘導(NAG)を提案する。
NAGは、CFGが忠実性を維持しながら崩壊する効果的な負のガイダンスを復元する。
NAGはアーキテクチャ(UNet、DiT)、サンプリングレシスタンス(複数ステップ、複数ステップ)、モダリティ(イメージ、ビデオ)をまたいで一般化する
論文 参考訳(メタデータ) (2025-05-27T13:30:46Z) - Revitalizing Reconstruction Models for Multi-class Anomaly Detection via Class-Aware Contrastive Learning [19.114941437668705]
クラス認識型コントラスト学習(CL)を取り入れたプラグアンドプレイ修正を提案する。
4つのデータセットにまたがる実験により、我々のアプローチの有効性が検証され、高度な手法と比較して大幅に改善され、性能が向上した。
論文 参考訳(メタデータ) (2024-12-06T04:31:09Z) - Happy: A Debiased Learning Framework for Continual Generalized Category Discovery [54.54153155039062]
本稿では,C-GCD(Continuous Generalized Category Discovery)の未探索課題について考察する。
C-GCDは、学習済みのクラスを認識する能力を維持しながら、ラベルのないデータから新しいクラスを漸進的に発見することを目的としている。
本稿では,ハードネスを意識したプロトタイプサンプリングとソフトエントロピー正規化を特徴とする,偏りのある学習フレームワークであるHappyを紹介する。
論文 参考訳(メタデータ) (2024-10-09T04:18:51Z) - Rethinking Classifier Re-Training in Long-Tailed Recognition: A Simple
Logits Retargeting Approach [102.0769560460338]
我々は,クラスごとのサンプル数に関する事前知識を必要とせず,シンプルなロジットアプローチ(LORT)を開発した。
提案手法は,CIFAR100-LT, ImageNet-LT, iNaturalist 2018など,様々な不均衡データセットの最先端性能を実現する。
論文 参考訳(メタデータ) (2024-03-01T03:27:08Z) - CUDA: Curriculum of Data Augmentation for Long-Tailed Recognition [10.441880303257468]
クラス不均衡問題は現実世界のタスクで頻繁に発生する。
この問題を軽減するために、多くのアプローチがトレーニングサンプルの再重み付けや再サンプリングによって、各クラス間でバランスをとることを目標にしている。
これらの再バランス手法は、マイノリティクラスの影響を増大させ、モデルの出力に対する多数派クラスの影響を減少させる。
多数サンプルの特徴によって少数サンプルの表現を増大させる手法が開発されている。
論文 参考訳(メタデータ) (2023-02-10T20:30:22Z) - Disentangling the Mechanisms Behind Implicit Regularization in SGD [21.893397581060636]
本稿では,小規模から大規模バッチの一般化ギャップを埋めるための様々な理論機構の能力に焦点を当てる。
本研究では,マイクロバッチ上での勾配基準やフィッシャー情報マトリックスのトレースを明示的にペナル化することにより,SGDの小型化を再現できることを示す。
この一般化性能は、正規化モデルの勾配ノルムが小バッチSGDのノルムといかによく似ているかによく相関している。
論文 参考訳(メタデータ) (2022-11-29T01:05:04Z) - ER: Equivariance Regularizer for Knowledge Graph Completion [107.51609402963072]
我々は、新しい正規化器、すなわち等分散正規化器(ER)を提案する。
ERは、頭と尾のエンティティ間の意味的等価性を利用することで、モデルの一般化能力を高めることができる。
実験結果から,最先端関係予測法よりも明確かつ実質的な改善が示された。
論文 参考訳(メタデータ) (2022-06-24T08:18:05Z) - Revisiting Consistency Regularization for Semi-Supervised Learning [80.28461584135967]
そこで我々は,FeatDistLossというシンプルな手法により,一貫性の規則化を改良したフレームワークを提案する。
実験結果から,本モデルは様々なデータセットや設定のための新しい技術状態を定義する。
論文 参考訳(メタデータ) (2021-12-10T20:46:13Z) - Class-incremental Learning with Rectified Feature-Graph Preservation [24.098892115785066]
本論文の中心的なテーマは,逐次的な段階を経る新しいクラスを学習することである。
旧知識保存のための重み付きユークリッド正規化を提案する。
新しいクラスを効果的に学習するために、クラス分離を増やすためにバイナリクロスエントロピーでどのように機能するかを示す。
論文 参考訳(メタデータ) (2020-12-15T07:26:04Z) - Contrastive Learning for Debiased Candidate Generation in Large-Scale
Recommender Systems [84.3996727203154]
コントラスト損失の一般的な選択は、逆確率重み付けによる露光バイアスの低減と等価であることを示す。
我々はCLRecをさらに改良し、マルチCLRecを提案する。
提案手法は,少なくとも4ヶ月のオンラインA/Bテストとオフライン分析が実施され,大幅に改善されている。
論文 参考訳(メタデータ) (2020-05-20T08:15:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。