論文の概要: Optimal Embedding Guided Negative Sample Generation for Knowledge Graph Link Prediction
- arxiv url: http://arxiv.org/abs/2504.03327v1
- Date: Fri, 04 Apr 2025 10:10:18 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-07 14:49:50.756989
- Title: Optimal Embedding Guided Negative Sample Generation for Knowledge Graph Link Prediction
- Title(参考訳): 知識グラフリンク予測のための最適埋め込みガイド負サンプル生成
- Authors: Makoto Takamoto, Daniel Oñoro-Rubio, Wiem Ben Rim, Takashi Maruyama, Bhushan Kotnis,
- Abstract要約: 本稿では, 負のサンプルが最適KG埋め込みにつながる条件を理論的に検討する。
我々は,この条件を満たす負のサンプルを発生させる新しいフレームワークであるtextscEMUを提案する。
その結果、様々なKGEモデルと負のサンプリング手法でリンク予測性能が大幅に向上した。
- 参考スコア(独自算出の注目度): 7.961256253228863
- License:
- Abstract: Knowledge graph embedding (KGE) models encode the structural information of knowledge graphs to predicting new links. Effective training of these models requires distinguishing between positive and negative samples with high precision. Although prior research has shown that improving the quality of negative samples can significantly enhance model accuracy, identifying high-quality negative samples remains a challenging problem. This paper theoretically investigates the condition under which negative samples lead to optimal KG embedding and identifies a sufficient condition for an effective negative sample distribution. Based on this theoretical foundation, we propose \textbf{E}mbedding \textbf{MU}tation (\textsc{EMU}), a novel framework that \emph{generates} negative samples satisfying this condition, in contrast to conventional methods that focus on \emph{identifying} challenging negative samples within the training data. Importantly, the simplicity of \textsc{EMU} ensures seamless integration with existing KGE models and negative sampling methods. To evaluate its efficacy, we conducted comprehensive experiments across multiple datasets. The results consistently demonstrate significant improvements in link prediction performance across various KGE models and negative sampling methods. Notably, \textsc{EMU} enables performance improvements comparable to those achieved by models with embedding dimension five times larger. An implementation of the method and experiments are available at https://github.com/nec-research/EMU-KG.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)モデルは知識グラフの構造情報をエンコードして新しいリンクを予測する。
これらのモデルの効果的なトレーニングには、高い精度で正と負のサンプルを区別する必要がある。
従来の研究では、陰性サンプルの品質向上はモデルの精度を著しく向上させることが示されているが、高品質な陰性サンプルの同定は難しい問題である。
本稿では, 負のサンプルが最適KG埋め込みにつながる条件を理論的に検討し, 有効負のサンプル分布に十分な条件を同定する。
この理論的基礎に基づいて,この条件を満たす新規なフレームワークである \textbf{E}mbedding \textbf{MU}tation (\textsc{EMU}) を提案する。
重要なことは、textsc{EMU} の単純さは既存の KGE モデルと負のサンプリング手法とのシームレスな統合を保証することである。
有効性を評価するため,複数のデータセットを対象とした総合的な実験を行った。
その結果、様々なKGEモデルと負のサンプリング手法でリンク予測性能が大幅に向上した。
特に、‘textsc{EMU} は、埋め込み次元が5倍大きいモデルで達成されたものと同等のパフォーマンス向上を可能にする。
メソッドと実験の実装はhttps://github.com/nec-research/EMU-KGで公開されている。
関連論文リスト
- Enhancing Sample Selection by Cutting Mislabeled Easy Examples [62.13094877228772]
トレーニングプロセスの初期段階において,モデルによって正しく予測された誤ラベル例は,特にモデル性能に有害であることを示す。
モデルの後続のトレーニング状態を利用して,早期に同定された自信あるサブセットを再選択するアーリーカットを提案する。
論文 参考訳(メタデータ) (2025-02-12T09:12:45Z) - Noisy Correspondence Learning with Self-Reinforcing Errors Mitigation [63.180725016463974]
クロスモーダル検索は、実際は精力的な、十分に整合した大規模データセットに依存している。
我々は、新しい雑音対応学習フレームワーク、textbfSelf-textbfReinforcing textbfErrors textbfMitigation(SREM)を導入する。
論文 参考訳(メタデータ) (2023-12-27T09:03:43Z) - Continual Test-time Domain Adaptation via Dynamic Sample Selection [38.82346845855512]
本稿では,連続テスト時間領域適応(CTDA)のための動的サンプル選択法を提案する。
誤情報を誤用するリスクを低減するため,高品質と低品質の両方のサンプルに共同正負の学習を適用した。
私たちのアプローチは3Dポイントのクラウドドメインでも評価されており、その汎用性とより広範な適用可能性を示している。
論文 参考訳(メタデータ) (2023-10-05T06:35:21Z) - Graph Out-of-Distribution Generalization with Controllable Data
Augmentation [51.17476258673232]
グラフニューラルネットワーク(GNN)は,グラフ特性の分類において異常な性能を示した。
トレーニングとテストデータの選択バイアスが原因で、分散偏差が広まっています。
仮想サンプルの分布偏差を測定するためのOODキャリブレーションを提案する。
論文 参考訳(メタデータ) (2023-08-16T13:10:27Z) - Boosting Differentiable Causal Discovery via Adaptive Sample Reweighting [62.23057729112182]
異なるスコアに基づく因果探索法は観測データから有向非巡回グラフを学習する。
本稿では,Reweighted Score関数ReScoreの適応重みを動的に学習することにより因果発見性能を向上させるためのモデルに依存しないフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-06T14:49:59Z) - Generating Counterfactual Hard Negative Samples for Graph Contrastive
Learning [22.200011046576716]
グラフコントラスト学習は教師なしグラフ表現学習の強力なツールである。
最近の研究は、通常、正のサンプルと同一のトレーニングバッチから、または外部の無関係なグラフから、負のサンプルをサンプリングする。
我々は、textbfCounterfactual Mechanism を利用して、TextbfContrastive Learning のための人工的硬質負のサンプルを生成する方法を提案する。
論文 参考訳(メタデータ) (2022-07-01T02:19:59Z) - Rethinking InfoNCE: How Many Negative Samples Do You Need? [54.146208195806636]
半定量的理論フレームワークを用いて, InfoNCE に最適化された負のサンプル数について検討した。
トレーニングの有効性関数を最大化する$K$値を用いて,最適負サンプリング比を推定する。
論文 参考訳(メタデータ) (2021-05-27T08:38:29Z) - Efficient Non-Sampling Knowledge Graph Embedding [21.074002550338296]
効率的な非サンプリング型知識グラフ埋め込み (NS-KGE) のための新しいフレームワークを提案する。
基本的な考え方は、モデル学習のためのkgの負のインスタンスをすべて考慮し、負のサンプリングを避けることである。
ベンチマークデータセットの実験により、NS-KGEフレームワークは従来の負サンプリングベースモデルよりも効率と正確性を向上できることが示された。
論文 参考訳(メタデータ) (2021-04-21T23:36:39Z) - SCE: Scalable Network Embedding from Sparsest Cut [20.08464038805681]
大規模ネットワーク埋め込みは、教師なしの方法で各ノードの潜在表現を学習することである。
このような対照的な学習手法の成功の鍵は、正と負のサンプルを引き出す方法である。
本稿では, 負のサンプルのみを用いた教師なしネットワーク埋め込みのためのSCEを提案する。
論文 参考訳(メタデータ) (2020-06-30T03:18:15Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。