論文の概要: Negative Sampling in Knowledge Graph Representation Learning: A Review
- arxiv url: http://arxiv.org/abs/2402.19195v2
- Date: Mon, 21 Oct 2024 02:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:01.355584
- Title: Negative Sampling in Knowledge Graph Representation Learning: A Review
- Title(参考訳): 知識グラフ表現学習におけるネガティブサンプリング
- Authors: Tiroshan Madushanka, Ryutaro Ichise,
- Abstract要約: 知識グラフ表現学習(KGRL)は知識構築や情報検索といったAIアプリケーションに不可欠である。
既存の知識グラフから高品質な負のサンプルを生成することは難しい。
本報告では, 各種陰性サンプリング法とそのKGRL成功への貢献について, 系統的に検討する。
- 参考スコア(独自算出の注目度): 2.6703221234079946
- License:
- Abstract: Knowledge Graph Representation Learning (KGRL), or Knowledge Graph Embedding (KGE), is essential for AI applications such as knowledge construction and information retrieval. These models encode entities and relations into lower-dimensional vectors, supporting tasks like link prediction and recommendation systems. Training KGE models relies on both positive and negative samples for effective learning, but generating high-quality negative samples from existing knowledge graphs is challenging. The quality of these samples significantly impacts the model's accuracy. This comprehensive survey paper systematically reviews various negative sampling (NS) methods and their contributions to the success of KGRL. Their respective advantages and disadvantages are outlined by categorizing existing NS methods into six distinct categories. Moreover, this survey identifies open research questions that serve as potential directions for future investigations. By offering a generalization and alignment of fundamental NS concepts, this survey provides valuable insights for designing effective NS methods in the context of KGRL and serves as a motivating force for further advancements in the field.
- Abstract(参考訳): 知識グラフ表現学習(KGRL)または知識グラフ埋め込み(KGE)は、知識構築や情報検索といったAIアプリケーションに不可欠である。
これらのモデルは、エンティティと関係を低次元ベクトルにエンコードし、リンク予測やレコメンデーションシステムのようなタスクをサポートする。
KGEモデルのトレーニングは、効果的な学習には正と負の両方のサンプルに依存しているが、既存の知識グラフから高品質な負のサンプルを生成することは困難である。
これらのサンプルの品質はモデルの精度に大きな影響を与えます。
この総合的な調査論文は、様々な負サンプリング法(NS)の体系的評価と、KGRLの成功への貢献について述べる。
それぞれの利点と欠点は、既存のNSメソッドを6つの異なるカテゴリに分類することで概説される。
さらに, 今後の研究の方向性として, オープンな研究課題を特定する。
基本的なNS概念の一般化とアライメントを提供することにより、この調査は、KGRLの文脈で有効なNSメソッドを設計するための貴重な洞察を与え、この分野におけるさらなる進歩の動機となる。
関連論文リスト
- KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion [18.497296711526268]
我々は,連結部分グラフを同定し,定量的に評価するための評価器を蒸留するモデルに依存しないKGExplainerを提案する。
ベンチマークデータセットの実験は、KGExplainerが有望な改善を達成し、人間の評価において83.3%の最適比率を達成することを示した。
論文 参考訳(メタデータ) (2024-04-05T05:02:12Z) - Overcoming Pitfalls in Graph Contrastive Learning Evaluation: Toward
Comprehensive Benchmarks [60.82579717007963]
本稿では,グラフコントラスト学習(GCL)手法の有効性,一貫性,全体的な能力をより正確に評価するために,拡張された評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-24T01:47:56Z) - Label Deconvolution for Node Representation Learning on Large-scale
Attributed Graphs against Learning Bias [75.44877675117749]
本稿では,GNNの逆写像に対する新しい,スケーラブルな近似による学習バイアスを軽減するために,ラベルの効率的な正規化手法,すなわちラベルのデコンボリューション(LD)を提案する。
実験では、LDはOpen Graphデータセットのベンチマークで最先端のメソッドを大幅に上回っている。
論文 参考訳(メタデータ) (2023-09-26T13:09:43Z) - KGA: A General Machine Unlearning Framework Based on Knowledge Gap
Alignment [51.15802100354848]
我々は,忘れやすさを誘発する一般学習フレームワークKGAを提案する。
大規模なデータセットの実験は、KGAがベースラインよりも包括的な改善をもたらすことを示している。
論文 参考訳(メタデータ) (2023-05-11T02:44:29Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Adversarial Robustness of Representation Learning for Knowledge Graphs [7.5765554531658665]
この論文は、最先端の知識グラフ埋め込み(KGE)モデルはデータ中毒攻撃に対して脆弱であると主張している。
2つの新しいデータ中毒攻撃が提案され、トレーニング時に入力削除や追加を行い、推論時に学習したモデルの性能を逆転させる。
評価の結果、単純な攻撃は計算コストの高い攻撃と競合するか、上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-30T22:41:22Z) - Language Model-driven Negative Sampling [8.299192665823542]
知識グラフ埋め込み(KGE)は、究極の下流タスク(リンク予測、質問応答)の表現学習と推論を目的として、知識グラフ(KG)の実体と関係をベクトル空間に符号化する。
KGE はクローズドワールドの仮定に従い、KG の現在のすべての事実を正(正)であると仮定するので、既存の三重項の真性テストの学習過程において、負のサンプルを必要とする。
そこで本稿では,KGsにおける既存のリッチテキスト知識を考慮したネガティブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T13:27:47Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Quantifying Challenges in the Application of Graph Representation
Learning [0.0]
私たちは、一般的な埋め込みアプローチのセットに対して、アプリケーション指向の視点を提供します。
実世界のグラフ特性に関する表現力を評価する。
GRLアプローチは現実のシナリオでは定義が困難であることが示唆された。
論文 参考訳(メタデータ) (2020-06-18T03:19:43Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。