論文の概要: Negative Sampling in Knowledge Graph Representation Learning: A Review
- arxiv url: http://arxiv.org/abs/2402.19195v2
- Date: Mon, 21 Oct 2024 02:30:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-10-22 13:13:01.355584
- Title: Negative Sampling in Knowledge Graph Representation Learning: A Review
- Title(参考訳): 知識グラフ表現学習におけるネガティブサンプリング
- Authors: Tiroshan Madushanka, Ryutaro Ichise,
- Abstract要約: 知識グラフ表現学習(KGRL)は知識構築や情報検索といったAIアプリケーションに不可欠である。
既存の知識グラフから高品質な負のサンプルを生成することは難しい。
本報告では, 各種陰性サンプリング法とそのKGRL成功への貢献について, 系統的に検討する。
- 参考スコア(独自算出の注目度): 2.6703221234079946
- License:
- Abstract: Knowledge Graph Representation Learning (KGRL), or Knowledge Graph Embedding (KGE), is essential for AI applications such as knowledge construction and information retrieval. These models encode entities and relations into lower-dimensional vectors, supporting tasks like link prediction and recommendation systems. Training KGE models relies on both positive and negative samples for effective learning, but generating high-quality negative samples from existing knowledge graphs is challenging. The quality of these samples significantly impacts the model's accuracy. This comprehensive survey paper systematically reviews various negative sampling (NS) methods and their contributions to the success of KGRL. Their respective advantages and disadvantages are outlined by categorizing existing NS methods into six distinct categories. Moreover, this survey identifies open research questions that serve as potential directions for future investigations. By offering a generalization and alignment of fundamental NS concepts, this survey provides valuable insights for designing effective NS methods in the context of KGRL and serves as a motivating force for further advancements in the field.
- Abstract(参考訳): 知識グラフ表現学習(KGRL)または知識グラフ埋め込み(KGE)は、知識構築や情報検索といったAIアプリケーションに不可欠である。
これらのモデルは、エンティティと関係を低次元ベクトルにエンコードし、リンク予測やレコメンデーションシステムのようなタスクをサポートする。
KGEモデルのトレーニングは、効果的な学習には正と負の両方のサンプルに依存しているが、既存の知識グラフから高品質な負のサンプルを生成することは困難である。
これらのサンプルの品質はモデルの精度に大きな影響を与えます。
この総合的な調査論文は、様々な負サンプリング法(NS)の体系的評価と、KGRLの成功への貢献について述べる。
それぞれの利点と欠点は、既存のNSメソッドを6つの異なるカテゴリに分類することで概説される。
さらに, 今後の研究の方向性として, オープンな研究課題を特定する。
基本的なNS概念の一般化とアライメントを提供することにより、この調査は、KGRLの文脈で有効なNSメソッドを設計するための貴重な洞察を与え、この分野におけるさらなる進歩の動機となる。
関連論文リスト
- Resilience in Knowledge Graph Embeddings [1.90894751866253]
我々は、一般化、性能の整合性、分散適応、堅牢性といったいくつかの要因を含む、レジリエンスを一元的に定義する。
調査の結果,既存の研究のほとんどはレジリエンス,すなわち堅牢性に重点を置いていることがわかった。
論文 参考訳(メタデータ) (2024-10-28T16:04:22Z) - A Survey of Deep Graph Learning under Distribution Shifts: from Graph Out-of-Distribution Generalization to Adaptation [59.14165404728197]
我々は,分散シフト下での深層グラフ学習について,最新かつ先見的なレビューを行う。
具体的には,グラフ OOD 一般化,トレーニング時グラフ OOD 適応,テスト時グラフ OOD 適応の3つのシナリオについて述べる。
文献の理解を深めるために,提案した分類に基づく既存モデルを体系的に分類した。
論文 参考訳(メタデータ) (2024-10-25T02:39:56Z) - Disentangled Generative Graph Representation Learning [51.59824683232925]
本稿では,自己教師型学習フレームワークであるDiGGR(Disentangled Generative Graph Representation Learning)を紹介する。
潜伏要因を学習し、それをグラフマスクモデリングのガイドとして活用することを目的としている。
2つの異なるグラフ学習タスクのための11の公開データセットの実験は、DiGGRが従来よりも一貫して多くの自己教師付きメソッドを上回っていることを示している。
論文 参考訳(メタデータ) (2024-08-24T05:13:02Z) - KGExplainer: Towards Exploring Connected Subgraph Explanations for Knowledge Graph Completion [18.497296711526268]
我々は,連結部分グラフを同定し,定量的に評価するための評価器を蒸留するモデルに依存しないKGExplainerを提案する。
ベンチマークデータセットの実験は、KGExplainerが有望な改善を達成し、人間の評価において83.3%の最適比率を達成することを示した。
論文 参考訳(メタデータ) (2024-04-05T05:02:12Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Adversarial Robustness of Representation Learning for Knowledge Graphs [7.5765554531658665]
この論文は、最先端の知識グラフ埋め込み(KGE)モデルはデータ中毒攻撃に対して脆弱であると主張している。
2つの新しいデータ中毒攻撃が提案され、トレーニング時に入力削除や追加を行い、推論時に学習したモデルの性能を逆転させる。
評価の結果、単純な攻撃は計算コストの高い攻撃と競合するか、上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2022-09-30T22:41:22Z) - An Empirical Investigation of Commonsense Self-Supervision with
Knowledge Graphs [67.23285413610243]
大規模知識グラフから抽出した情報に基づく自己監督は、言語モデルの一般化を改善することが示されている。
本研究では,言語モデルに適用可能な合成データを生成するための知識サンプリング戦略とサイズの影響について検討する。
論文 参考訳(メタデータ) (2022-05-21T19:49:04Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Quantifying Challenges in the Application of Graph Representation
Learning [0.0]
私たちは、一般的な埋め込みアプローチのセットに対して、アプリケーション指向の視点を提供します。
実世界のグラフ特性に関する表現力を評価する。
GRLアプローチは現実のシナリオでは定義が困難であることが示唆された。
論文 参考訳(メタデータ) (2020-06-18T03:19:43Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。