論文の概要: Negative Sampling with Adaptive Denoising Mixup for Knowledge Graph
Embedding
- arxiv url: http://arxiv.org/abs/2310.09781v1
- Date: Sun, 15 Oct 2023 09:01:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 18:10:35.796865
- Title: Negative Sampling with Adaptive Denoising Mixup for Knowledge Graph
Embedding
- Title(参考訳): 知識グラフ埋め込みのための適応型Denoising Mixupによるネガティブサンプリング
- Authors: Xiangnan Chen, Wen Zhang, Zhen Yao, Mingyang Chen, Siliang Tang
- Abstract要約: 知識グラフ埋め込み(KGE)は、知識グラフ(KG)の実体と関係を、正と負の三重項を対比することで、低次元で密度のベクトル空間にマッピングすることを目的としている。
負のサンプリングは、KGsが正の三重項のみを含むため、高品質な負の三重項を見つけるために不可欠である。
既存の負サンプリング法の多くは、高いスコアを持つ存在しない三重項が高品質な負三重項であると仮定する。
- 参考スコア(独自算出の注目度): 36.24764655034505
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding (KGE) aims to map entities and relations of a
knowledge graph (KG) into a low-dimensional and dense vector space via
contrasting the positive and negative triples. In the training process of KGEs,
negative sampling is essential to find high-quality negative triples since KGs
only contain positive triples. Most existing negative sampling methods assume
that non-existent triples with high scores are high-quality negative triples.
However, negative triples sampled by these methods are likely to contain noise.
Specifically, they ignore that non-existent triples with high scores might also
be true facts due to the incompleteness of KGs, which are usually called false
negative triples. To alleviate the above issue, we propose an easily pluggable
denoising mixup method called DeMix, which generates high-quality triples by
refining sampled negative triples in a self-supervised manner. Given a sampled
unlabeled triple, DeMix firstly classifies it into a marginal pseudo-negative
triple or a negative triple based on the judgment of the KGE model itself.
Secondly, it selects an appropriate mixup partner for the current triple to
synthesize a partially positive or a harder negative triple. Experimental
results on the knowledge graph completion task show that the proposed DeMix is
superior to other negative sampling techniques, ensuring corresponding KGEs a
faster convergence and better link prediction results.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は、知識グラフ(KG)の実体と関係を、正の三重項と負の三重項を対比して、低次元で密度のベクトル空間にマッピングすることを目的としている。
kgesのトレーニングプロセスでは、負のサンプリングは高品質の負のトリプルを見つけるのに不可欠である。
既存の負サンプリング法の多くは、高いスコアを持つ存在しない三重項が高品質な負三重項であると仮定する。
しかし、これらの方法でサンプリングされた負の三重項はノイズを含む可能性が高い。
具体的には、高いスコアを持つ存在しない三重項は、通常偽負三重項と呼ばれるKGの不完全性のため、真の事実であるかもしれないことを無視する。
上記の問題を緩和するために,サンプル負三重項を自己監督的に精製することで高品質な三重項を生成する,DeMixと呼ばれる容易にプラグ可能な混合法を提案する。
標本化された未ラベルの三重項が与えられたとき、デミックスはまず、KGEモデル自体の判断に基づいて、それを境界的な擬正三重項または負三重項に分類する。
第2に、電流三重項に対する適切な混合パートナーを選択し、部分的に正または強負の三重項を合成する。
知識グラフ補完タスクの実験結果から,提案したDeMixは他の負のサンプリング手法よりも優れており,対応するKGEがより高速に収束し,リンク予測精度が向上することが示された。
関連論文リスト
- Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - DropMix: Better Graph Contrastive Learning with Harder Negative Samples [6.242575753642188]
グラフコントラスト学習(GCL)における強陰性サンプルの合成にMixupを導入している。
より硬い負のサンプルを合成する新しいDropMix法を提案する。
論文 参考訳(メタデータ) (2023-10-15T07:45:30Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - HaSa: Hardness and Structure-Aware Contrastive Knowledge Graph Embedding [2.395887395376882]
本稿では,知識グラフ埋め込み (KGE) に対する InfoNCE による対照的な学習手法を検討する。
我々は、高品質な(ハードな)負の3重項の生成は、偽の負の3重項の増加につながるかもしれないと論じる。
強負三重項の生成における偽負三重項の影響を軽減するために, 硬さと構造認識(textbfHaSa)の対比KGE法を提案する。
論文 参考訳(メタデータ) (2023-05-17T20:46:18Z) - Entity Aware Negative Sampling with Auxiliary Loss of False Negative
Prediction for Knowledge Graph Embedding [0.0]
我々はEANS(Entity Aware Negative Smpling)と呼ばれる新しい手法を提案する。
EANSは、整列した実体指数空間にガウス分布を採用することにより、正に類似した負の実体をサンプリングすることができる。
提案手法は, 正のサンプルサイズによらず高品質な負のサンプルを生成し, 偽の負のサンプルの影響を効果的に軽減することができる。
論文 参考訳(メタデータ) (2022-10-12T14:27:51Z) - MixKG: Mixing for harder negative samples in knowledge graph [33.4379457065033]
知識グラフ埋め込み(KGE)は、多くの実世界のアプリケーションのための低次元ベクトルへの実体と関係を表現することを目的としている。
そこで本研究では,知識グラフのより厳しい負のサンプルを生成するために,MixKGという安価で効果的な手法を提案する。
2つの公開データセットと4つの古典的KGE手法の実験は、MixKGが以前の負サンプリングアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-02-19T13:31:06Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - Understanding Negative Sampling in Graph Representation Learning [87.35038268508414]
最適化目標と結果のばらつきを決定するためには, 正のサンプリングと同様に負のサンプリングが重要であることを示す。
我々は,自己コントラスト近似による正の分布を近似し,メトロポリス・ハスティングスによる負のサンプリングを高速化するメトロポリス・ハスティングス(MCNS)を提案する。
提案手法は,リンク予測,ノード分類,パーソナライズドレコメンデーションを含む,下流グラフ学習タスクをカバーする5つのデータセットに対して評価する。
論文 参考訳(メタデータ) (2020-05-20T06:25:21Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。