論文の概要: MixKG: Mixing for harder negative samples in knowledge graph
- arxiv url: http://arxiv.org/abs/2202.09606v1
- Date: Sat, 19 Feb 2022 13:31:06 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 08:41:37.843648
- Title: MixKG: Mixing for harder negative samples in knowledge graph
- Title(参考訳): MixKG:知識グラフにおける厳密な負のサンプルの混合
- Authors: Feihu Che, Guohua Yang, Pengpeng Shao, Dawei Zhang, Jianhua Tao
- Abstract要約: 知識グラフ埋め込み(KGE)は、多くの実世界のアプリケーションのための低次元ベクトルへの実体と関係を表現することを目的としている。
そこで本研究では,知識グラフのより厳しい負のサンプルを生成するために,MixKGという安価で効果的な手法を提案する。
2つの公開データセットと4つの古典的KGE手法の実験は、MixKGが以前の負サンプリングアルゴリズムよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 33.4379457065033
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding~(KGE) aims to represent entities and relations into
low-dimensional vectors for many real-world applications. The representations
of entities and relations are learned via contrasting the positive and negative
triplets. Thus, high-quality negative samples are extremely important in KGE.
However, the present KGE models either rely on simple negative sampling
methods, which makes it difficult to obtain informative negative triplets; or
employ complex adversarial methods, which requires more training data and
strategies. In addition, these methods can only construct negative triplets
using the existing entities, which limits the potential to explore harder
negative triplets. To address these issues, we adopt mixing operation in
generating harder negative samples for knowledge graphs and introduce an
inexpensive but effective method called MixKG. Technically, MixKG first
proposes two kinds of criteria to filter hard negative triplets among the
sampled negatives: based on scoring function and based on correct entity
similarity. Then, MixKG synthesizes harder negative samples via the convex
combinations of the paired selected hard negatives. Experiments on two public
datasets and four classical KGE methods show MixKG is superior to previous
negative sampling algorithms.
- Abstract(参考訳): 知識グラフ埋め込み~(KGE)は、多くの実世界の応用のための低次元ベクトルへの実体と関係を表現することを目的としている。
実体と関係の表現は、正と負の三重項の対比によって学習される。
したがって、高品質な負のサンプルはKGEでは極めて重要である。
しかし、現在のKGEモデルは単純な負のサンプリング法に依存しており、情報的な負の三重項を得るのが困難である。
さらに、これらの手法は既存の実体を用いてのみ負の三重項を構成できるため、より強固な負の三重項を探索するポテンシャルが制限される。
これらの問題に対処するために,知識グラフに対してより難しい負のサンプルを生成するために混合演算を採用し,より安価で効果的な方法であるmixkgを導入する。
技術的には、MixKGはまず、サンプリングされた陰性のうち硬い負の三つ子をフィルタリングする2種類の基準を提案する。
次に、MixKGは、対選択した硬質負の凸結合を介して硬質負のサンプルを合成する。
2つの公開データセットと4つの古典的KGE手法の実験は、MixKGが以前の負サンプリングアルゴリズムよりも優れていることを示している。
関連論文リスト
- From Overfitting to Robustness: Quantity, Quality, and Variety Oriented Negative Sample Selection in Graph Contrastive Learning [38.87932592059369]
グラフコントラスト学習(GCL)は、ノードの埋め込みを学習する正負の学習と対比することを目的としている。
ノード分類下流タスクにおける有意義な埋め込み学習において, 正のサンプルと比較して, 負のサンプルの変化, 量, 品質が重要な役割を担っている。
本研究では, 負のサンプルの品質, バリエーション, 量について包括的に検討し, 新たな累積サンプル選択法を提案する。
論文 参考訳(メタデータ) (2024-06-21T10:47:26Z) - CKD: Contrastive Knowledge Distillation from A Sample-wise Perspective [48.99488315273868]
本研究では,試料内およびサンプル間制約によるサンプルワイドアライメント問題として定式化できる,対照的な知識蒸留手法を提案する。
本手法は, 数値を考慮し, 同一試料中のロジット差を最小化する。
CIFAR-100, ImageNet-1K, MS COCOの3つのデータセットについて総合的な実験を行った。
論文 参考訳(メタデータ) (2024-04-22T11:52:40Z) - Contrastive Learning with Negative Sampling Correction [52.990001829393506]
PUCL(Positive-Unlabeled Contrastive Learning)という新しいコントラスト学習手法を提案する。
PUCLは生成した負のサンプルをラベルのないサンプルとして扱い、正のサンプルからの情報を用いて、対照的な損失のバイアスを補正する。
PUCLは一般的なコントラスト学習問題に適用でき、様々な画像やグラフの分類タスクにおいて最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-01-13T11:18:18Z) - Negative Sampling with Adaptive Denoising Mixup for Knowledge Graph
Embedding [36.24764655034505]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の実体と関係を、正と負の三重項を対比することで、低次元で密度のベクトル空間にマッピングすることを目的としている。
負のサンプリングは、KGsが正の三重項のみを含むため、高品質な負の三重項を見つけるために不可欠である。
既存の負サンプリング法の多くは、高いスコアを持つ存在しない三重項が高品質な負三重項であると仮定する。
論文 参考訳(メタデータ) (2023-10-15T09:01:24Z) - DropMix: Better Graph Contrastive Learning with Harder Negative Samples [6.242575753642188]
グラフコントラスト学習(GCL)における強陰性サンプルの合成にMixupを導入している。
より硬い負のサンプルを合成する新しいDropMix法を提案する。
論文 参考訳(メタデータ) (2023-10-15T07:45:30Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Entity Aware Negative Sampling with Auxiliary Loss of False Negative
Prediction for Knowledge Graph Embedding [0.0]
我々はEANS(Entity Aware Negative Smpling)と呼ばれる新しい手法を提案する。
EANSは、整列した実体指数空間にガウス分布を採用することにより、正に類似した負の実体をサンプリングすることができる。
提案手法は, 正のサンプルサイズによらず高品質な負のサンプルを生成し, 偽の負のサンプルの影響を効果的に軽減することができる。
論文 参考訳(メタデータ) (2022-10-12T14:27:51Z) - Language Model-driven Negative Sampling [8.299192665823542]
知識グラフ埋め込み(KGE)は、究極の下流タスク(リンク予測、質問応答)の表現学習と推論を目的として、知識グラフ(KG)の実体と関係をベクトル空間に符号化する。
KGE はクローズドワールドの仮定に従い、KG の現在のすべての事実を正(正)であると仮定するので、既存の三重項の真性テストの学習過程において、負のサンプルを必要とする。
そこで本稿では,KGsにおける既存のリッチテキスト知識を考慮したネガティブサンプリング手法を提案する。
論文 参考訳(メタデータ) (2022-03-09T13:27:47Z) - Doubly Contrastive Deep Clustering [135.7001508427597]
本稿では、サンプルビューとクラスビューの両方でコントラスト損失を構築する新しい二重コントラストディープクラスタリング(DCDC)フレームワークを紹介します。
具体的には、サンプルビューに対して、元のサンプルとその拡張バージョンのクラス分布を正のサンプルペアとして設定する。
クラスビューでは、クラスのサンプル分布から正のペアと負のペアを構築します。
このように、2つのコントラスト損失は、サンプルとクラスレベルでのミニバッチサンプルのクラスタリング結果をうまく制限します。
論文 参考訳(メタデータ) (2021-03-09T15:15:32Z) - Contrastive Learning with Hard Negative Samples [80.12117639845678]
我々は, 厳密な陰性サンプルを選択するために, 教師なしサンプリング手法を新たに開発する。
このサンプリングの制限ケースは、各クラスをしっかりとクラスタ化し、可能な限り異なるクラスを遠くにプッシュする表現をもたらす。
提案手法は、複数のモードをまたいだダウンストリーム性能を改善し、実装するコード行数が少なく、計算オーバーヘッドを伴わない。
論文 参考訳(メタデータ) (2020-10-09T14:18:53Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。