論文の概要: HaSa: Hardness and Structure-Aware Contrastive Knowledge Graph Embedding
- arxiv url: http://arxiv.org/abs/2305.10563v2
- Date: Sun, 15 Oct 2023 02:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-17 23:28:10.158938
- Title: HaSa: Hardness and Structure-Aware Contrastive Knowledge Graph Embedding
- Title(参考訳): HaSa: ハードネスと構造を意識したコントラスト知識グラフの埋め込み
- Authors: Honggen Zhang, June Zhang, Igor Molybog
- Abstract要約: 本稿では,知識グラフ埋め込み (KGE) に対する InfoNCE による対照的な学習手法を検討する。
我々は、高品質な(ハードな)負の3重項の生成は、偽の負の3重項の増加につながるかもしれないと論じる。
強負三重項の生成における偽負三重項の影響を軽減するために, 硬さと構造認識(textbfHaSa)の対比KGE法を提案する。
- 参考スコア(独自算出の注目度): 2.395887395376882
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We consider a contrastive learning approach to knowledge graph embedding
(KGE) via InfoNCE. For KGE, efficient learning relies on augmenting the
training data with negative triples. However, most KGE works overlook the bias
from generating the negative triples-false negative triples (factual triples
missing from the knowledge graph). We argue that the generation of high-quality
(i.e., hard) negative triples might lead to an increase in false negative
triples. To mitigate the impact of false negative triples during the generation
of hard negative triples, we propose the Hardness and Structure-aware
(\textbf{HaSa}) contrastive KGE method, which alleviates the effect of false
negative triples while generating the hard negative triples. Experiments show
that HaSa improves the performance of InfoNCE-based KGE approaches and achieves
state-of-the-art results in several metrics for WN18RR datasets and competitive
results for FB15k-237 datasets compared to both classic and pre-trained
LM-based KGE methods.
- Abstract(参考訳): 本稿では,知識グラフ埋め込み (KGE) に対する InfoNCE による対照的な学習手法を検討する。
KGEにとって、効率的な学習は、負のトリプルでトレーニングデータを増強することに依存する。
しかしながら、ほとんどのKGEの作業は、負の三重項-負の三重項(知識グラフから欠落した実三重項)の生成からバイアスを見落としている。
我々は、高品質な(ハードな)負の三重項の生成は、偽負三重項の増加につながるかもしれないと主張する。
硬負三重項の生成における偽負三重項の影響を軽減するため、硬負三重項を生成する際に偽負三重項の効果を緩和する硬さと構造認識(\textbf{hasa})の対比kge法を提案する。
実験により、HaSaはInfoNCEベースのKGEアプローチの性能を改善し、WN18RRデータセットのいくつかの測定結果とFB15k-237データセットの競合結果を達成する。
関連論文リスト
- Untargeted Adversarial Attack on Knowledge Graph Embeddings [18.715565468700227]
知識グラフ埋め込み(KGE)手法は、様々な知識グラフ(KG)下流タスクを扱うことに成功している。
近年の研究では、KGE手法の脆弱性を調査するための敵攻撃が提案されているが、攻撃者はKGE方式で標的指向である。
本研究では,KGE手法のグローバルな性能を,未知のテストトリプルの集合上で低減することを目的として,標的外攻撃を探索する。
論文 参考訳(メタデータ) (2024-05-08T18:08:11Z) - Negative Sampling with Adaptive Denoising Mixup for Knowledge Graph
Embedding [36.24764655034505]
知識グラフ埋め込み(KGE)は、知識グラフ(KG)の実体と関係を、正と負の三重項を対比することで、低次元で密度のベクトル空間にマッピングすることを目的としている。
負のサンプリングは、KGsが正の三重項のみを含むため、高品質な負の三重項を見つけるために不可欠である。
既存の負サンプリング法の多くは、高いスコアを持つ存在しない三重項が高品質な負三重項であると仮定する。
論文 参考訳(メタデータ) (2023-10-15T09:01:24Z) - KGEx: Explaining Knowledge Graph Embeddings via Subgraph Sampling and
Knowledge Distillation [6.332573781489264]
我々は、代理モデル研究からインスピレーションを得て、個々のリンク予測を説明する新しい方法であるKGExを提案する。
予測対象の三重項が与えられた場合、KGExは重要な三重項を特定するために使用するKGEモデルをシュロゲートする。
我々は、KGExがブラックボックスモデルに忠実な説明を提供することができることを示すために、2つの公開データセットに関する広範な実験を行った。
論文 参考訳(メタデータ) (2023-10-02T10:20:24Z) - Your Negative May not Be True Negative: Boosting Image-Text Matching
with False Negative Elimination [62.18768931714238]
提案手法は, サンプリングによる新規な偽陰性除去 (FNE) 戦略である。
その結果,提案した偽陰性除去戦略の優位性が示された。
論文 参考訳(メタデータ) (2023-08-08T16:31:43Z) - Repurposing Knowledge Graph Embeddings for Triple Representation via
Weak Supervision [77.34726150561087]
現在の方法では、事前訓練されたモデルからの実体と述語埋め込みを使わずに、スクラッチから三重埋め込みを学習する。
本研究では,知識グラフからトリプルを自動抽出し,事前学習した埋め込みモデルからそれらのペアの類似性を推定する手法を開発した。
これらのペアの類似度スコアは、細い三重表現のためにシームズ様のニューラルネットワークに供給される。
論文 参考訳(メタデータ) (2022-08-22T14:07:08Z) - MixKG: Mixing for harder negative samples in knowledge graph [33.4379457065033]
知識グラフ埋め込み(KGE)は、多くの実世界のアプリケーションのための低次元ベクトルへの実体と関係を表現することを目的としている。
そこで本研究では,知識グラフのより厳しい負のサンプルを生成するために,MixKGという安価で効果的な手法を提案する。
2つの公開データセットと4つの古典的KGE手法の実験は、MixKGが以前の負サンプリングアルゴリズムよりも優れていることを示している。
論文 参考訳(メタデータ) (2022-02-19T13:31:06Z) - KGE-CL: Contrastive Learning of Knowledge Graph Embeddings [64.67579344758214]
本稿では,知識グラフ埋め込みのための簡易かつ効率的な学習フレームワークを提案する。
これは、関連するエンティティと異なる三重項におけるエンティティ-リレーションのカップルのセマンティック距離を短縮することができる。
WN18RRデータセットで51.2% MRR、46.8% Hits@1、59.1% MRR、51.8% Hits@1、YAGO3-10データセットで達成できる。
論文 参考訳(メタデータ) (2021-12-09T12:45:33Z) - How Does Knowledge Graph Embedding Extrapolate to Unseen Data: a
Semantic Evidence View [13.575052133743505]
我々は,知識グラフ埋め込み(KGE)が未知のデータにどのように当てはまるかを研究する。
また,セマンティック・エビデンス・アウェアメント・グラフニューラルネット(SE-GNN)と呼ばれる新しいGNNベースのKGEモデルを提案する。
論文 参考訳(メタデータ) (2021-09-24T08:17:02Z) - Contrastive Attraction and Contrastive Repulsion for Representation
Learning [131.72147978462348]
コントラスト学習(CL)法は,複数の負のサンプルに対して,エンコーダが各正のサンプルと対比する自己超越的な方法でデータ表現を学習する。
最近のCL法は、ImageNetのような大規模データセットで事前訓練された場合、有望な結果を得た。
自己グループ内の正と負のサンプルを別々に比較し、正と負の群を対比して進行する2つのCL戦略を提案する。
論文 参考訳(メタデータ) (2021-05-08T17:25:08Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Reinforced Negative Sampling over Knowledge Graph for Recommendation [106.07209348727564]
我々は、高品質なネガティブを探索する強化学習エージェントとして機能する新しい負サンプリングモデル、知識グラフポリシーネットワーク(kgPolicy)を開発した。
kgPolicyは、ターゲットのポジティブなインタラクションからナビゲートし、知識を意識したネガティブなシグナルを適応的に受信し、最終的にはリコメンダをトレーニングする潜在的なネガティブなアイテムを生成する。
論文 参考訳(メタデータ) (2020-03-12T12:44:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。