論文の概要: Knowledge Graph Contrastive Learning Based on Relation-Symmetrical
Structure
- arxiv url: http://arxiv.org/abs/2211.10738v4
- Date: Tue, 13 Jun 2023 06:05:24 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 18:14:02.877253
- Title: Knowledge Graph Contrastive Learning Based on Relation-Symmetrical
Structure
- Title(参考訳): 関係対称構造に基づく知識グラフコントラスト学習
- Authors: Ke Liang, Yue Liu, Sihang Zhou, Wenxuan Tu, Yi Wen, Xihong Yang,
Xiangjun Dong, Xinwang Liu
- Abstract要約: 関係対称構造に基づく知識グラフコントラスト学習フレームワークKGE-SymCLを提案する。
我々のフレームワークは、KGEモデルの識別能力を高めるために、KGの対称構造情報をマイニングする。
- 参考スコア(独自算出の注目度): 36.507635518425744
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge graph embedding (KGE) aims at learning powerful representations to
benefit various artificial intelligence applications. Meanwhile, contrastive
learning has been widely leveraged in graph learning as an effective mechanism
to enhance the discriminative capacity of the learned representations. However,
the complex structures of KG make it hard to construct appropriate contrastive
pairs. Only a few attempts have integrated contrastive learning strategies with
KGE. But, most of them rely on language models ( e.g., Bert) for contrastive
pair construction instead of fully mining information underlying the graph
structure, hindering expressive ability. Surprisingly, we find that the
entities within a relational symmetrical structure are usually similar and
correlated. To this end, we propose a knowledge graph contrastive learning
framework based on relation-symmetrical structure, KGE-SymCL, which mines
symmetrical structure information in KGs to enhance the discriminative ability
of KGE models. Concretely, a plug-and-play approach is proposed by taking
entities in the relation-symmetrical positions as positive pairs. Besides, a
self-supervised alignment loss is designed to pull together positive pairs.
Experimental results on link prediction and entity classification datasets
demonstrate that our KGE-SymCL can be easily adopted to various KGE models for
performance improvements. Moreover, extensive experiments show that our model
could outperform other state-of-the-art baselines.
- Abstract(参考訳): 知識グラフ埋め込み(KGE)は、強力な表現を学習して様々な人工知能アプリケーションに役立てることを目的としている。
一方、コントラスト学習は、グラフ学習において、学習表現の識別能力を高める効果的なメカニズムとして広く活用されている。
しかし、KG の複素構造は、適切な対照的なペアを構築するのを難しくする。
KGEと対照的な学習戦略を統合する試みはわずかである。
しかし、そのほとんどはグラフ構造に基づく完全なマイニング情報ではなく、対照的なペア構築のために言語モデル(例えばバート)に依存しており、表現能力を妨げる。
驚くべきことに、関係対称構造内の実体は通常類似し相関している。
そこで本研究では,KGEモデルの識別能力を高めるために,KG内の対称構造情報をマイニングするKGE-SymCLを用いた知識グラフ比較学習フレームワークを提案する。
具体的には、関係対称位置の実体を正の対とするプラグアンドプレイ手法を提案する。
さらに、自己教師付きアライメント損失は、正のペアをまとめるように設計されている。
リンク予測とエンティティ分類データセットによる実験結果から,KGE-SymCLは様々なKGEモデルに容易に適用でき,性能が向上することが示された。
さらに、広範な実験により、我々のモデルが他の最先端のベースラインを上回ることができることを示した。
関連論文リスト
- CL4KGE: A Curriculum Learning Method for Knowledge Graph Embedding [36.47838597326351]
知識グラフにおける3つの学習の難易度を測定するために、計量Zカウントを定義する。
この指標に基づいて,効率的なtextbfCurriculum textbfLearningに基づくトレーニング戦略である textbfCL4KGE を提案する。
論文 参考訳(メタデータ) (2024-08-27T07:51:26Z) - Graph-level Protein Representation Learning by Structure Knowledge
Refinement [50.775264276189695]
本稿では、教師なしの方法でグラフ全体の表現を学習することに焦点を当てる。
本稿では、データ構造を用いて、ペアが正か負かの確率を決定する構造知識精製(Structure Knowledge Refinement, SKR)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-05T09:05:33Z) - A Comprehensive Study on Knowledge Graph Embedding over Relational
Patterns Based on Rule Learning [49.09125100268454]
KGE(Knowledge Graph Embedding)は、KGC(Knowledge Completion Graph)タスクを解決するための効果的なアプローチであることが証明されている。
関係パターンはKGEモデルの性能において重要な要素である。
我々は,KGEモデルの性能を様々な関係パターン上で向上させるトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2023-08-15T17:30:57Z) - Improving Knowledge Graph Entity Alignment with Graph Augmentation [11.1094009195297]
異なる知識グラフ(KG)をまたいだ等価エンティティをリンクするエンティティアライメント(EA)は、知識融合において重要な役割を果たす。
近年、グラフニューラルネットワーク(GNN)は、多くの埋め込みベースのEA手法でうまく適用されている。
グラフの強化により、マージンベースのアライメント学習とコントラッシブなエンティティ表現学習のための2つのグラフビューを作成する。
論文 参考訳(メタデータ) (2023-04-28T01:22:47Z) - LightCAKE: A Lightweight Framework for Context-Aware Knowledge Graph
Embedding [3.7497588668920048]
コンテキスト対応KGE用にLightCAKEという軽量フレームワークを提案する。
LightCAKEは、繰り返し集約戦略を使用して、マルチホップのコンテキスト情報をエンティティ/リレーション埋め込みに統合します。
公開ベンチマーク実験では,フレームワークの効率性と有効性が実証された。
論文 参考訳(メタデータ) (2021-02-22T08:23:22Z) - RelWalk A Latent Variable Model Approach to Knowledge Graph Embedding [50.010601631982425]
本稿では,単語埋め込みのランダムウォークモデル(Arora et al., 2016a)を知識グラフ埋め込み(KGE)に拡張する。
二つの実体 h (head) と t (tail) の間の関係 R の強さを評価するスコア関数を導出する。
理論的解析によって動機付けられた学習目標を提案し,知識グラフからKGEを学習する。
論文 参考訳(メタデータ) (2021-01-25T13:31:29Z) - Motif Learning in Knowledge Graphs Using Trajectories Of Differential
Equations [14.279419014064047]
知識グラフ埋め込み(KGE)は、リンク予測タスクで有望なパフォーマンスを示している。
多くのKGEは平坦な幾何学を使い、複雑な構造を保存することができない。
正規微分方程式(ODE)の軌道上にKGのノードを埋め込む神経微分KGEを提案する。
論文 参考訳(メタデータ) (2020-10-13T20:53:17Z) - Tensor Graph Convolutional Networks for Multi-relational and Robust
Learning [74.05478502080658]
本稿では,テンソルで表されるグラフの集合に関連するデータから,スケーラブルな半教師付き学習(SSL)を実現するためのテンソルグラフ畳み込みネットワーク(TGCN)を提案する。
提案アーキテクチャは、標準的なGCNと比較して大幅に性能が向上し、最先端の敵攻撃に対処し、タンパク質間相互作用ネットワーク上でのSSL性能が著しく向上する。
論文 参考訳(メタデータ) (2020-03-15T02:33:21Z) - Embedding Graph Auto-Encoder for Graph Clustering [90.8576971748142]
グラフ自動エンコーダ(GAE)モデルは、半教師付きグラフ畳み込みネットワーク(GCN)に基づく
我々は、グラフクラスタリングのための特定のGAEベースのモデルを設計し、その理論、すなわち、埋め込みグラフオートエンコーダ(EGAE)と整合する。
EGAEは1つのエンコーダと2つのデコーダで構成される。
論文 参考訳(メタデータ) (2020-02-20T09:53:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。