論文の概要: Investigating Graph Structure Information for Entity Alignment with
Dangling Cases
- arxiv url: http://arxiv.org/abs/2304.04718v1
- Date: Mon, 10 Apr 2023 17:24:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 14:15:05.604654
- Title: Investigating Graph Structure Information for Entity Alignment with
Dangling Cases
- Title(参考訳): ダングリングケースを用いたエンティティアライメントのためのグラフ構造情報の検討
- Authors: Jin Xu, Yangning Li, Xiangjin Xie, Yinghui Li, Niu Hu, Haitao Zheng,
Yong Jiang
- Abstract要約: エンティティアライメントは、異なる知識グラフ(KG)における等価なエンティティを見つけることを目的としている。
Weakly-optimal Graph Contrastive Learning (WOGCL) と呼ばれる新しいエンティティアライメントフレームワークを提案する。
We show that WOGCL are outperforms the current-of-the-art method with pure structure information in traditional (relaxed) and dangling settings。
- 参考スコア(独自算出の注目度): 31.779386064600956
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity alignment (EA) aims to discover the equivalent entities in different
knowledge graphs (KGs), which play an important role in knowledge engineering.
Recently, EA with dangling entities has been proposed as a more realistic
setting, which assumes that not all entities have corresponding equivalent
entities. In this paper, we focus on this setting. Some work has explored this
problem by leveraging translation API, pre-trained word embeddings, and other
off-the-shelf tools. However, these approaches over-rely on the side
information (e.g., entity names), and fail to work when the side information is
absent. On the contrary, they still insufficiently exploit the most fundamental
graph structure information in KG. To improve the exploitation of the
structural information, we propose a novel entity alignment framework called
Weakly-Optimal Graph Contrastive Learning (WOGCL), which is refined on three
dimensions : (i) Model. We propose a novel Gated Graph Attention Network to
capture local and global graph structure similarity. (ii) Training. Two
learning objectives: contrastive learning and optimal transport learning are
designed to obtain distinguishable entity representations via the optimal
transport plan. (iii) Inference. In the inference phase, a PageRank-based
method is proposed to calculate higher-order structural similarity. Extensive
experiments on two dangling benchmarks demonstrate that our WOGCL outperforms
the current state-of-the-art methods with pure structural information in both
traditional (relaxed) and dangling (consolidated) settings. The code will be
public soon.
- Abstract(参考訳): エンティティアライメント(ea)は、知識工学において重要な役割を果たす異なる知識グラフ(kgs)における等価なエンティティの発見を目指している。
近年、全てのエンティティが対応する同等のエンティティを持つわけではないと仮定するより現実的な設定として、エンティティをぶら下げるeaが提案されている。
本稿では,この設定に焦点を当てる。
いくつかの研究は、翻訳API、事前訓練された単語埋め込み、その他の既製のツールを活用することでこの問題を調査している。
しかし、これらのアプローチはサイド情報(例えばエンティティ名)に過度に依存し、サイド情報がない場合は動作しない。
逆に、彼らは依然としてKGの最も基本的なグラフ構造情報を十分に活用していない。
構造情報の活用を改善するために,3次元で改良されたWOGCL(Weakly-Optimal Graph Contrastive Learning)と呼ばれる新しいエンティティアライメントフレームワークを提案する。
(i)モデル。
本稿では,局所的およびグローバルなグラフ構造類似性を捉えるため,Gated Graph Attention Networkを提案する。
(ii)訓練。
コントラスト学習と最適トランスポート学習の2つの学習目的は、最適なトランスポート計画を通じて識別可能な実体表現を得ることである。
(iii)推論。
推測段階では,PageRank を用いた高次構造類似性を計算する手法が提案されている。
2つのダングリングベンチマークに関する広範な実験は、wogclが従来の(相対的な)設定とダングリング(統合された)設定の両方において、純粋な構造情報を持つ現在の最先端のメソッドよりも優れていることを示している。
コードはもうすぐ公開される。
関連論文リスト
- Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - MoCoSA: Momentum Contrast for Knowledge Graph Completion with
Structure-Augmented Pre-trained Language Models [11.57782182864771]
構造強化事前学習言語モデル(MoCoSA)を用いた知識グラフ補完のためのMomentum Contrastを提案する。
また,WN18RRでは2.5%,OpenBG500では21%向上した。
論文 参考訳(メタデータ) (2023-08-16T08:09:10Z) - VEM$^2$L: A Plug-and-play Framework for Fusing Text and Structure
Knowledge on Sparse Knowledge Graph Completion [14.537509860565706]
本稿では,テキストから抽出した知識と構造化メッセージから抽出した知識を統一化するための,スパース知識グラフ上のプラグイン・アンド・プレイ・フレームワーク VEM2L を提案する。
具体的には、モデルによって得られた知識を2つの非重複部分に分割する。
また、モデルの一般化能力を融合させるために、変分EMアルゴリズムによって証明された新しい融合戦略を提案する。
論文 参考訳(メタデータ) (2022-07-04T15:50:21Z) - Compact Graph Structure Learning via Mutual Information Compression [79.225671302689]
グラフ構造学習(GSL)は、グラフニューラルネットワーク(GNN)のグラフ構造と学習パラメータを最適化する能力に大きな注目を集めている。
我々は、MI圧縮によるコンパクトGSLアーキテクチャ、CoGSLを提案する。
クリーンで攻撃的な条件下で複数のデータセットに対して広範な実験を行い、CoGSLの有効性とロバスト性を実証した。
論文 参考訳(メタデータ) (2022-01-14T16:22:33Z) - RAGA: Relation-aware Graph Attention Networks for Global Entity
Alignment [14.287681294725438]
実体と関係の相互作用を捉えるために,Relation-aware Graph Attention Networksに基づく新しいフレームワークを提案する。
本フレームワークでは,エンティティ情報を関係に分散し,関係情報をエンティティに集約する自己認識機構を採用している。
論文 参考訳(メタデータ) (2021-03-01T06:30:51Z) - Towards Entity Alignment in the Open World: An Unsupervised Approach [29.337157862514204]
これは知識のカバレッジと品質を高めるために知識グラフ(kgs)を統合する上で重要なステップである。
最先端のソリューションは、モデルトレーニングにラベル付きデータに頼る傾向があります。
オープンな世界でエンティティアライメントを行う監視されていないフレームワークを提供します。
論文 参考訳(メタデータ) (2021-01-26T03:10:24Z) - Graph Information Bottleneck [77.21967740646784]
グラフニューラルネットワーク(GNN)は、ネットワーク構造とノード機能から情報を融合する表現的な方法を提供する。
GIBは、一般的なInformation Bottleneck (IB) を継承し、与えられたタスクに対する最小限の表現を学習することを目的としている。
提案したモデルが最先端のグラフ防御モデルよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2020-10-24T07:13:00Z) - ENT-DESC: Entity Description Generation by Exploring Knowledge Graph [53.03778194567752]
実際には、出力記述が最も重要な知識のみをカバーするため、入力知識は十分以上である可能性がある。
我々は、KG-to-textにおけるこのような実践的なシナリオの研究を容易にするために、大規模で挑戦的なデータセットを導入する。
本稿では,元のグラフ情報をより包括的に表現できるマルチグラフ構造を提案する。
論文 参考訳(メタデータ) (2020-04-30T14:16:19Z) - Structure-Augmented Text Representation Learning for Efficient Knowledge
Graph Completion [53.31911669146451]
人為的な知識グラフは、様々な自然言語処理タスクに重要な支援情報を提供する。
これらのグラフは通常不完全であり、自動補完を促す。
グラフ埋め込みアプローチ(例えばTransE)は、グラフ要素を密度の高い埋め込みに表現することで構造化された知識を学ぶ。
テキストエンコーディングアプローチ(KG-BERTなど)は、グラフトリプルのテキストとトリプルレベルの文脈化表現を利用する。
論文 参考訳(メタデータ) (2020-04-30T13:50:34Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。