論文の概要: Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment
- arxiv url: http://arxiv.org/abs/2401.16960v1
- Date: Tue, 30 Jan 2024 12:41:04 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-31 15:05:18.487627
- Title: Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment
- Title(参考訳): 知識グラフとエンティティアライメントのための大規模言語モデルから知識を統合する2つの頭
- Authors: Linyao Yang and Hongyang Chen and Xiao Wang and Jing Yang and Fei-Yue
Wang and Han Liu
- Abstract要約: LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
- 参考スコア(独自算出の注目度): 31.70064035432789
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity alignment, which is a prerequisite for creating a more comprehensive
Knowledge Graph (KG), involves pinpointing equivalent entities across disparate
KGs. Contemporary methods for entity alignment have predominantly utilized
knowledge embedding models to procure entity embeddings that encapsulate
various similarities-structural, relational, and attributive. These embeddings
are then integrated through attention-based information fusion mechanisms.
Despite this progress, effectively harnessing multifaceted information remains
challenging due to inherent heterogeneity. Moreover, while Large Language
Models (LLMs) have exhibited exceptional performance across diverse downstream
tasks by implicitly capturing entity semantics, this implicit knowledge has yet
to be exploited for entity alignment. In this study, we propose a Large
Language Model-enhanced Entity Alignment framework (LLMEA), integrating
structural knowledge from KGs with semantic knowledge from LLMs to enhance
entity alignment. Specifically, LLMEA identifies candidate alignments for a
given entity by considering both embedding similarities between entities across
KGs and edit distances to a virtual equivalent entity. It then engages an LLM
iteratively, posing multiple multi-choice questions to draw upon the LLM's
inference capability. The final prediction of the equivalent entity is derived
from the LLM's output. Experiments conducted on three public datasets reveal
that LLMEA surpasses leading baseline models. Additional ablation studies
underscore the efficacy of our proposed framework.
- Abstract(参考訳): エンティティアライメントは、より包括的な知識グラフ(kg)を作成するための前提条件であり、異なるkg間で同等のエンティティを特定できる。
エンティティアライメントのための現代の手法は、様々な類似性(構造的、リレーショナル、帰属的)をカプセル化したエンティティ埋め込みに知識埋め込みモデルを主に利用してきた。
これらの埋め込みは、注意に基づく情報融合機構を通じて統合される。
この進歩にもかかわらず、本質的に異質性のため、効果的に多面的情報を活用することは困難である。
さらに、LLM(Large Language Models)は、エンティティのセマンティクスを暗黙的にキャプチャすることで、さまざまな下流タスクにまたがる例外的なパフォーマンスを示したが、この暗黙の知識は、エンティティのアライメントにはまだ利用されていない。
本研究では,Large Language Model-enhanced Entity Alignment framework (LLMEA)を提案する。
具体的には、LLMEAは、あるエンティティの候補アライメントを、KG間でのエンティティ間の類似性を埋め込むことと、仮想等価エンティティへの編集距離の両方を考慮して特定する。
その後、LLMを反復的に実行し、複数の選択質問を行い、LLMの推論能力を引き出す。
等価実体の最終的な予測は LLM の出力から導かれる。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
追加のアブレーション研究は,提案フレームワークの有効性を裏付けるものである。
関連論文リスト
- KG-Agent: An Efficient Autonomous Agent Framework for Complex Reasoning
over Knowledge Graph [134.8631016845467]
我々は、KG-Agentと呼ばれる自律LLMベースのエージェントフレームワークを提案する。
KG-Agentでは、LLM、多機能ツールボックス、KGベースのエグゼキュータ、知識メモリを統合する。
有効性を保証するため、プログラム言語を利用してKG上のマルチホップ推論プロセスを定式化する。
論文 参考訳(メタデータ) (2024-02-17T02:07:49Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Attribute-Consistent Knowledge Graph Representation Learning for
Multi-Modal Entity Alignment [14.658282035561792]
MMEA(ACK-MMEA)のための属性一貫性のある知識グラフ表現学習フレームワークを提案する。
当社のアプローチは、競合他社と比較して優れたパフォーマンスを実現している。
論文 参考訳(メタデータ) (2023-04-04T06:39:36Z) - Multi-modal Contrastive Representation Learning for Entity Alignment [57.92705405276161]
マルチモーダルなエンティティアライメントは、2つの異なるマルチモーダルな知識グラフ間で等価なエンティティを識別することを目的としている。
マルチモーダルコントラスト学習に基づくエンティティアライメントモデルであるMCLEAを提案する。
特に、MCLEAはまず複数のモダリティから複数の個別表現を学習し、その後、モダリティ内およびモダリティ間相互作用を共同でモデル化するコントラスト学習を行う。
論文 参考訳(メタデータ) (2022-09-02T08:59:57Z) - Exploiting Global Semantic Similarities in Knowledge Graphs by
Relational Prototype Entities [55.952077365016066]
実証的な観察では、頭と尾のエンティティが同じ関係で結ばれている場合、しばしば同様の意味的属性を共有する。
我々は、textittextbfrelational prototype entityと呼ばれる仮想ノードのセットを導入する新しいアプローチを提案する。
エンティティの埋め込みを、関連するプロトタイプの埋め込みに近づけることで、私たちのアプローチは、エンティティのグローバルな意味的類似性を効果的に促進できる。
論文 参考訳(メタデータ) (2022-06-16T09:25:33Z) - Contrastive Learning with Hard Negative Entities for Entity Set
Expansion [29.155036098444008]
様々なNLPおよびIRアプリケーションは、知識を発見する能力により、ESEの恩恵を受けるだろう。
我々は、エンティティの表現を洗練させるために、コントラスト学習を伴うエンティティレベルのマスキング言語モデルを考案する。
さらに、上記の言語モデルによって得られたエンティティ表現を利用してエンティティを拡張する新しい確率的ESEフレームワークであるProbExpanを提案する。
論文 参考訳(メタデータ) (2022-04-16T12:26:42Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z) - Interpretable and Low-Resource Entity Matching via Decoupling Feature
Learning from Decision Making [22.755892575582788]
Entity Matchingは、同じ現実世界のオブジェクトを表すエンティティレコードを認識することを目的としている。
異種情報融合(HIF)とキー属性ツリー(KAT)誘導からなる新しいEMフレームワークを提案する。
提案手法は効率が高く,ほとんどの場合SOTA EMモデルより優れている。
論文 参考訳(メタデータ) (2021-06-08T08:27:31Z) - Neural Production Systems [90.75211413357577]
視覚環境は、異なるオブジェクトまたはエンティティから構成される。
イメージをエンティティに分割するために、ディープラーニング研究者は構造的誘導バイアスを提案した。
私たちは認知科学からインスピレーションを得て、一連のルールテンプレートからなる古典的なアプローチを復活させます。
このアーキテクチャは柔軟でダイナミックな制御フローを実現し、エンティティ固有およびルールベースの情報を分解するのに役立つ。
論文 参考訳(メタデータ) (2021-03-02T18:53:20Z) - RAGA: Relation-aware Graph Attention Networks for Global Entity
Alignment [14.287681294725438]
実体と関係の相互作用を捉えるために,Relation-aware Graph Attention Networksに基づく新しいフレームワークを提案する。
本フレームワークでは,エンティティ情報を関係に分散し,関係情報をエンティティに集約する自己認識機構を採用している。
論文 参考訳(メタデータ) (2021-03-01T06:30:51Z) - Cross-lingual Entity Alignment with Incidental Supervision [76.66793175159192]
本稿では,多言語KGとテキストコーパスを共通埋め込み方式で共同で表現する,偶発的に教師付きモデルであるJEANSを提案する。
ベンチマークデータセットの実験では、JEANSがエンティティアライメントとインシデントインシデントインシデントインスペクションの改善を期待できる結果となった。
論文 参考訳(メタデータ) (2020-05-01T01:53:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。