論文の概要: LLM-Align: Utilizing Large Language Models for Entity Alignment in Knowledge Graphs
- arxiv url: http://arxiv.org/abs/2412.04690v1
- Date: Fri, 06 Dec 2024 01:05:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-09 15:57:42.066088
- Title: LLM-Align: Utilizing Large Language Models for Entity Alignment in Knowledge Graphs
- Title(参考訳): LLM-Align:知識グラフにおけるエンティティアライメントのための大規模言語モデルの利用
- Authors: Xuan Chen, Tong Lu, Zhichun Wang,
- Abstract要約: 埋め込みベースのエンティティアライメント(EA)が最近注目されている。
EAは、異なる知識グラフ(KG)で対応するエンティティを特定し、一致させようとしている
- 参考スコア(独自算出の注目度): 22.621781704528786
- License:
- Abstract: Entity Alignment (EA) seeks to identify and match corresponding entities across different Knowledge Graphs (KGs), playing a crucial role in knowledge fusion and integration. Embedding-based entity alignment (EA) has recently gained considerable attention, resulting in the emergence of many innovative approaches. Initially, these approaches concentrated on learning entity embeddings based on the structural features of knowledge graphs (KGs) as defined by relation triples. Subsequent methods have integrated entities' names and attributes as supplementary information to improve the embeddings used for EA. However, existing methods lack a deep semantic understanding of entity attributes and relations. In this paper, we propose a Large Language Model (LLM) based Entity Alignment method, LLM-Align, which explores the instruction-following and zero-shot capabilities of Large Language Models to infer alignments of entities. LLM-Align uses heuristic methods to select important attributes and relations of entities, and then feeds the selected triples of entities to an LLM to infer the alignment results. To guarantee the quality of alignment results, we design a multi-round voting mechanism to mitigate the hallucination and positional bias issues that occur with LLMs. Experiments on three EA datasets, demonstrating that our approach achieves state-of-the-art performance compared to existing EA methods.
- Abstract(参考訳): エンティティアライメント(EA)は、異なる知識グラフ(KG)で対応するエンティティを特定し、マッチングし、知識の融合と統合において重要な役割を果たす。
埋め込みベースのエンティティアライメント(EA)が最近注目され、多くの革新的なアプローチが出現した。
当初、これらのアプローチは知識グラフ(KG)の構造的特徴に基づく学習エンティティの埋め込みに集中していた。
その後の手法では、EAに使用される埋め込みを改善するための補助情報としてエンティティの名前と属性が統合される。
しかし、既存の手法には、エンティティ属性と関係の深い意味的理解が欠けている。
本稿では,Large Language Model (LLM) に基づくエンティティアライメント手法 LLM-Align を提案する。
LLM-Alignはヒューリスティックな手法を用いてエンティティの重要な属性と関係を選定し、選択した三重要素をLCMに供給してアライメント結果を推測する。
LLMにおいて発生する幻覚や位置バイアスを緩和する多ラウンド投票機構を設計する。
3つのEAデータセットの実験により、我々のアプローチが既存のEA手法と比較して最先端のパフォーマンスを達成することを示した。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - DERA: Dense Entity Retrieval for Entity Alignment in Knowledge Graphs [3.500936203815729]
エンティティアライメント(EA)のための高密度エンティティ検索フレームワークを提案する。
我々は言語モデルを活用し、エンティティの様々な特徴を均一にエンコードし、知識グラフ(KG)をまたいで最も近いエンティティ検索を容易にする。
提案手法は,既存のEA手法と比較して最先端の性能を実現する。
論文 参考訳(メタデータ) (2024-08-02T10:12:42Z) - Entity Alignment with Noisy Annotations from Large Language Models [15.189701951003611]
我々は,大規模言語モデルをEAに効果的に活用するための統一フレームワーク LLM4EA を提案する。
具体的には、アノテーション空間を大幅に削減するために、新しいアクティブな学習ポリシーを設計する。
基本EAモデルからのフィードバックに基づいて、ポリシーを反復的に最適化します。
論文 参考訳(メタデータ) (2024-05-27T03:52:55Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Improving Open Information Extraction with Large Language Models: A
Study on Demonstration Uncertainty [52.72790059506241]
オープン情報抽出(OIE)タスクは、構造化されていないテキストから構造化された事実を抽出することを目的としている。
一般的なタスク解決手段としてChatGPTのような大きな言語モデル(LLM)の可能性にもかかわらず、OIEタスクの最先端(教師付き)メソッドは遅れている。
論文 参考訳(メタデータ) (2023-09-07T01:35:24Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z) - Interpretable and Low-Resource Entity Matching via Decoupling Feature
Learning from Decision Making [22.755892575582788]
Entity Matchingは、同じ現実世界のオブジェクトを表すエンティティレコードを認識することを目的としている。
異種情報融合(HIF)とキー属性ツリー(KAT)誘導からなる新しいEMフレームワークを提案する。
提案手法は効率が高く,ほとんどの場合SOTA EMモデルより優れている。
論文 参考訳(メタデータ) (2021-06-08T08:27:31Z) - Exploring and Evaluating Attributes, Values, and Structures for Entity
Alignment [100.19568734815732]
エンティティアライメント(EA)は、さまざまなKGから等価なエンティティをリンクすることで、リッチコンテンツの統合知識グラフ(KG)を構築することを目的としている。
属性・トリプルは重要なアライメント信号も提供できますが、まだ十分に調査されていません。
本稿では,属性値エンコーダを用いてKGをサブグラフに分割し,属性の様々なタイプを効率的にモデル化することを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:03:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。