論文の概要: KGMEL: Knowledge Graph-Enhanced Multimodal Entity Linking
- arxiv url: http://arxiv.org/abs/2504.15135v1
- Date: Mon, 21 Apr 2025 14:38:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 15:44:20.992481
- Title: KGMEL: Knowledge Graph-Enhanced Multimodal Entity Linking
- Title(参考訳): KGMEL: 知識グラフによるマルチモーダルエンティティリンク
- Authors: Juyeon Kim, Geon Lee, Taeuk Kim, Kijung Shin,
- Abstract要約: KGMELは、知識グラフトリプルを利用してエンティティリンクを強化する新しいフレームワークである。
運用は3段階あり、生成、検索、ランク付けの3段階である。
ベンチマークデータセットの実験では、KGMELが既存のメソッドより優れていることが示されている。
- 参考スコア(独自算出の注目度): 26.524285614676188
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity linking (EL) aligns textual mentions with their corresponding entities in a knowledge base, facilitating various applications such as semantic search and question answering. Recent advances in multimodal entity linking (MEL) have shown that combining text and images can reduce ambiguity and improve alignment accuracy. However, most existing MEL methods overlook the rich structural information available in the form of knowledge-graph (KG) triples. In this paper, we propose KGMEL, a novel framework that leverages KG triples to enhance MEL. Specifically, it operates in three stages: (1) Generation: Produces high-quality triples for each mention by employing vision-language models based on its text and images. (2) Retrieval: Learns joint mention-entity representations, via contrastive learning, that integrate text, images, and (generated or KG) triples to retrieve candidate entities for each mention. (3) Reranking: Refines the KG triples of the candidate entities and employs large language models to identify the best-matching entity for the mention. Extensive experiments on benchmark datasets demonstrate that KGMEL outperforms existing methods. Our code and datasets are available at: https://github.com/juyeonnn/KGMEL.
- Abstract(参考訳): エンティティリンク(EL)は、セマンティック検索や質問応答といった様々なアプリケーションを容易にし、知識ベースにおいて、テキストの言及を対応するエンティティと整合させる。
MEL(Multimodal entity linking)の最近の進歩により、テキストと画像の組み合わせはあいまいさを低減し、アライメント精度を向上させることが示されている。
しかし、既存のMEL法のほとんどは知識グラフ(KG)の3倍の形で利用可能な豊富な構造情報を見落としている。
本稿では,KG三重項を利用してMELを強化する新しいフレームワークであるKGMELを提案する。
具体的には、(1)生成: テキストと画像に基づいて視覚言語モデルを用いて、各言及に対して高品質なトリプルを生成する。
2)検索: コントラスト学習を通じて,テキスト,画像,(生成またはKG)トリプルを統合し,各言及の候補エンティティを検索する。
(3) 再分類: 候補エンティティのKGトリプルを再定義し、参照のためのベストマッチエンティティを特定するために大きな言語モデルを採用する。
ベンチマークデータセットに関する大規模な実験は、KGMELが既存のメソッドより優れていることを示している。
私たちのコードとデータセットは、https://github.com/juyeonnn/KGMEL.comで公開されています。
関連論文リスト
- Self-supervised Quantized Representation for Seamlessly Integrating Knowledge Graphs with Large Language Models [17.88134311726175]
本稿では,知識グラフと大規模言語モデルとのシームレスな統合を目指して,各エンティティの量子化符号を学習し,適用するためのフレームワークを提案する。
実験の結果、SSQRは既存の教師なしの量子化手法よりも優れており、より区別可能なコードを生成することがわかった。
微調整されたLLaMA2とLLaMA3.1は、KGリンク予測と三重分類タスクよりも優れた性能を持つ。
論文 参考訳(メタデータ) (2025-01-30T03:40:20Z) - KG-CF: Knowledge Graph Completion with Context Filtering under the Guidance of Large Language Models [55.39134076436266]
KG-CFはランキングベースの知識グラフ補完タスクに適したフレームワークである。
KG-CFは、LLMの推論能力を活用して、無関係なコンテキストをフィルタリングし、現実世界のデータセットで優れた結果を得る。
論文 参考訳(メタデータ) (2025-01-06T01:52:15Z) - Retrieval, Reasoning, Re-ranking: A Context-Enriched Framework for Knowledge Graph Completion [36.664300900246424]
既存の埋め込みベースのメソッドは知識グラフのトリプルのみに依存している。
KGCのためのコンテキスト強化フレームワークであるKGR3を提案する。
広く使われているデータセットの実験では、KGR3は様々なKGCメソッドを一貫して改善している。
論文 参考訳(メタデータ) (2024-11-12T20:15:58Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Multi-perspective Improvement of Knowledge Graph Completion with Large
Language Models [95.31941227776711]
我々は,文脈知識の不足を補うMPIKGCを提案し,大規模言語モデル(LLM)をクエリすることでKGCを改善する。
我々は4つの記述に基づくKGCモデルと4つのデータセットに基づくフレームワークの広範囲な評価を行い、リンク予測とトリプルト分類のタスクについて検討した。
論文 参考訳(メタデータ) (2024-03-04T12:16:15Z) - Contextualization Distillation from Large Language Model for Knowledge
Graph Completion [51.126166442122546]
我々は、差別的かつ生成的なKGCフレームワークと互換性のあるプラグイン・アンド・プレイ方式であるContextualization Distillation戦略を導入する。
提案手法は,大規模言語モデルに対して,コンパクトで構造的な三重項を文脈に富んだセグメントに変換するように指示することから始まる。
多様なデータセットとKGC技術にわたる総合的な評価は、我々のアプローチの有効性と適応性を強調している。
論文 参考訳(メタデータ) (2024-01-28T08:56:49Z) - Few-shot Knowledge Graph-to-Text Generation with Pretrained Language
Models [42.38563175680914]
本稿では,知識グラフ(KG)の事実を記述した自然言語テキストの自動生成方法について検討する。
数ショットの設定を考えると、言語理解と生成において事前学習された言語モデル(PLM)の優れた能力を利用する。
論文 参考訳(メタデータ) (2021-06-03T06:48:00Z) - Exploring and Evaluating Attributes, Values, and Structures for Entity
Alignment [100.19568734815732]
エンティティアライメント(EA)は、さまざまなKGから等価なエンティティをリンクすることで、リッチコンテンツの統合知識グラフ(KG)を構築することを目的としている。
属性・トリプルは重要なアライメント信号も提供できますが、まだ十分に調査されていません。
本稿では,属性値エンコーダを用いてKGをサブグラフに分割し,属性の様々なタイプを効率的にモデル化することを提案する。
論文 参考訳(メタデータ) (2020-10-07T08:03:58Z) - Exploiting Structured Knowledge in Text via Graph-Guided Representation
Learning [73.0598186896953]
本稿では、知識グラフからのガイダンスを用いて、生テキスト上で学習する2つの自己教師型タスクを提案する。
エンティティレベルのマスキング言語モデルに基づいて、最初のコントリビューションはエンティティマスキングスキームです。
既存のパラダイムとは対照的に,本手法では事前学習時にのみ,知識グラフを暗黙的に使用する。
論文 参考訳(メタデータ) (2020-04-29T14:22:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。