論文の概要: Match, Compare, or Select? An Investigation of Large Language Models for Entity Matching
- arxiv url: http://arxiv.org/abs/2405.16884v1
- Date: Mon, 27 May 2024 07:05:27 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-28 16:41:02.726334
- Title: Match, Compare, or Select? An Investigation of Large Language Models for Entity Matching
- Title(参考訳): Match, Compare, Select? エンティティマッチングのための大規模言語モデルの検討
- Authors: Tianshu Wang, Hongyu Lin, Xiaoyang Chen, Xianpei Han, Hao Wang, Zhenyu Zeng, Le Sun,
- Abstract要約: 複数戦略と大規模言語モデル(LLM)の合成を利用するコンポジションエンティティマッチング(ComEM)フレームワークを提案する。
ComEMは様々なデータセットで大幅なパフォーマンス向上を実現しているが、現実のアプリケーションではLCMベースのエンティティマッチングのコストも低減している。
- 参考スコア(独自算出の注目度): 47.009638761948466
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity matching (EM) is a critical step in entity resolution. Recently, entity matching based on large language models (LLMs) has shown great promise. However, current LLM-based entity matching approaches typically follow a binary matching paradigm that ignores the global consistency between different records. In this paper, we investigate various methodologies for LLM-based entity matching that incorporate record interactions from different perspectives. Specifically, we comprehensively compare three representative strategies: matching, comparing, and selecting, and analyze their respective advantages and challenges in diverse scenarios. Based on our findings, we further design a compositional entity matching (ComEM) framework that leverages the composition of multiple strategies and LLMs. In this way, ComEM can benefit from the advantages of different sides and achieve improvements in both effectiveness and efficiency. Experimental results show that ComEM not only achieves significant performance gains on various datasets but also reduces the cost of LLM-based entity matching in real-world application.
- Abstract(参考訳): エンティティマッチング(EM)は、エンティティ解決における重要なステップである。
近年,大規模言語モデル (LLM) に基づくエンティティマッチングは大きな可能性を秘めている。
しかしながら、現在のLLMベースのエンティティマッチングアプローチは、通常、異なるレコード間のグローバルな一貫性を無視したバイナリマッチングパラダイムに従う。
本稿では,異なる視点からのレコードインタラクションを組み込んだLCMに基づくエンティティマッチング手法について検討する。
具体的には、マッチング、比較、選択の3つの代表的な戦略を総合的に比較し、多様なシナリオにおけるそれぞれの利点と課題を分析します。
そこで本研究では,複数の戦略とLCMの合成を利用するコンポジションエンティティマッチング(ComEM)フレームワークをさらに設計する。
このように、ComEMは異なる側面の利点の恩恵を受けることができ、効率性と効率性の両方の改善を達成できます。
実験結果から,ComEMは各種データセットの性能向上を達成できるだけでなく,実世界のアプリケーションにおけるLCMベースのエンティティマッチングのコストを低減できることがわかった。
関連論文リスト
- Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Towards a Unified View of Preference Learning for Large Language Models: A Survey [88.66719962576005]
大きな言語モデル(LLM)は、非常に強力な能力を示す。
成功するための重要な要因の1つは、LLMの出力を人間の好みに合わせることである。
選好学習のすべての戦略を、モデル、データ、フィードバック、アルゴリズムの4つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-09-04T15:11:55Z) - LLM with Relation Classifier for Document-Level Relation Extraction [25.587850398830252]
大規模言語モデル(LLM)は、自然言語処理のための新しいパラダイムを作成する。
本稿では,この性能ギャップの原因を考察し,関係のないエンティティペアによるLCMによる注意の分散を主要因とする。
DocREベンチマーク実験により,本手法は最近のLCMベースのDocREモデルよりも大幅に優れており,従来のDocREモデルと競合する性能を実現していることが明らかとなった。
論文 参考訳(メタデータ) (2024-08-25T16:43:19Z) - DaRec: A Disentangled Alignment Framework for Large Language Model and Recommender System [83.34921966305804]
大規模言語モデル (LLM) はレコメンデーションシステムにおいて顕著な性能を示した。
LLMと協調モデルのための新しいプラグ・アンド・プレイアライメントフレームワークを提案する。
我々の手法は既存の最先端アルゴリズムよりも優れている。
論文 参考訳(メタデータ) (2024-08-15T15:56:23Z) - Synergetic Event Understanding: A Collaborative Approach to Cross-Document Event Coreference Resolution with Large Language Models [41.524192769406945]
クロスドキュメントイベントコア参照解決(CDECR)では、複数のドキュメントにまたがって、同じ実世界のイベントを参照するイベントをクラスタリングする。
既存のアプローチでは、イベント参照のコンテキスト間の互換性に対処するために、小さな言語モデル(SLM)の微調整を利用している。
本稿では,CDECR の協調的アプローチを提案し,汎用性のある LLM とタスク固有の SLM の両機能を活用している。
論文 参考訳(メタデータ) (2024-06-04T09:35:47Z) - Two Heads Are Better Than One: Integrating Knowledge from Knowledge
Graphs and Large Language Models for Entity Alignment [31.70064035432789]
LLMEA(Large Language Model-enhanced Entity Alignment Framework)を提案する。
LLMEAは、知識グラフにまたがるエンティティ間の類似性を埋め込んだり、仮想の等価エンティティとの距離を編集することで、特定のエンティティの候補アライメントを識別する。
3つの公開データセットで実施された実験により、LLMEAが主要なベースラインモデルを上回ることが判明した。
論文 参考訳(メタデータ) (2024-01-30T12:41:04Z) - Entity Matching using Large Language Models [3.7277730514654555]
本稿では, PLM ベースのマーカに代わる, タスク固有の訓練データ依存モデルとして, LLM (Generative Large Language Model) を用いて検討する。
GPT4は一致判定のための構造化された説明を生成でき、一致した誤りの原因を自動的に特定できることを示す。
論文 参考訳(メタデータ) (2023-10-17T13:12:32Z) - LLM-Blender: Ensembling Large Language Models with Pairwise Ranking and
Generative Fusion [33.73671362609599]
私たちのフレームワークはPairRankerとGenFuserの2つのモジュールで構成されています。
PairRankerは、候補出力間の微妙な違いを区別するために、特殊なペアワイズ比較手法を使用している。
GenFuserは、上位候補をマージし、改善されたアウトプットを生成することを目的としている。
論文 参考訳(メタデータ) (2023-06-05T03:32:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。