論文の概要: Entity Matching using Large Language Models
- arxiv url: http://arxiv.org/abs/2310.11244v2
- Date: Thu, 1 Feb 2024 19:05:44 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-05 19:42:12.905972
- Title: Entity Matching using Large Language Models
- Title(参考訳): 大規模言語モデルを用いたエンティティマッチング
- Authors: Ralph Peeters, Christian Bizer
- Abstract要約: 最先端のエンティティマッチング手法は、BERTやRoBERTaのような事前訓練された言語モデル(PLM)に依存している。
エンティティマッチングにおけるこれらのモデルの2つの大きな欠点は、(i)モデルがタスク固有のトレーニングデータを必要とすることと、(ii)微調整されたモデルが、アウト・オブ・ディストリビューション・エンティティに関して堅牢でないことである。
PLMベースのマーカに代えて,よりタスク依存の訓練データとして,生成的大規模言語モデル(LLM)をエンティティマッチングに使用することを検討する。
- 参考スコア(独自算出の注目度): 4.94950858749529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity Matching is the task of deciding whether two entity descriptions refer
to the same real-world entity. It is a central step in most data integration
pipelines and an enabler for many e-commerce applications which require to
match products offers from different vendors. State-of-the-art entity matching
methods rely on pre-trained language models (PLMs) such as BERT or RoBERTa. Two
major drawbacks of these models for entity matching are that (i) the models
require significant amounts of task-specific training data and (ii) the
fine-tuned models are not robust concerning out-of-distribution entities. We
investigate using generative large language models (LLMs) for entity matching
as a less task-specific training data dependent and more robust alternative to
PLM-based matchers. Our study covers hosted LLMs as well as open-source LLMs
which can be run locally. We evaluate these models in a zero-shot scenario as
well as a scenario where task-specific training data is available. We compare
different prompt designs as well as the prompt sensitivity of the models and
show that there is no single best prompt but the prompt is akin to a
hyperparameter that needs to be estimated for each model/dataset combination.
We further investigate (i) the selection of in-context demonstrations, (ii) the
generation of matching rules, as well as (iii) fine-tuning a hosted LLM using
the same pool of training data. Our experiments show that the best LLMs require
no or only a few training examples to reach a similar performance as fine-tuned
PLMs. They further exhibit a higher robustness to unseen entities, which makes
them especially suited to use cases where no training data is available. We
show that for use cases that do not allow data to be shared with third parties,
open-source LLMs can be a viable alternative to hosted LLMs given that a small
amount of training data or matching knowledge...
- Abstract(参考訳): エンティティマッチングは、2つのエンティティ記述が同じ現実世界のエンティティを指すかどうかを決定するタスクである。
これは、ほとんどのデータ統合パイプラインにおける中心的なステップであり、異なるベンダーの製品にマッチする必要がある多くのEコマースアプリケーションのためのイネーブラーである。
最先端のエンティティマッチング手法は、BERTやRoBERTaのような事前訓練された言語モデル(PLM)に依存している。
エンティティマッチングのためのこれらのモデルの2つの大きな欠点は
一 相当量のタスク特化訓練データを必要とするモデル
(ii) 細調整されたモデルは分布外エンティティに関して堅牢ではない。
PLMベースのマーカに代えて,よりタスク依存の訓練データとして,生成的大規模言語モデル(LLM)をエンティティマッチングに使用することを検討する。
本研究は,LLMのホストと,ローカルで実行できるオープンソースのLLMについて報告する。
タスク固有のトレーニングデータが利用可能なシナリオと同様に、ゼロショットシナリオでこれらのモデルを評価する。
異なるプロンプト設計とモデルの迅速な感度を比較し、最良のプロンプトは存在しないが、そのプロンプトはモデル/データセットの組み合わせごとに推定される必要のあるハイパーパラメータに類似していることを示す。
我々はさらに調査する
(i)文脈内デモの選択。
(二)一致規則の生成及び一致規則
三 同じトレーニングデータのプールを用いてホストLDMを微調整すること。
実験の結果,最高のLPMは微調整PLMと同じような性能を達成するために,訓練例をほとんど必要としないことがわかった。
さらに、見えないエンティティに対する堅牢性も高く、トレーニングデータが利用できないユースケースに特に適しています。
サードパーティとデータを共有できないユースケースでは、少量のトレーニングデータや知識の一致を前提として、オープンソースのLLMが、ホストされたLLMの代替となる可能性がある。
関連論文リスト
- Matchmaker: Self-Improving Large Language Model Programs for Schema Matching [60.23571456538149]
本稿では,スキーママッチングのための合成言語モデルプログラムを提案する。
Matchmakerは、ラベル付きデモを必要とせずに、ゼロショットで自己改善する。
実証的に、Matchmakerが以前のMLベースのアプローチより優れている実世界の医療スキーママッチングベンチマークを実証する。
論文 参考訳(メタデータ) (2024-10-31T16:34:03Z) - Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Less is More: Making Smaller Language Models Competent Subgraph Retrievers for Multi-hop KGQA [51.3033125256716]
本研究では,小言語モデルで処理される条件生成タスクとして,サブグラフ検索タスクをモデル化する。
2億2千万のパラメータからなる基本生成部分グラフ検索モデルでは,最先端モデルと比較して競合検索性能が向上した。
LLMリーダを接続した最大の3Bモデルは、WebQSPとCWQベンチマークの両方で、SOTAのエンドツーエンドパフォーマンスを新たに設定します。
論文 参考訳(メタデータ) (2024-10-08T15:22:36Z) - Fine-tuning Large Language Models for Entity Matching [3.7277730514654555]
生成型大規模言語モデル(LLM)は、エンティティマッチングのための事前訓練された言語モデルに代わる有望な代替品である。
本稿では,エンティティマッチングのための微調整LDMの可能性について検討する。
論文 参考訳(メタデータ) (2024-09-12T16:20:57Z) - Learning from Natural Language Explanations for Generalizable Entity Matching [19.978468744557173]
バイナリ分類とは対照的に、条件生成タスクとしてエンティティマッチングを再キャストする。
これにより、LLM推論を自然言語による説明を通じて、より小さなエンティティマッチングモデルに分割することが可能になる。
論文 参考訳(メタデータ) (2024-06-13T17:08:58Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - TAT-LLM: A Specialized Language Model for Discrete Reasoning over Tabular and Textual Data [73.29220562541204]
我々は,言語モデル(LLM)の驚くべきパワーを活用して課題を解決することを検討する。
LLaMA2を微調整し,既存のエキスパートアノテートデータセットから自動生成したトレーニングデータを用いてTAT-LLM言語モデルを開発する。
論文 参考訳(メタデータ) (2024-01-24T04:28:50Z) - LLM-augmented Preference Learning from Natural Language [19.700169351688768]
大規模言語モデル(LLM)は、より大きな文脈長を扱う。
LLM は、ターゲットテキストが大きければ SotA を一貫して上回る。
ゼロショット学習よりもパフォーマンスが向上する。
論文 参考訳(メタデータ) (2023-10-12T17:17:27Z) - Adapting Large Language Models for Content Moderation: Pitfalls in Data
Engineering and Supervised Fine-tuning [79.53130089003986]
大規模言語モデル(LLM)は、様々なドメインでタスクを処理するための実現可能なソリューションとなっている。
本稿では、コンテンツモデレーションのためにプライベートにデプロイ可能なLLMモデルを微調整する方法を紹介する。
論文 参考訳(メタデータ) (2023-10-05T09:09:44Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。