論文の概要: ChatEL: Entity Linking with Chatbots
- arxiv url: http://arxiv.org/abs/2402.14858v1
- Date: Tue, 20 Feb 2024 20:52:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-03 19:29:49.191394
- Title: ChatEL: Entity Linking with Chatbots
- Title(参考訳): ChatEL: Chatbotとのエンティティリンク
- Authors: Yifan Ding and Qingkai Zeng and Tim Weninger
- Abstract要約: ChatELは、大規模言語モデルに正確な結果を返すための3段階のフレームワークである。
全体として、ChatELフレームワークは10データセットの平均F1パフォーマンスを2%以上改善している。
- 参考スコア(独自算出の注目度): 11.944348800783834
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Entity Linking (EL) is an essential and challenging task in natural language
processing that seeks to link some text representing an entity within a
document or sentence with its corresponding entry in a dictionary or knowledge
base. Most existing approaches focus on creating elaborate contextual models
that look for clues the words surrounding the entity-text to help solve the
linking problem. Although these fine-tuned language models tend to work, they
can be unwieldy, difficult to train, and do not transfer well to other domains.
Fortunately, Large Language Models (LLMs) like GPT provide a highly-advanced
solution to the problems inherent in EL models, but simply naive prompts to
LLMs do not work well. In the present work, we define ChatEL, which is a
three-step framework to prompt LLMs to return accurate results. Overall the
ChatEL framework improves the average F1 performance across 10 datasets by more
than 2%. Finally, a thorough error analysis shows many instances with the
ground truth labels were actually incorrect, and the labels predicted by ChatEL
were actually correct. This indicates that the quantitative results presented
in this paper may be a conservative estimate of the actual performance. All
data and code are available as an open-source package on GitHub at
https://github.com/yifding/In_Context_EL.
- Abstract(参考訳): エンティティリンク(EL)は自然言語処理において必須かつ困難なタスクであり、文書や文内のエンティティを表すテキストを辞書や知識ベースで対応するエントリにリンクしようとするものである。
既存のアプローチのほとんどは、リンク問題を解決するためにエンティティテキストを取り巻く単語の手がかりを探す、複雑なコンテキストモデルの作成に焦点を当てている。
これらの微調整された言語モデルは機能する傾向がありますが、扱いにくく、訓練が困難で、他のドメインにうまく転送できません。
幸いなことに、GPTのようなLarge Language Models (LLMs) はELモデルに固有の問題に対する高度な解決策を提供するが、単にLLMへのナイーブなプロンプトはうまく機能しない。
本稿では,LSMに正確な結果を返すための3段階のフレームワークであるChatELを定義する。
全体として、ChatELフレームワークは10データセットの平均F1パフォーマンスを2%以上改善している。
最後に、徹底的なエラー解析により、基礎となる真理ラベルを持つ多くのケースは実際には誤りであり、ChatELによって予測されたラベルは実際に正しいことが分かる。
このことは,本論文で提示された定量的な結果は,実際の性能を控えめに見積もったものと考えられる。
すべてのデータとコードはGitHubのhttps://github.com/yifding/In_Context_ELで公開されている。
関連論文リスト
- Idiosyncrasies in Large Language Models [54.26923012617675]
大規模言語モデル(LLM)における慣用句の公開と研究
LLM生成テキスト上に既存のテキスト埋め込みモデルを微調整することで、優れた分類精度が得られることが判明した。
我々はLLMを審査員として利用し、各モデルの慣用句の詳細かつオープンな記述を生成する。
論文 参考訳(メタデータ) (2025-02-17T18:59:02Z) - Harnessing Large Language Models for Knowledge Graph Question Answering via Adaptive Multi-Aspect Retrieval-Augmentation [81.18701211912779]
本稿では,KG(Amar)フレームワーク上での適応型マルチアスペクト検索手法を提案する。
この方法は、エンティティ、リレーション、サブグラフを含む知識を検索し、検索した各テキストを即時埋め込みに変換する。
提案手法は2つの共通データセットに対して最先端の性能を達成した。
論文 参考訳(メタデータ) (2024-12-24T16:38:04Z) - Learning to Reduce: Optimal Representations of Structured Data in
Prompting Large Language Models [42.16047343029512]
大規模言語モデル(LLM)は汎用AIエージェントとして広く利用されている。
本稿では,入力コンテキストの縮小バージョンを生成するために,言語モデルを微調整するフレームワークであるLearning to Reduceを提案する。
入力コンテキストから関連する証拠を選択する際に,本モデルが同等の精度を達成することを示す。
論文 参考訳(メタデータ) (2024-02-22T00:41:23Z) - EntGPT: Linking Generative Large Language Models with Knowledge Bases [8.557683104631883]
ELタスクの強化に先進的なプロンプトエンジニアリングを採用したEntGPTを導入する。
この3段階のハードプロンプト法(EntGPT-P)は,バニラプロンプトよりもマイクロF_1スコアを最大36%向上させる。
命令チューニング手法EntGPT-I(EntGPT-I)は,教師付きELタスクの平均2.1%のマイクロF_1スコアを改善する。
論文 参考訳(メタデータ) (2024-02-09T19:16:27Z) - SeqGPT: An Out-of-the-box Large Language Model for Open Domain Sequence
Understanding [103.34092301324425]
大規模言語モデル(LLM)は、オープンドメインのNLPタスクに顕著な能力を示している。
本稿では、オープンドメインの自然言語理解に特化して強化された、バイリンガル(英語と中国語)のオープンソース自己回帰モデルSeqGPTを提案する。
論文 参考訳(メタデータ) (2023-08-21T07:31:19Z) - Can Large Language Models Infer Causation from Correlation? [104.96351414570239]
大規模言語モデル(LLM)の純粋因果推論スキルをテストする。
相関文の集合を取り、変数間の因果関係を決定する新しいタスクCorr2Causeを定式化する。
これらのモデルがタスクのランダムな性能にほぼ近い結果が得られることを示す。
論文 参考訳(メタデータ) (2023-06-09T12:09:15Z) - Ensemble Transfer Learning for Multilingual Coreference Resolution [60.409789753164944]
非英語で作業する場合に頻繁に発生する問題は、注釈付きトレーニングデータの不足である。
我々は,様々なトランスファー学習技術を組み合わせた,シンプルだが効果的なアンサンブルベースのフレームワークを設計する。
また、ウィキペディアアンカーテキストを利用して、コア参照解決モデルをブートストラップする低コストのTL手法を提案する。
論文 参考訳(メタデータ) (2023-01-22T18:22:55Z) - P-Adapters: Robustly Extracting Factual Information from Language Models
with Diverse Prompts [7.657992756210283]
埋め込み層と大規模言語モデルの第一の注意層の間に位置する軽量モデルであるP-Adaptersを紹介します。
LLMの埋め込みを入力とし、LLMに問い合わせるのに使用される連続的なプロンプトを出力する。
それらは、一貫性の12~26%の絶対的な改善と、自然言語クエリのみを使用するベースラインよりも36~50%の精度の絶対的な改善を示す。
論文 参考訳(メタデータ) (2021-10-14T11:32:22Z) - Multilingual Autoregressive Entity Linking [49.35994386221958]
mGENREはMultilingual Entity Linking問題のためのシーケンス対シーケンスシステムである。
与えられた言語で言及すると、mGENREはターゲットエンティティの名前を左から右へ、トークンごとに予測します。
提案手法の有効性を3つのMELベンチマーク実験を含む広範囲な評価により示す。
論文 参考訳(メタデータ) (2021-03-23T13:25:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。