論文の概要: Empirical Evaluation of Pretraining Strategies for Supervised Entity
Linking
- arxiv url: http://arxiv.org/abs/2005.14253v1
- Date: Thu, 28 May 2020 19:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:35:15.694849
- Title: Empirical Evaluation of Pretraining Strategies for Supervised Entity
Linking
- Title(参考訳): 教師付きエンティティリンクのための事前学習戦略の実証評価
- Authors: Thibault F\'evry, Nicholas FitzGerald, Livio Baldini Soares, Tom
Kwiatkowski
- Abstract要約: 本稿では、Transformerアーキテクチャとウィキペディアリンクからの大規模事前学習を組み合わせたエンティティリンクモデルを提案する。
我々のモデルは、CoNLLの96.7%、TAC-KBPの94.9%という2つの一般的なエンティティリンクデータセットの最先端を実現する。
- 参考スコア(独自算出の注目度): 10.66251816212639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present an entity linking model which combines a Transformer
architecture with large scale pretraining from Wikipedia links. Our model
achieves the state-of-the-art on two commonly used entity linking datasets:
96.7% on CoNLL and 94.9% on TAC-KBP. We present detailed analyses to understand
what design choices are important for entity linking, including choices of
negative entity candidates, Transformer architecture, and input perturbations.
Lastly, we present promising results on more challenging settings such as
end-to-end entity linking and entity linking without in-domain training data.
- Abstract(参考訳): 本稿では,TransformerアーキテクチャとWikipediaリンクからの大規模事前学習を組み合わせたエンティティリンクモデルを提案する。
我々のモデルは、CoNLLの96.7%、TAC-KBPの94.9%という2つの一般的なエンティティリンクデータセットの最先端を実現する。
本稿では, 否定的エンティティ候補の選択, トランスフォーマーアーキテクチャ, 入力摂動を含む, エンティティリンクにおける設計選択の重要性を明らかにする。
最後に、ドメイン内のトレーニングデータを使わずに、エンドツーエンドのエンティティリンクやエンティティリンクのようなより困難な設定に関する有望な結果を示す。
関連論文リスト
- OneNet: A Fine-Tuning Free Framework for Few-Shot Entity Linking via Large Language Model Prompting [49.655711022673046]
OneNetは、大規模言語モデル(LLM)の少数ショット学習機能を利用する革新的なフレームワークで、微調整は不要である。
1)無関係なエンティティを要約してフィルタリングすることで入力を単純化するエンティティリダクションプロセッサ,(2)コンテキスト的キューと事前知識を組み合わせて正確なエンティティリンクを行うデュアルパースペクティブエンティティリンカ,(3)エンティティリンク推論における幻覚を緩和するユニークな一貫性アルゴリズムを利用するエンティティコンセンサス判定器,である。
論文 参考訳(メタデータ) (2024-10-10T02:45:23Z) - Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Learning to Extract Structured Entities Using Language Models [52.281701191329]
機械学習の最近の進歩は、情報抽出の分野に大きな影響を与えている。
タスクをエンティティ中心にすることで、さまざまなメトリクスの使用を可能にします。
我々は、Structured Entity extractを導入し、Adroximate Entity Set OverlaPメトリックを提案し、この分野にコントリビュートします。
論文 参考訳(メタデータ) (2024-02-06T22:15:09Z) - SpEL: Structured Prediction for Entity Linking [5.112679200269861]
我々は,個々の入力トークンをエンティティとして分類するエンティティリンクの構造化予測の利用を再検討し,トークン予測を集約する。
我々のシステムであるSpELは最先端のエンティティリンクシステムであり、いくつかの新しいアイデアを用いてエンティティリンクのタスクに構造化予測を適用する。
実験の結果,WikipediaへのエンティティリンクのためのAIDAベンチマークデータセットでは,最先端のAIDAよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-23T08:24:35Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z) - End-to-End Hierarchical Relation Extraction for Generic Form
Understanding [0.6299766708197884]
本稿では,エンティティ検出とリンク予測を併用する新しいディープニューラルネットワークを提案する。
本モデルでは,複数段階の意図的U-Netアーキテクチャを拡張し,リンク予測のための部分強度場と部分連想場を拡張した。
本稿では,ノイズの多い文書データセットの形式理解におけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-06-02T06:51:35Z) - Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas [31.154104663488358]
エンティティリンクでは、原文中の名前付きエンティティの言及は知識ベース(KB)に対して曖昧にされる
この研究は、トレーニングデータがなく、トレーニング中にスキーマが不明な未確認KBへのリンクに焦点を当てている。
このアプローチは、いくつかの属性値対を持つ任意のKBからフラット文字列へのエンティティのフレキシブルな変換法に依存している。
論文 参考訳(メタデータ) (2020-10-21T22:07:31Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。