論文の概要: Empirical Evaluation of Pretraining Strategies for Supervised Entity
Linking
- arxiv url: http://arxiv.org/abs/2005.14253v1
- Date: Thu, 28 May 2020 19:32:52 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-27 04:35:15.694849
- Title: Empirical Evaluation of Pretraining Strategies for Supervised Entity
Linking
- Title(参考訳): 教師付きエンティティリンクのための事前学習戦略の実証評価
- Authors: Thibault F\'evry, Nicholas FitzGerald, Livio Baldini Soares, Tom
Kwiatkowski
- Abstract要約: 本稿では、Transformerアーキテクチャとウィキペディアリンクからの大規模事前学習を組み合わせたエンティティリンクモデルを提案する。
我々のモデルは、CoNLLの96.7%、TAC-KBPの94.9%という2つの一般的なエンティティリンクデータセットの最先端を実現する。
- 参考スコア(独自算出の注目度): 10.66251816212639
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we present an entity linking model which combines a Transformer
architecture with large scale pretraining from Wikipedia links. Our model
achieves the state-of-the-art on two commonly used entity linking datasets:
96.7% on CoNLL and 94.9% on TAC-KBP. We present detailed analyses to understand
what design choices are important for entity linking, including choices of
negative entity candidates, Transformer architecture, and input perturbations.
Lastly, we present promising results on more challenging settings such as
end-to-end entity linking and entity linking without in-domain training data.
- Abstract(参考訳): 本稿では,TransformerアーキテクチャとWikipediaリンクからの大規模事前学習を組み合わせたエンティティリンクモデルを提案する。
我々のモデルは、CoNLLの96.7%、TAC-KBPの94.9%という2つの一般的なエンティティリンクデータセットの最先端を実現する。
本稿では, 否定的エンティティ候補の選択, トランスフォーマーアーキテクチャ, 入力摂動を含む, エンティティリンクにおける設計選択の重要性を明らかにする。
最後に、ドメイン内のトレーニングデータを使わずに、エンドツーエンドのエンティティリンクやエンティティリンクのようなより困難な設定に関する有望な結果を示す。
関連論文リスト
- SpEL: Structured Prediction for Entity Linking [5.112679200269861]
我々は,個々の入力トークンをエンティティとして分類するエンティティリンクの構造化予測の利用を再検討し,トークン予測を集約する。
我々のシステムであるSpELは最先端のエンティティリンクシステムであり、いくつかの新しいアイデアを用いてエンティティリンクのタスクに構造化予測を適用する。
実験の結果,WikipediaへのエンティティリンクのためのAIDAベンチマークデータセットでは,最先端のAIDAよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-10-23T08:24:35Z) - Zero-shot Composed Text-Image Retrieval [72.43790281036584]
合成画像検索(CIR)の問題点を考察する。
テキストや画像などのマルチモーダル情報を融合し、クエリにマッチする画像を正確に検索し、ユーザの表現能力を拡張できるモデルをトレーニングすることを目的としている。
論文 参考訳(メタデータ) (2023-06-12T17:56:01Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Entity-Graph Enhanced Cross-Modal Pretraining for Instance-level Product
Retrieval [152.3504607706575]
本研究の目的は, 細粒度製品カテゴリを対象とした, 弱制御型マルチモーダル・インスタンスレベルの製品検索である。
まず、Product1Mデータセットをコントリビュートし、2つの実際のインスタンスレベルの検索タスクを定義します。
我々は、マルチモーダルデータから重要な概念情報を組み込むことができるより効果的なクロスモーダルモデルを訓練するために活用する。
論文 参考訳(メタデータ) (2022-06-17T15:40:45Z) - Informed Multi-context Entity Alignment [27.679124991733907]
Informed Multi-context Entity Alignment (IMEA)モデルを提案する。
特にTransformerを導入し、関係、経路、近傍のコンテキストを柔軟にキャプチャする。
総論的推論は、埋め込み類似性と関係性/整合性の両方の機能に基づいてアライメント確率を推定するために用いられる。
いくつかのベンチマークデータセットの結果は、既存の最先端エンティティアライメント手法と比較して、IMEAモデルの優位性を示している。
論文 参考訳(メタデータ) (2022-01-02T06:29:30Z) - Semantic Correspondence with Transformers [68.37049687360705]
本稿では,変換器を用いたコストアグリゲーション(CAT)を提案し,意味論的に類似した画像間の密接な対応を見出す。
初期相関マップと多レベルアグリゲーションを曖昧にするための外観親和性モデリングを含む。
提案手法の有効性を示す実験を行い,広範囲にわたるアブレーション研究を行った。
論文 参考訳(メタデータ) (2021-06-04T14:39:03Z) - End-to-End Hierarchical Relation Extraction for Generic Form
Understanding [0.6299766708197884]
本稿では,エンティティ検出とリンク予測を併用する新しいディープニューラルネットワークを提案する。
本モデルでは,複数段階の意図的U-Netアーキテクチャを拡張し,リンク予測のための部分強度場と部分連想場を拡張した。
本稿では,ノイズの多い文書データセットの形式理解におけるモデルの有効性を示す。
論文 参考訳(メタデータ) (2021-06-02T06:51:35Z) - Linking Entities to Unseen Knowledge Bases with Arbitrary Schemas [31.154104663488358]
エンティティリンクでは、原文中の名前付きエンティティの言及は知識ベース(KB)に対して曖昧にされる
この研究は、トレーニングデータがなく、トレーニング中にスキーマが不明な未確認KBへのリンクに焦点を当てている。
このアプローチは、いくつかの属性値対を持つ任意のKBからフラット文字列へのエンティティのフレキシブルな変換法に依存している。
論文 参考訳(メタデータ) (2020-10-21T22:07:31Z) - HittER: Hierarchical Transformers for Knowledge Graph Embeddings [85.93509934018499]
複雑な知識グラフにおける実体と関係の表現を学習するためにHittを提案する。
実験結果から,Hittは複数リンク予測において最先端の新たな結果が得られることがわかった。
さらに,HittをBERTに統合する簡単なアプローチを提案し,その効果を2つのFreebaseファクトイド対応データセットで示す。
論文 参考訳(メタデータ) (2020-08-28T18:58:15Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。