論文の概要: Knowledge-Rich Self-Supervised Entity Linking
- arxiv url: http://arxiv.org/abs/2112.07887v1
- Date: Wed, 15 Dec 2021 05:05:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-16 14:49:05.428783
- Title: Knowledge-Rich Self-Supervised Entity Linking
- Title(参考訳): 知識豊富な自己教師付きエンティティリンク
- Authors: Sheng Zhang, Hao Cheng, Shikhar Vashishth, Cliff Wong, Jinfeng Xiao,
Xiaodong Liu, Tristan Naumann, Jianfeng Gao, Hoifung Poon
- Abstract要約: Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
- 参考スコア(独自算出の注目度): 58.838404666183656
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Entity linking faces significant challenges, such as prolific variations and
prevalent ambiguities, especially in high-value domains with myriad entities.
Standard classification approaches suffer from the annotation bottleneck and
cannot effectively handle unseen entities. Zero-shot entity linking has emerged
as a promising direction for generalizing to new entities, but it still
requires example gold entity mentions during training and canonical
descriptions for all entities, both of which are rarely available outside of
Wikipedia. In this paper, we explore Knowledge-RIch Self-Supervision ($\tt
KRISS$) for entity linking, by leveraging readily available domain knowledge.
In training, it generates self-supervised mention examples on unlabeled text
using a domain ontology and trains a contextual encoder using contrastive
learning. For inference, it samples self-supervised mentions as prototypes for
each entity and conducts linking by mapping the test mention to the most
similar prototype. Our approach subsumes zero-shot and few-shot methods, and
can easily incorporate entity descriptions and gold mention labels if
available. Using biomedicine as a case study, we conducted extensive
experiments on seven standard datasets spanning biomedical literature and
clinical notes. Without using any labeled information, our method produces $\tt
KRISSBERT$, a universal entity linker for four million UMLS entities, which
attains new state of the art, outperforming prior self-supervised methods by as
much as over 20 absolute points in accuracy.
- Abstract(参考訳): エンティティリンクは多彩なバリエーションや一般的な曖昧さ、特に無数のエンティティを持つ高価値ドメインなど、大きな課題に直面している。
標準的な分類アプローチは、アノテーションのボトルネックに悩まされ、見えないエンティティを効果的に処理できない。
ゼロショットエンティティリンクは、新しいエンティティに一般化するための有望な方向として現れてきたが、トレーニング中のゴールドエンティティ参照やすべてのエンティティの標準記述の例が必要であり、どちらもwikipedia以外ではめったに利用できない。
本稿では、容易に利用可能なドメイン知識を活用して、エンティティリンクのための知識豊富な自己スーパービジョン($\tt kriss$)について検討する。
トレーニングでは、ドメインオントロジーを用いてラベルなしテキストの自己教師付き言及例を生成し、コントラスト学習を用いて文脈エンコーダを訓練する。
推論では、各エンティティのプロトタイプとして自己教師付き参照をサンプリングし、テスト参照を最も類似したプロトタイプにマッピングしてリンクする。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
バイオメディシンをケーススタディとして,生体医学文献と臨床ノートにまたがる7つの標準データセットについて広範な実験を行った。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$\tt KRISSBERT$を生成し,20以上の絶対点の精度で従来の自己管理手法よりも優れていた。
関連論文リスト
- Entity Disambiguation via Fusion Entity Decoding [68.77265315142296]
より詳細なエンティティ記述を持つエンティティを曖昧にするためのエンコーダ・デコーダモデルを提案する。
GERBILベンチマークでは、EntQAと比較して、エンド・ツー・エンドのエンティティリンクが+1.5%改善されている。
論文 参考訳(メタデータ) (2024-04-02T04:27:54Z) - Seed-Guided Fine-Grained Entity Typing in Science and Engineering
Domains [51.02035914828596]
科学・工学分野において,シード誘導型細粒度エンティティタイピングの課題について検討する。
まず、ラベルのないコーパスから各タイプのエンティティを抽出し、弱い監視力を高めるSETypeを提案する。
そして、リッチなエンティティをラベルなしのテキストにマッチさせ、擬似ラベル付きサンプルを取得し、見知らぬ型と見えない型の両方に推論できるテキストエンテリメントモデルを訓練する。
論文 参考訳(メタデータ) (2024-01-23T22:36:03Z) - Partial Annotation Learning for Biomedical Entity Recognition [0.19336815376402716]
部分的アノテーション学習法は, 実体アノテーションの欠如により, バイオメディカルコーパスから効果的に学習できることが示唆された。
提案手法は代替品よりも優れており,特にPubMedBERTタグをF1スコアで38%向上させる。
論文 参考訳(メタデータ) (2023-05-22T15:18:38Z) - Modeling Entities as Semantic Points for Visual Information Extraction
in the Wild [55.91783742370978]
文書画像から鍵情報を正確かつ堅牢に抽出する手法を提案する。
我々は、エンティティを意味的ポイントとして明示的にモデル化する。つまり、エンティティの中心点は、異なるエンティティの属性と関係を記述する意味情報によって豊かになる。
提案手法は,従来の最先端モデルと比較して,エンティティラベルとリンクの性能を著しく向上させることができる。
論文 参考訳(メタデータ) (2023-03-23T08:21:16Z) - Improving Entity Linking through Semantic Reinforced Entity Embeddings [16.868791358905916]
そこで本稿では, コンテキスト共通性の学習を容易にするため, 実体埋め込みに微粒な意味情報を注入する手法を提案する。
エンティティの埋め込みに基づいて、エンティティリンクにおける最先端のパフォーマンスを新たに達成しました。
論文 参考訳(メタデータ) (2021-06-16T00:27:56Z) - KGSynNet: A Novel Entity Synonyms Discovery Framework with Knowledge
Graph [23.053995137917994]
emphKGSynNetという新しいエンティティ同義語発見フレームワークを提案する。
具体的には、大規模なドメイン固有コーパスを用いて、参照やエンティティのサブワード埋め込みを事前訓練する。
固有設計のエンフュージョンゲートを用いて、エンティティの知識情報をセマンティックな特徴に適応的に吸収する。
論文 参考訳(メタデータ) (2021-03-16T07:32:33Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z) - Interpretable Entity Representations through Large-Scale Typing [61.4277527871572]
本稿では,人間の読みやすいエンティティ表現を作成し,箱から高パフォーマンスを実現する手法を提案する。
我々の表現は、微粒な実体型に対する後続確率に対応するベクトルである。
特定のドメインに対して,学習に基づく方法で,型セットのサイズを縮小できることを示す。
論文 参考訳(メタデータ) (2020-04-30T23:58:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。