論文の概要: A Lightweight Neural Model for Biomedical Entity Linking
- arxiv url: http://arxiv.org/abs/2012.08844v1
- Date: Wed, 16 Dec 2020 10:34:37 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 08:27:07.149159
- Title: A Lightweight Neural Model for Biomedical Entity Linking
- Title(参考訳): 生体エンティティリンクのための軽量ニューラルネットワークモデル
- Authors: Lihu Chen, Ga\"el Varoquaux, Fabian M. Suchanek
- Abstract要約: 本論文では,生物医学的実体連携のための軽量ニューラル手法を提案する。
本手法では,アライメント層とアライメント機構を用いて参照とエンティティ名の違いをキャプチャする。
私達のモデルは標準的な評価のベンチマークの前の仕事と競争です。
- 参考スコア(独自算出の注目度): 1.8047694351309205
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Biomedical entity linking aims to map biomedical mentions, such as diseases
and drugs, to standard entities in a given knowledge base. The specific
challenge in this context is that the same biomedical entity can have a wide
range of names, including synonyms, morphological variations, and names with
different word orderings. Recently, BERT-based methods have advanced the
state-of-the-art by allowing for rich representations of word sequences.
However, they often have hundreds of millions of parameters and require heavy
computing resources, which limits their applications in resource-limited
scenarios. Here, we propose a lightweight neural method for biomedical entity
linking, which needs just a fraction of the parameters of a BERT model and much
less computing resources. Our method uses a simple alignment layer with
attention mechanisms to capture the variations between mention and entity
names. Yet, we show that our model is competitive with previous work on
standard evaluation benchmarks.
- Abstract(参考訳): バイオメディカルエンティティリンク(biomedical entity link)は、病気や薬物などの生体医学的な言及を、与えられた知識ベースにおける標準的な実体にマッピングすることを目的としている。
この文脈における特定の課題は、同じ生物医学的実体が、同義語、形態的変異、異なる語順を持つ名前など、幅広い名前を持つことができることである。
近年,BERTに基づく手法は,単語列の表現をリッチにすることで最先端の手法が進歩している。
しかし、それらはしばしば数億のパラメータを持ち、重い計算リソースを必要とするため、リソース制限のシナリオでアプリケーションを制限する。
本稿では,bertモデルのパラメータのほんの一部しか必要とせず,計算資源もはるかに少ない生体エンティティリンクのための軽量ニューラルネットワークを提案する。
本手法では,アライメント層とアライメント機構を用いて参照とエンティティ名の違いをキャプチャする。
しかし,本モデルは,従来の標準評価ベンチマークと競合することを示した。
関連論文リスト
- Biomedical Entity Linking as Multiple Choice Question Answering [48.74212158495695]
本稿では,バイオメディカルエンティティリンクを複数問合せ回答として扱う新モデルであるBioELQAを提案する。
まず、高速検索器を用いて候補エンティティを取得し、生成器に参照と候補エンティティを共同で提示し、選択したエンティティに関連付けられた予測シンボルを出力する。
長い尾を持つエンティティの一般化を改善するため、類似したラベル付きトレーニングインスタンスを手がかりとして検索し、ジェネレータの検索インスタンスで入力する。
論文 参考訳(メタデータ) (2024-02-23T08:40:38Z) - Multi-level biomedical NER through multi-granularity embeddings and
enhanced labeling [3.8599767910528917]
本稿では,複数のモデルの強みを統合するハイブリッドアプローチを提案する。
BERTは、文脈化された単語の埋め込み、文字レベルの情報キャプチャのための事前訓練されたマルチチャネルCNN、およびテキスト内の単語間の依存関係のシーケンスラベリングとモデル化のためのBiLSTM + CRFを提供する。
我々は、ベンチマークi2b2/2010データセットを用いて、F1スコア90.11を達成する。
論文 参考訳(メタデータ) (2023-12-24T21:45:36Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - Bi-Encoders based Species Normalization -- Pairwise Sentence Learning to
Rank [0.0]
本稿では、名前付きエンティティ正規化のための新しい深層学習手法を提案し、問題をランク付けするペアワイズ学習として扱う。
本研究は,種の実体型に関する実験を行い,その手法を最先端技術に対して評価する。
論文 参考訳(メタデータ) (2023-10-22T17:30:16Z) - Biomedical Language Models are Robust to Sub-optimal Tokenization [30.175714262031253]
現代のバイオメディカル言語モデル(LM)は、標準的なドメイン固有のトークン化器を用いて事前訓練されている。
より正確なバイオメディカルトークン化器を用いたバイオメディカルLMの事前トレーニングでは,言語モデルの実体表現品質が向上しないことがわかった。
論文 参考訳(メタデータ) (2023-06-30T13:35:24Z) - Biomedical Named Entity Recognition via Dictionary-based Synonym
Generalization [51.89486520806639]
本研究では,入力テキストに含まれる生物医学的概念をスパンベース予測を用いて認識する,新しいSynGenフレームワークを提案する。
提案手法を広範囲のベンチマークで広範囲に評価し,SynGenが従来の辞書ベースモデルよりも顕著なマージンで優れていることを確認した。
論文 参考訳(メタデータ) (2023-05-22T14:36:32Z) - Knowledge-Rich Self-Supervised Entity Linking [58.838404666183656]
Knowledge-RIch Self-Supervision(KRISSBERT$)は400万のUMLSエンティティのためのユニバーサルエンティティリンカーである。
提案手法はゼロショット法と少数ショット法を仮定し,利用可能であればエンティティ記述やゴールドレファレンスラベルを簡単に組み込むことができる。
ラベル付き情報を一切使わずに400万のUMLSエンティティのためのユニバーサルエンティティリンカである$tt KRISSBERT$を生成する。
論文 参考訳(メタデータ) (2021-12-15T05:05:12Z) - Biomedical Entity Linking with Contrastive Context Matching [5.2710726359379265]
バイオメディカルエンティティリンクのための対照的な学習フレームワークであるBioCoMを紹介する。
生のPubMed記事から辞書マッチングによるトレーニングインスタンスを構築する。
最寄りのサーチにより,生物医学の正規化を推論時に予測する。
論文 参考訳(メタデータ) (2021-06-14T16:43:33Z) - Fast and Effective Biomedical Entity Linking Using a Dual Encoder [48.86736921025866]
文書中の複数の言及を1ショットで解決するBERTベースのデュアルエンコーダモデルを提案する。
本稿では,提案モデルが既存のBERTモデルよりも複数倍高速であり,バイオメディカルエンティティリンクの精度に競争力があることを示す。
論文 参考訳(メタデータ) (2021-03-08T19:32:28Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z) - Biomedical Entity Representations with Synonym Marginalization [23.051019207472027]
我々は,生物医学的実体の表現を,実体の同義語のみに基づく学習に焦点をあてる。
モデルベースの候補は、モデルが進化するにつれて、より難しい負のサンプルを含むように反復的に更新されます。
私たちのモデルであるBioSynは、従来の最先端モデルよりもずっと優れています。
論文 参考訳(メタデータ) (2020-05-01T06:20:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。