論文の概要: BioLORD: Learning Ontological Representations from Definitions (for
Biomedical Concepts and their Textual Descriptions)
- arxiv url: http://arxiv.org/abs/2210.11892v1
- Date: Fri, 21 Oct 2022 11:43:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-24 15:29:04.627887
- Title: BioLORD: Learning Ontological Representations from Definitions (for
Biomedical Concepts and their Textual Descriptions)
- Title(参考訳): バイオロード:定義からオントロジ表現を学ぶ(生物医学的概念とテクスト的記述)
- Authors: Fran\c{c}ois Remy, Kris Demuynck and Thomas Demeester
- Abstract要約: BioLORDは、臨床文章や生物医学的概念に意味のある表現を創造するための新しい事前学習戦略である。
生物医学的名称は必ずしも自己説明的ではないため、しばしば非意味的な表現をもたらす。
BioLORDは、その概念表現を定義を用いて基礎づけ、マルチリレーショナルな知識グラフから派生した短い記述によってこの問題を克服している。
- 参考スコア(独自算出の注目度): 17.981285086380147
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This work introduces BioLORD, a new pre-training strategy for producing
meaningful representations for clinical sentences and biomedical concepts.
State-of-the-art methodologies operate by maximizing the similarity in
representation of names referring to the same concept, and preventing collapse
through contrastive learning. However, because biomedical names are not always
self-explanatory, it sometimes results in non-semantic representations. BioLORD
overcomes this issue by grounding its concept representations using
definitions, as well as short descriptions derived from a multi-relational
knowledge graph consisting of biomedical ontologies. Thanks to this grounding,
our model produces more semantic concept representations that match more
closely the hierarchical structure of ontologies. BioLORD establishes a new
state of the art for text similarity on both clinical sentences (MedSTS) and
biomedical concepts (MayoSRS).
- Abstract(参考訳): 本研究は, 臨床文と生体医学的概念の有意義な表現を生成するための新しい事前学習戦略であるbiolordを紹介する。
最先端の方法論は、同じ概念を参照する名前の表現における類似性を最大化し、対照的な学習による崩壊を防ぐ。
しかし、医学的名称は必ずしも自己説明的ではないため、しばしば非意味的な表現をもたらす。
BioLORDは、その概念表現を定義を用いて基礎づけることによってこの問題を克服し、バイオメディカルオントロジーからなるマルチリレーショナルな知識グラフから得られた短い記述も含む。
この根拠により、我々のモデルは、オントロジーの階層構造とより密に一致するより意味的な概念表現を生成する。
BioLORDは、臨床文章(MedSTS)とバイオメディカル概念(MayoSRS)の両方に関するテキスト類似性の新たな状態を確立する。
関連論文リスト
- Unified Representation of Genomic and Biomedical Concepts through Multi-Task, Multi-Source Contrastive Learning [45.6771125432388]
言語モデル(genEREL)を用いたジェノミクス表現について紹介する。
GENERELは遺伝学と生物医学の知識基盤を橋渡しするために設計されたフレームワークである。
本実験は,SNPと臨床概念のニュアンス関係を効果的に把握するgenERELの能力を実証するものである。
論文 参考訳(メタデータ) (2024-10-14T04:19:52Z) - Diversifying Knowledge Enhancement of Biomedical Language Models using
Adapter Modules and Knowledge Graphs [54.223394825528665]
我々は、軽量なアダプターモジュールを用いて、構造化された生体医学的知識を事前訓練された言語モデルに注入するアプローチを開発した。
バイオメディカル知識システムUMLSと新しいバイオケミカルOntoChemの2つの大きなKGと、PubMedBERTとBioLinkBERTの2つの著名なバイオメディカルPLMを使用している。
計算能力の要件を低く保ちながら,本手法がいくつかの事例において性能改善につながることを示す。
論文 参考訳(メタデータ) (2023-12-21T14:26:57Z) - BiomedJourney: Counterfactual Biomedical Image Generation by
Instruction-Learning from Multimodal Patient Journeys [99.7082441544384]
本稿では,インストラクション学習によるバイオメディカル画像生成のための新しい手法であるBiomedJourneyを紹介する。
我々は、GPT-4を用いて、対応する画像レポートを処理し、疾患進行の自然言語記述を生成する。
得られた三重項は、反現実的なバイオメディカル画像生成のための潜伏拡散モデルを訓練するために使用される。
論文 参考訳(メタデータ) (2023-10-16T18:59:31Z) - ReOnto: A Neuro-Symbolic Approach for Biomedical Relation Extraction [3.263873198567265]
ReOnto Relation extract (RE)は、文中のエンティティ間の意味関係を抽出し、語彙で定義された関係に整合させるタスクである。
本稿では,REタスクに神経記号的知識を活用する新しい手法を提案する。
BioRel と ADE の2つの公開バイオメディカルデータセットによる実験結果から,本手法がすべての基準値を上回っていることが確認された。
論文 参考訳(メタデータ) (2023-09-04T05:36:58Z) - Automatic Glossary of Clinical Terminology: a Large-Scale Dictionary of
Biomedical Definitions Generated from Ontological Knowledge [14.531480317300856]
40,000以上の生物医学的概念とその関係の一部はSnomedCTに含まれている。
理解可能な言語における明確な定義や記述は、しばしば利用できない。
AGCTには、SnomedCTの概念のためのコンピュータ生成定義が422,070個含まれている。
論文 参考訳(メタデータ) (2023-06-01T13:37:55Z) - Biomedical Named Entity Recognition via Dictionary-based Synonym
Generalization [51.89486520806639]
本研究では,入力テキストに含まれる生物医学的概念をスパンベース予測を用いて認識する,新しいSynGenフレームワークを提案する。
提案手法を広範囲のベンチマークで広範囲に評価し,SynGenが従来の辞書ベースモデルよりも顕著なマージンで優れていることを確認した。
論文 参考訳(メタデータ) (2023-05-22T14:36:32Z) - Detecting Idiomatic Multiword Expressions in Clinical Terminology using
Definition-Based Representation Learning [12.30055843580139]
バイオメディカルなMWEの慣用性を評価するための有効なツールを開発し,それらのMWEの意味表現とそれらの構成成分の表現の重み付け平均との類似度に基づいて評価する。
以上の結果から,BioLORDモデルは他のモデルでは再現されず,慣用的なMWEを識別する能力が強いことが示唆された。
論文 参考訳(メタデータ) (2023-05-11T13:42:58Z) - Automatic Biomedical Term Clustering by Learning Fine-grained Term
Representations [0.8154691566915505]
最先端の用語埋め込みは、事前訓練された言語モデルを利用して用語をエンコードし、知識グラフからの同義語と関係知識を使用して、対照的な学習を導く。
これらの埋め込みは、バイオメディカルな用語クラスタリングの失敗につながる小さなテキストの違いに敏感ではない。
この問題を軽減するため,動的ハード・ポジティと負のサンプルを提供することにより,プレトレーニング項埋め込みにおけるサンプリング戦略を調整した。
我々は提案手法をCODER++と命名し,新たにリリースされたBIOSというバイオメディカル知識グラフのバイオメディカル概念のクラスタリングに適用した。
論文 参考訳(メタデータ) (2022-04-01T12:30:58Z) - Clinical Named Entity Recognition using Contextualized Token
Representations [49.036805795072645]
本稿では,各単語の意味的意味をより正確に把握するために,文脈型単語埋め込み手法を提案する。
言語モデル(C-ELMo)とC-Flair(C-Flair)の2つの深い文脈型言語モデル(C-ELMo)を事前訓練する。
明示的な実験により、静的単語埋め込みとドメインジェネリック言語モデルの両方と比較して、我々のモデルは劇的に改善されている。
論文 参考訳(メタデータ) (2021-06-23T18:12:58Z) - UmlsBERT: Clinical Domain Knowledge Augmentation of Contextual
Embeddings Using the Unified Medical Language System Metathesaurus [73.86656026386038]
事前学習プロセス中にドメイン知識を統合するコンテキスト埋め込みモデルであるUmlsBERTを紹介する。
これらの2つの戦略を適用することで、UmlsBERTは、臨床領域の知識を単語埋め込みにエンコードし、既存のドメイン固有モデルより優れている。
論文 参考訳(メタデータ) (2020-10-20T15:56:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。