論文の概要: Causality extraction from medical text using Large Language Models (LLMs)
- arxiv url: http://arxiv.org/abs/2407.10020v1
- Date: Sat, 13 Jul 2024 22:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-16 19:48:19.208526
- Title: Causality extraction from medical text using Large Language Models (LLMs)
- Title(参考訳): 大言語モデル(LLM)を用いた医学テキストからの因果性抽出
- Authors: Seethalakshmi Gopalakrishnan, Luciana Garbayo, Wlodek Zadrozny,
- Abstract要約: 本研究では,医学テキストから因果関係を抽出するために,大規模言語モデルを含む自然言語モデルの可能性を探る。
妊娠期糖尿病診療ガイドラインからの因果性抽出の結果を報告する。
- 参考スコア(独自算出の注目度): 0.44378250612683984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores the potential of natural language models, including large language models, to extract causal relations from medical texts, specifically from Clinical Practice Guidelines (CPGs). The outcomes causality extraction from Clinical Practice Guidelines for gestational diabetes are presented, marking a first in the field. We report on a set of experiments using variants of BERT (BioBERT, DistilBERT, and BERT) and using Large Language Models (LLMs), namely GPT-4 and LLAMA2. Our experiments show that BioBERT performed better than other models, including the Large Language Models, with an average F1-score of 0.72. GPT-4 and LLAMA2 results show similar performance but less consistency. We also release the code and an annotated a corpus of causal statements within the Clinical Practice Guidelines for gestational diabetes.
- Abstract(参考訳): 本研究では,医療用テキスト,特に臨床実習ガイドライン(CPG)から因果関係を抽出するために,大規模言語モデルを含む自然言語モデルの可能性を探る。
妊娠期糖尿病診療ガイドラインからの因果性抽出の結果を報告する。
本稿では,BERT (BioBERT, DistilBERT, BERT) の変種と大規模言語モデル (LLM) を用いた実験,すなわち GPT-4 と LLAMA2 について報告する。
実験の結果、BioBERTはLarge Language Modelsを含む他のモデルよりも性能が良く、平均F1スコアは0.72であることがわかった。
GPT-4とLAMA2は同様の性能を示したが、一貫性は低かった。
また, 妊娠糖尿病クリニカル・クリニカル・ガイドラインにおいて, コードと注釈付き因果関係のコーパスを公表した。
関連論文リスト
- SEME at SemEval-2024 Task 2: Comparing Masked and Generative Language Models on Natural Language Inference for Clinical Trials [0.9012198585960441]
本稿では,SemEval-2024: Safe Biomedical Natural Language Inference for Clinical Trialsについて述べる。
NLI4CT(Multi-evidence Natural Language Inference for Clinical Trial Data)は、自然言語推論(NLI)モデルの整合性と忠実性の評価に焦点をあてたテキスト・エンターメント・タスクである。
論文 参考訳(メタデータ) (2024-04-05T09:18:50Z) - Development and validation of a natural language processing algorithm to
pseudonymize documents in the context of a clinical data warehouse [53.797797404164946]
この研究は、この領域でツールやリソースを共有する際に直面する困難を浮き彫りにしている。
臨床文献のコーパスを12種類に分類した。
私たちは、ディープラーニングモデルと手動ルールの結果をマージして、ハイブリッドシステムを構築します。
論文 参考訳(メタデータ) (2023-03-23T17:17:46Z) - Lightweight Transformers for Clinical Natural Language Processing [9.532776962985828]
本研究は,臨床テキスト処理のためのコンパクト言語モデルの開発に焦点をあてる。
知識蒸留と連続学習を用いた多種多様な軽量臨床用変圧器を開発した。
評価はいくつかの標準データセットにまたがって行われ、幅広い臨床テキストマイニングタスクをカバーした。
論文 参考訳(メタデータ) (2023-02-09T16:07:31Z) - Negation detection in Dutch clinical texts: an evaluation of rule-based
and machine learning methods [0.21079694661943607]
オランダ臨床ノートにおける否定検出の3つの方法の比較を行った。
その結果,biLSTMモデルとRoBERTaモデルはF1スコア,精度,リコールという点で,ルールベースモデルよりも一貫して優れていた。
論文 参考訳(メタデータ) (2022-09-01T14:00:13Z) - Learning structures of the French clinical language:development and
validation of word embedding models using 21 million clinical reports from
electronic health records [2.5709272341038027]
事前訓練された言語モデルを用いた伝達学習に基づく手法は、ほとんどのNLPアプリケーションで最先端の結果を得た。
本研究の目的は,下流医療NLP課題に対する言語モデルの適用が臨床報告に及ぼす影響を評価することである。
論文 参考訳(メタデータ) (2022-07-26T14:46:34Z) - Few-Shot Cross-lingual Transfer for Coarse-grained De-identification of
Code-Mixed Clinical Texts [56.72488923420374]
事前学習型言語モデル (LM) は低リソース環境下での言語間移動に大きな可能性を示している。
脳卒中におけるコードミキシング(スペイン・カタラン)臨床ノートの低リソース・実世界の課題を解決するために,NER (name recognition) のためのLMの多言語間転写特性を示す。
論文 参考訳(メタデータ) (2022-04-10T21:46:52Z) - Fine-Tuning Large Neural Language Models for Biomedical Natural Language
Processing [55.52858954615655]
バイオメディカルNLPの微調整安定性に関する系統的研究を行った。
我々は、特に低リソース領域において、微調整性能は事前トレーニング設定に敏感であることを示した。
これらの技術は低リソースバイオメディカルNLPアプリケーションの微調整性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2021-12-15T04:20:35Z) - CBLUE: A Chinese Biomedical Language Understanding Evaluation Benchmark [51.38557174322772]
中国初のバイオメディカル言語理解評価ベンチマークを提示する。
名前付きエンティティ認識、情報抽出、臨床診断正規化、単文/文対分類を含む自然言語理解タスクのコレクションである。
本研究は,現在の11種類の中国モデルによる実験結果について報告し,その実験結果から,現在最先端のニューラルモデルがヒトの天井よりもはるかに悪い性能を示すことが示された。
論文 参考訳(メタデータ) (2021-06-15T12:25:30Z) - Extracting Lifestyle Factors for Alzheimer's Disease from Clinical Notes
Using Deep Learning with Weak Supervision [9.53786612243512]
本研究の目的は,自然言語処理モデル(NLP)がライフスタイル要因を分類できる可能性を示すことである。
BERTモデルの有効性を検証するために,身体活動と過剰食の2つの事例研究を行った。
弱い監視を生かした提案手法はサンプルサイズを大幅に増大させる可能性がある。
論文 参考訳(メタデータ) (2021-01-22T17:55:03Z) - Domain-Specific Language Model Pretraining for Biomedical Natural
Language Processing [73.37262264915739]
バイオメディシンなどのラベルなしテキストの少ないドメインでは、スクラッチから言語モデルを事前学習することで、かなりの利益が得られることを示す。
実験の結果, ドメイン固有のプレトレーニングは, 幅広い生物医学的NLPタスクの基盤となることが明らかとなった。
論文 参考訳(メタデータ) (2020-07-31T00:04:15Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。