論文の概要: Negation detection in Dutch clinical texts: an evaluation of rule-based
and machine learning methods
- arxiv url: http://arxiv.org/abs/2209.00470v1
- Date: Thu, 1 Sep 2022 14:00:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-02 13:14:45.261699
- Title: Negation detection in Dutch clinical texts: an evaluation of rule-based
and machine learning methods
- Title(参考訳): オランダ臨床テキストにおける否定検出:ルールベースおよび機械学習手法の評価
- Authors: Bram van Es, Leon C. Reteig, Sander C. Tan, Marijn Schraagen, Myrthe
M. Hemker, Sebastiaan R.S. Arends, Miguel A.R. Rios, Saskia Haitjema
- Abstract要約: オランダ臨床ノートにおける否定検出の3つの方法の比較を行った。
その結果,biLSTMモデルとRoBERTaモデルはF1スコア,精度,リコールという点で,ルールベースモデルよりも一貫して優れていた。
- 参考スコア(独自算出の注目度): 0.21079694661943607
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As structured data are often insufficient, labels need to be extracted from
free text in electronic health records when developing models for clinical
information retrieval and decision support systems. One of the most important
contextual properties in clinical text is negation, which indicates the absence
of findings. We aimed to improve large scale extraction of labels by comparing
three methods for negation detection in Dutch clinical notes. We used the
Erasmus Medical Center Dutch Clinical Corpus to compare a rule-based method
based on ContextD, a biLSTM model using MedCAT and (finetuned) RoBERTa-based
models. We found that both the biLSTM and RoBERTa models consistently
outperform the rule-based model in terms of F1 score, precision and recall. In
addition, we systematically categorized the classification errors for each
model, which can be used to further improve model performance in particular
applications. Combining the three models naively was not beneficial in terms of
performance. We conclude that the biLSTM and RoBERTa-based models in particular
are highly accurate accurate in detecting clinical negations, but that
ultimately all three approaches can be viable depending on the use case at
hand.
- Abstract(参考訳): 構造化データはしばしば不十分であるため、臨床情報検索・意思決定支援システムのモデルを開発する際には、電子健康記録のフリーテキストからラベルを抽出する必要がある。
臨床テキストで最も重要な文脈特性の1つは否定であり、発見の欠如を示している。
オランダの臨床ノートにおいて,3つの否定検出法を比較し,ラベルの大規模抽出の改善を目的とした。
我々はErasmus Medical Center Dutch Clinical Corpusを用いて、MedCAT を用いた biLSTM モデルであるContextD に基づくルールベース手法とRoBERTa を用いた(微調整)モデルを比較した。
その結果,biLSTMモデルとRoBERTaモデルはF1スコア,精度,リコールという点で,ルールベースモデルよりも一貫して優れていた。
さらに,各モデルの分類誤差を体系的に分類し,特定のアプリケーションにおけるモデル性能をさらに向上させることができた。
3つのモデルを組み合わせることは、性能面では有益ではなかった。
特に, BiLSTM と RoBERTa をベースとしたモデルでは, 臨床否定の検出精度は高いが, いずれのアプローチも, 実例によっては有効である可能性が示唆された。
関連論文リスト
- Expert Study on Interpretable Machine Learning Models with Missing Data [10.637366819633302]
Inherently Interpretable Machine Learning (IML)モデルは、臨床的意思決定に有用な洞察を提供するが、特徴が欠落している場合に課題に直面している。
フランス全国29のトラウマセンターから71名の臨床医を対象に,医療従事者とICMの相互作用について検討した。
論文 参考訳(メタデータ) (2024-11-14T17:02:41Z) - Improving Extraction of Clinical Event Contextual Properties from Electronic Health Records: A Comparative Study [2.0884301753594334]
本研究は,医学テキスト分類のための様々な自然言語モデルの比較分析を行う。
BERTはBi-LSTMモデルを最大28%、ベースラインのBERTモデルを最大16%上回り、マイノリティクラスをリコールする。
論文 参考訳(メタデータ) (2024-08-30T10:28:49Z) - Is larger always better? Evaluating and prompting large language models for non-generative medical tasks [11.799956298563844]
本研究は、GPTベースのLCM、BERTベースのモデル、従来の臨床予測モデルなど、さまざまなモデルをベンチマークする。
我々は,寛容と予測,疾患階層再構築,生物医学的文章マッチングといった課題に焦点をあてた。
その結果, LLMは, 適切に設計されたプロンプト戦略を用いて, 構造化EHRデータに対して頑健なゼロショット予測能力を示した。
構造化されていない医療用テキストでは、LLMは細調整されたBERTモデルよりも優れておらず、教師なしタスクと教師なしタスクの両方に優れていた。
論文 参考訳(メタデータ) (2024-07-26T06:09:10Z) - Evaluating Generative Language Models in Information Extraction as Subjective Question Correction [49.729908337372436]
本稿では,新しい評価手法SQC-Scoreを提案する。
主観的質問訂正の原則に着想を得て,新しい評価手法SQC-Scoreを提案する。
3つの情報抽出タスクの結果から,SQC-Scoreは基準値よりもアノテータの方が好ましいことが示された。
論文 参考訳(メタデータ) (2024-04-04T15:36:53Z) - Improving Zero-Shot Detection of Low Prevalence Chest Pathologies using
Domain Pre-trained Language Models [0.9049664874474734]
低頻度病理診断のためのドメイン固有事前訓練によるゼロショット分類モデルの性能評価を行った。
従来のCLIP-BERTの重みは、一般的に見られる病態のモデル性能を低下させるが、事前学習したテキストタワーは、低頻度の疾患に対して非常に優れた性能を示す。
論文 参考訳(メタデータ) (2023-06-13T06:26:54Z) - Interpretable Medical Diagnostics with Structured Data Extraction by
Large Language Models [59.89454513692417]
タブラルデータはしばしばテキストに隠され、特に医学的診断報告に使用される。
本稿では,TEMED-LLM と呼ばれるテキスト医療報告から構造化表状データを抽出する手法を提案する。
本手法は,医学診断における最先端のテキスト分類モデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-06-08T09:12:28Z) - Assessment of contextualised representations in detecting outcome
phrases in clinical trials [14.584741378279316]
本稿では,300 PubMed の要約を専門的に注釈付けしたデータセット "EBM-COMET" を紹介する。
結果の抽出には,事前学習した文脈表現を微調整する。
ベストモデル(BioBERT)は81.5%のF1、81.3%の感度、98.0%の特異性を達成している。
論文 参考訳(メタデータ) (2022-02-13T15:08:00Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - An Interpretable End-to-end Fine-tuning Approach for Long Clinical Text [72.62848911347466]
EHRにおける非構造化臨床テキストには、意思決定支援、トライアルマッチング、振り返り研究を含むアプリケーションにとって重要な情報が含まれている。
最近の研究は、これらのモデルが他のNLPドメインにおける最先端の性能を考慮し、BERTベースのモデルを臨床情報抽出およびテキスト分類に応用している。
本稿では,SnipBERTという新しい微調整手法を提案する。SnipBERTは全音符を使用する代わりに,重要なスニペットを識別し,階層的に切り刻まれたBERTベースのモデルに供給する。
論文 参考訳(メタデータ) (2020-11-12T17:14:32Z) - Predicting Clinical Diagnosis from Patients Electronic Health Records
Using BERT-based Neural Networks [62.9447303059342]
医療コミュニティにおけるこの問題の重要性を示す。
本稿では,変換器 (BERT) モデルによる2方向表現の分類順序の変更について述べる。
約400万人のユニークな患者訪問からなる、大規模なロシアのEHRデータセットを使用します。
論文 参考訳(メタデータ) (2020-07-15T09:22:55Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。